在人工智能(AI)技术迅猛发展的同时,其对环境的影响也日益受到关注。近期,Dell、Google Cloud、IBM和Microsoft等科技巨头纷纷在其可持续发展报告中提出了减少AI对气候的负面影响的措施。
来自微软、Hugging Face、艾伦人工智能研究所和几所大学的研究团队在2022 年发现,在 8 个 NVIDIA V100 GPU 上训练一个小型语言转换器模型36小时消耗了37.3 kWh。这意味着多少碳排放在很大程度上取决于进行训练的地区,但平均而言,训练语言模型排放的二氧化碳大约与使用一加仑汽油的二氧化碳一样多。仅训练理论大型模型(一个 60 亿参数的语言模型)的一小部分,所排放的二氧化碳量相当于为家庭供电一年所排放的二氧化碳量。
另一项研究发现,人工智能技术每年消耗的电量可能达到 29.3 太瓦时,相当于整个爱尔兰的用电量。加州大学河滨分校电气与计算机工程副教授ShaoleiRen在接受耶鲁大学环境 360采访时表示,使用 GPT-3 进行约10 到 50条回复的对话会消耗半升淡水。
近期Arm Holdings Plc的首席执行官雷内-哈斯(Rene Haas)也发出警告:到2030年,全球数据中心的用电量将超过印度。
生成式AI的能源消耗取决于多种因素,包括物理位置、模型大小、训练强度等。过度的能源使用可能导致干旱、动物栖息地丧失和气候变化。为了减少这些负面影响,科技公司正在寻求通过可持续的方式运行生成式AI,以减轻气候变化的影响,并吸引希望对地球产生积极贡献的投资者。
许多科技巨头都设定了可持续发展目标,但针对生成式AI和电力使用的目标则较少。例如,微软的一个目标是用100%新增的可再生能源发电来供电所有数据中心和设施。此外,微软还强调与可再生能源项目的电力购买协议。
IBM的全球可持续性软件负责人Christina Shim在电子邮件中表示:“组织绝对有办法在最小化能源使用的同时收获AI的好处。模型选择非常重要。使用基础模型而不是从头开始训练新模型,有助于在长期使用中‘摊销’那些能源密集型的训练。使用小型模型并在正确的数据上进行训练,更加节能,并且可以达到相同或更好的结果。
IBM 正在通过“回收”人工智能模型来解决围绕生成型人工智能的可持续电力使用问题;这是麻省理工学院开发的一项技术,其中较小的模型“生长”,而不是必须从头开始训练较大的模型。
IBM 可持续发展软件全球负责人克里斯蒂娜·希姆 (Christina Shim) 在给 TechRepublic 的电子邮件中表示:“组织肯定有办法获得人工智能的好处,同时最大限度地减少能源消耗。” “模型的选择非常重要。使用基础模型与从头开始训练新模型有助于在较长的使用周期中“摊销”能源密集型训练。使用在正确数据上训练的小型模型更加节能,并且可以获得相同或更好的结果。不要用大锤敲开坚果。”
资讯来源:
https://www.techrepublic.com/article/tech-giants-ai-sustainability
本站文章通过互联网转载或者由本站编辑人员搜集整理发布,如有侵权,请联系本站删除。