微软、谷歌和Meta正在投资数十亿美元开发生成型
人工智能(AI),如在加州旧金山发布的大语言模型ChatGPT。这些模型具备的特点使得它们比之前的模型更加强大,但也对环境造成了更重的负担。近日在Nature上发布的一篇短讯文章,提出了一个更可持续的生成型AI开发框架。文章指出复杂度的增加可以让大型语言模型产生智能文本,但消耗的电力会远高于之前的版本。根据2022年发货的AI训练专用GPU数量,全年总计可能消耗约95亿度电力。这一能耗水平约等于一个中等发达国家100万人口的年度生产和生活用电需求。随着硬件变得越来越复杂,巨大数据集训练速度和容量增长的同时,必将推动产生新的
能源需求。因此开发生成型AI时,可以通过调整模型的结构、推广节能硬件、使用清洁能源和优化AI模型运作方式来减少无效训练的数量,达到减少
碳排放的效果。
版权申明:本内容来自于互联网,属第三方汇集推荐平台。本文的版权归原作者所有,文章言论不代表链门户的观点,链门户不承担任何法律责任。如有侵权请联系QQ:3341927519进行反馈。