ChatGPT费水 最新研究发现 AI大模型加速迭代

AI头条· 2023-12-26 12:53:49

今年以来,人工智能(AI)的热潮席卷全球。不过,您知道和人工智能对话还会消耗水资源吗?AI费水背后的原因是什么?科技巨头们每年会消耗多少水资源?

如果一个用户向ChatGPT问了10到50个问题,可能会消耗掉500毫升的水。而如果成千上万的用户同时向AI提问,这背后会有多少水资源被消耗掉就难以估计了。

为什么AI会消耗水资源?

训练和运行AI大模型通常需要数以万计的服务器来提供计算资源、存储资源以及低延迟的网络连接,这些服务器会以集群的方式部署在名为“数据中心”的物理场所,当它们一起工作时,会在短时间内产生高度集中的热量,所以需要大量的水资源进行冷却。

以微软和谷歌为例,2022年,微软一共用掉了约17亿加仑(约64亿升)水,相当于可以填满约2500个奥运会规格的泳池;而谷歌的数据中心和办公室则用掉了总计56亿加仑(约212亿升)水,相当于8500个奥运会规格的游泳池。

数据显示,现在AI所需要的算力预计每100天就会翻一番,并且在未来五年内可能会增长超过一百万倍。研究人员预计,到2027年,全球范围内的AI需求可能会需要消耗掉66亿立方米的水资源,几乎相当于美国华盛顿州全年的取水量。

美国圣克拉拉大学马库拉应用伦理学中心高级主管安·斯基特表示:“我认为很快就会有监管机构开始行动,而欧盟明年就会提高相关的监管要求,要求公司披露它们的用水情况。”

ChatGPT大火后,各大科技企业纷纷发力AI大模型,作为通用的算力芯片开始供不应求。AI时代浪潮汹涌,海量数据催生庞大的算力需求,带动AI服务器需求量与日俱增,用于服务器内、外部数据传输等接口芯片也随之攀升。

国际数据公司IDC和浪潮信息联合发布的《2023—2024年中国人工智能计算力发展评估报告》预计,2023年中国人工智能服务器市场规模将达91亿美元,同比增长82.5%,2027年将达到134亿美元,年复合增长率达21.8%。

报告认为,人工智能正在加速从感知智能向生成式智能迈进,人工智能算力需求也因此快速增长。报告预计2022—2027年中国智能算力规模年复合增长率达33.9%,通用算力规模年复合增长率为16.6%。

全球人工智能硬件市场(服务器)规模将从2022年的195亿美元增长到2026年的347亿美元,年复合增长率达17.3%;其中,用于运行生成式人工智能的服务器市场规模在整体人工智能服务器市场的占比将从2023年的11.9%增长至2026年的31.7%。

AI服务器行业分析

随着AI大模型加速迭代,智能算力已成为稀缺资源。未来较长一段时间内,我国AI服务器市场维持供不应求状态,国产AI芯片市场规模增长迎来关键窗口期。

当前,大模型厂商产品迭代如火如荼。据百川智能创始人、CEO王小川介绍,目前百川大模型保持每个月一次模型数据的迭代。

安擎计算机相关负责人称,大模型训练所需数据激增,AI大模型厂商需要的是能够支持存储和训练的高端AI服务器。因此各服务器厂商目前都在升级芯片规格、扩大卡组数量,向高端AI服务器方向升级。

在AI大模型浪潮的带动下,人工智能芯片、服务器、数据中心市场规模将显著提升。IDC预计,2023年中国人工智能芯片出货量将达到133.5万片,同比增长22.5%。

人工智能服务器方面,IDC预计,2023年中国人工智能服务器市场规模将达到91亿美元,同比增长82.5%;2027年将达到134亿美元,年均复合增长率为21.8%。

随着AI大模型加速迭代,智能算力已成为稀缺资源。

过去五年(2018—2022年),北京、杭州、上海、深圳、广州、合肥、苏州、重庆等城市在人工智能领域具有较为突出的表现。受到生成式人工智能、智能计算中心投入的影响,2023年中国人工智能城市评估排行榜发生变化,北京依然位居首位,杭州和深圳分别位列第二位和第三位。此外,位居前十的城市还有上海、苏州、广州、济南、合肥、重庆和成都。

智算中心建设步伐加快。据不完全统计,截至2023年8月,全国已有超过30个城市建设智算中心。

AI大模型时代,进口品牌GPU等高端芯片供应面临周期波动挑战,为国产AI芯片加速推向市场打开关键窗口。不过,AI大模型的训练、推理和海量数据存储无一不需要高性能算力支撑,也对国产算力底层基础设施能力和生态建设提出考验。

据媒体梳理发现,浪潮信息、海光信息、希姆计算、中科通量、瀚博半导体、墨芯人工智能、摩尔线程、天数智芯、寒武纪、燧原科技等芯片公司推出了应用于不同场景的AI推理和训练任务的芯片加速卡,涉及CPU、GPU、RISC-V等不同设计架构。

AI服务器是一种能够提供人工智能(AI)的数据服务器。它既可以用来支持本地应用程序和网页,也可以为云和本地服务器提供复杂的AI模型和服务。AI服务器有助于为各种实时AI应用提供实时计算服务。

AI服务器主要有两种架构,一种是混合架构,可以将数据存储在本地,另一种是基于云平台的架构,使用远程存储技术和混合云存储(一种联合本地存储和云存储的技术)进行数据存储。

AI服务器成本主要来自CPU、GPU等芯片,占比50%以上

服务器由电源、CPU、内存、硬盘、风扇、光驱等几部分构成,芯片成本(CPU、GPU等)占比较高,在25%-70%不等;

AI服务器采用异构形式,按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合;目前GPU依然是实现数据中心加速的首选,其他非GPU芯片应用逐渐增多,IDC预计到2025年其他非GPU芯片占比超过20%;一般来说,ASIC的性能最好,但是可编程性和灵活性较弱;在训练或者通用情况下,GPU则是更好的选择。

中国AI服务器产业链上游为核心零部件及软件供应;中游为AI服务器厂商;下游为各类应用市场,包括互联网企业、云计算企业、数据中心服务商、政府部门、金融机构、医疗领域、电信运营商等。

AI服务器行业研究报告主要分析了AI服务器行业的市场规模、AI服务器市场供需求状况、AI服务器市场竞争状况和AI服务器主要企业经营情况,同时对AI服务器行业的未来发展做出科学的预测。

AI服务器行业研究报告可以帮助投资者合理分析行业的市场现状,为投资者进行投资作出行业前景预判,挖掘投资价值,同时提出行业投资策略和营销策略等方面的建议。



文章链接: http://www.huangxinwei.com/aizixun/1593.html Chat AI人工智能机器人在线使用

[免责声明]如需转载请注明原创来源;本站部分文章和图片来源网络编辑,如存在版权问题请发送邮件至398879136@qq.com,我们会在3个工作日内处理。非原创标注的文章,观点仅代表作者本人,不代表炎黄立场。