本周,科技公司Meta、微软和谷歌分别发布财报,显示美国科技巨头在AI基础设施方面不惜血本地加大投入。在国内,商汤科技和科大讯飞也日前也都更新了大模型,纷纷对标全球最先进水平。
AI基础设施仍无法满足需求
4月25日,微软在财报中称,在第三财季中,资本支出同比增长79%至140亿美元,创下了2016年以来支出的最大季度增幅,且支出增速远快于收入增速,第三季度,微软销售额仅增长17%。
即便如此,微软仍然表示,支出还不够,因为人工智能服务的需求正在超过供应,尤其是用于部署人工智能模型的基础设施尚未满足需求。
微软首席财务官艾米·胡德(Amy Hood)在公司财报电话会议上对分析师表示:“对于人工智能的需求确实超出了供应。公司需要不断增加的计算量来运行繁重的工作负载。”
胡德表示,本季度资本支出还将大幅增加,主要用于云基础设施。她还呼吁在7月1日开始的新财年中增加资本支出,扩大规模,以满足云和人工智能产品不断增长的需求。
微软并不是唯一一家在AI基础设施方面大幅投入的科技公司。谷歌在同一天的财报中表示,该公司在推动AI领域发展方面投入巨大资金,且面临着新的成本压力,这是由于人工智能支出将增加。自去年以来,随着人工智能领域的竞争加剧,谷歌一直在大力削减成本。
4月24日,Meta发布第一季度财报称,将继续加快AI等基础设施投资,预计2024年的资本支出将在350亿美元至400亿美元之间,较之前预测的300亿美元至370亿美元有所增加,其中数十亿美元将投资于人工智能和元宇宙等领域。
Meta创始人CEO扎克伯格表示,Meta将把现有资源转向人工智能投资,从而保持高效运营。去年以来该公司实施的一系列成本削减计划推动Meta股价在过去一年中大涨超过112%。
不过,人工智能的盈利前景仍有不确定性。扎克伯格表示,他预计在Meta的人工智能产品扩展到可盈利的服务之前,将会经历“多年的投资周期”。在扎克伯克作出该表态之后,Meta股价暴跌近20%。
扎克伯格也回应了股价的暴跌,他表示:“我们的产品策略必须要经历这个阶段,在历史上我们的股价也都在投资扩张期经历过很大的波动,我们正在投资扩大新产品的规模,但尚未变现。”
他还告诉投资者,如果他们愿意搭上“AI顺风车”,很可能会得到回报。“从历史上看,投资于我们构建新的规模化消费体验应用程序,将是一项非常好的长期投资,而且最初的迹象也非常积极。”他表示。但他承认,构建领先的人工智能将是一项更大的任务,这可能需要等待几年时间。
与Meta相比,云服务巨头谷歌和微软已经看到了人工智能需求对云业务增长的驱动。谷歌第一财季报告显示,谷歌云业务收入同比增长28%。这推动谷歌股价在盘后交易中大涨超过12%,市值突破2万亿美元。
微软第三财季报告显示,微软云Azure的收入增长达到31%,其中人工智能增长7个百分点。胡德表示,未来AI的收入能否进一步推动,取决于供应限制能否解决。
胡德所称的AI基础设施供应的限制问题也是行业普遍面临的挑战。英伟达作为全球最大的用于训练和部署生成式人工智能模型的处理器开发商,一直受到供应限制,这也使其主要客户之一微软感受到压力。英伟达近日向OpenAI交付了首台DGX H200人工智能系统,市场普遍对该系统供应表达担忧。
英伟达股价周四收盘时上涨超过3%,市值重回2万亿美元上方。不过近一个月,受到市场对AI投资过热情绪质疑的影响,该公司股价已从上个月的高点迅速回落超过13%。
中国AI企业应对算力资源问题
在国内,由人工智能推动的需求也在迅速增长。近期,包括商汤科技和科大讯飞在内的企业都更新了人工智能大模型。商汤科技在发布日日新5.0版大模型后,股价一度大涨超过30%。
4月26日,科大讯飞开盘后股价大涨近4%。当天,科大讯飞更新了星火大模型3.5V版本,首发多情感超拟人合成,具备情绪表达能力,并推出一句话声音复刻功能。
值得关注的是,商汤科技和科大讯飞都以OpenAI目前最先进的大模型GPT-4 Turbo为标杆。商汤科技董事长兼CEO徐立在发布会上表示,日日新5.0大部分核心测试集指标上全面对标甚至已经超过OpenAI目前最先进的AI大模型GPT-4 Turbo。
科大讯飞董事长刘庆峰也表示,本次讯飞星火长文本功能全新升级后,具备长文档信息抽取、长文档知识问答、长文档归纳总结、长文档文本生成等能力,总体已经达到GPT-4 Turbo最新长文本版本97%的水平;在银行、保险、汽车、电力等多个垂直领域的知识问答任务上,讯飞星火长文本总体水平已经超过GPT-4 Turbo。
对于国内人工智能企业而言,解决算力资源的问题更为迫切。刘庆峰坦言,长文本功能的落地需要解决信息高效处理的问题:面对上百万甚至上千万文字,长文本大模型消耗的运算资源非常大。
为了解决大模型应用效率和准确率问题,刘庆峰谈道,基于讯飞星火V3.5对长文本的理解、学习、回答能力,科大讯飞进行了重要的模型剪枝和蒸馏,从而推出130亿参数的大模型,在效果损失仅3%以内的情况下,使得星火在文档上传解析处理、知识问答的首次响应时间以及文字生成方面都获得了极大的效率提升。
徐立也表示,如果几十亿个端侧设备都在不停地调用大模型,将需要消耗巨大算力,而且没有任何一个服务器能够支撑得起,因此具有不同场景下端侧应用能力的“小模型”将是AI模型普及最关键的核心。“在不同的适用场景下,小模型的决策速度可以更快。”他说道。