新一轮人工智能(AI)热潮引发大模型算力需求大增,使得英伟达AI芯片供不应求,加之算力成本不断攀升,让AI巨头们或将选择“围剿”英伟达。
北京时间2月2日,科技巨头Meta Platforms对外证实,该公司计划今年在其数据中心部署最新的自研定制芯片,并将与其他GPU芯片协调工作,旨在支持其AI大模型发展。
研究机构SemiAnalysis创始人Dylan Patel表示,考虑到Meta的运营规模,一旦大规模成功部署自研芯片,有望将每年节省数亿美元能源成本,以及数十亿美元芯片采购成本。
更早之前,OpenAI持续推进“造芯”计划。公司CEO萨姆·奥尔特曼(Sam Altman)日前到访韩国,与芯片巨头三星、SK海力士探讨合作。据报道,双方会议讨论的主要话题之一是高带宽存储(HBM)芯片,有消息称,若合作达成三星和SK海力士可能会为OpenAI定制开发以及生产存储芯片。
不止是Meta和OpenAI,据The Information统计,截至目前,全球有超过18家用于AI大模型训练和推理的芯片设计初创公司,包括Cerebras、Graphcore、壁仞科技、摩尔线程、d-Matrix等,融资总额已超过60亿美元,企业整体估值共计超过250亿美元(约合1792.95亿元人民币)。
这些公司背后的投资方包括红杉资本、OpenAI、五源资本、字节跳动等。如果加上微软、英特尔、AMD等科技巨头和芯片龙头的“造芯”行动,对标英伟达的AI芯片企业数量最终就将超过20家。
如今,即使“杀不死”市值达1.63万亿美元的GPU(图形处理器)芯片龙头英伟达,全球也要有数十家AI公司全力“围剿”它。
不仅加速造AGI,奥尔特曼还要投资百亿下场“造芯”
目前在大模型领域,AI算力主要受限于两个方面:AI模型训练需求暴增,以及算力成本越来越高。
首先是需求增长。
据OpenAI开发平台服务状态显示,1月29日,ChatGPT平台的应用编程接口(API)出现断链,时长近20分钟,并且导致ChatGPT回答的错误率飙升。OpenAI表示,这主要是由于应用访问量激增,进而导致服务器“宕机”。
有消息称,目前ChatGPT平台主要使用英伟达A100和H100 GPU卡,训练一次大约需要2.5万块A100芯片。如果训练GPT-5,则还需要5万张H100。市场分析认为,随着GPT模型的不断迭代升级,未来GPT-5或将出现无“芯”可用的情况。
除了需求之外,算力成本也是AI芯片采购的核心要素之一。
公开数据显示,英伟达H100的价格已经飙升至2.5万-3万美元,这意味着ChatGPT单次查询的成本将提高至约0.04美元。如果要把ChatGPT能力与谷歌搜索对抗的话,不仅约481亿美元的AI芯片投入,而且每年还需要约160亿美元的芯片才能维持运作。
如今,英伟达已经成为了AI大模型训练当中必不可少的关键合作方。
据富国银行统计显示,目前,英伟达在数据中心AI市场拥有98%的市场份额,而AMD公司的市场份额仅有1.2%,英特尔则只有不到1%。