(资料图片仅供参考)
据悉,近日全球半导体行业研究公司 SemiAnalysis 首席分析师 Dylan·Patel 表示,由于 ChatGPT 运行在价格昂贵的计算基础设施之上,OpenAI 每天为运行 ChatGPT 投入的成本可能高达 70 万美金。
Dylan·Patel 表示,无论是撰写求职信、生成教学计划、帮助用户优化个人资料,还是基于事实或假设对事物进行判断分析,ChatGPT 均需要庞大的算力才能基于用户的输入信息做出反馈,而这部分成本都来自于昂贵的服务器。
Dylan·Patel 及其同事 Afzal·Ahmad 均认为,虽然训练 ChatGPT 背后的大语言模型可能要花费上亿美元,但其运营费用或其背后的内容生产成本会更高,即使采用任何合理的部署规模都远远超过了其训练成本。
近日传言微软为了降低生成式人工智能模型的运行成本正在开发一款代号为“Athena”的 AI 芯片。报道称该项目自 2019 年以来一直在生产中,并可供一小部分 Microsoft 和 OpenAI 员工进行测试。
微软之前与 OpenAI 达成了 10 亿美元的投资协议,要求 OpenAI 仅在微软的 Azure 云服务器上运行其模型。此前有消息称,因为短缺导致微软为一些内部团队配给 GPU。而英伟达的处理器售价很高,因此微软期望以相同工作负载的更便宜方式来运行。
除了强大的性能之外,英伟达的芯片还具有显着的软件优势,大部分 AI 工作负载都是为它们设计的,并且拥有数十年的开发人员经验。目前微软大约有 300 多名员工正在开发这款芯片。
消息人士称,该芯片最早可能在明年发布供微软和 OpenAI 内部使用,微软官方对此没有回复,但是否也让 Azure 客户使用还正在讨论中。谷歌开发了自己的 AI 芯片系列 TPU,是目前唯一开发 LLM 的竞争对手芯片,而亚马逊拥有自己的替代产品线 Trainium。
据悉,“Athena”基于 5nm 工艺节点,专为大型语言模型 (LLM) 等训练软件而构建,这些软件是近几个月出现的生成式 AI 激增的核心,但这些模型的增长一直受到 AI 训练芯片市场领导者英伟达GPU 短缺的困扰。