OpenAI 最近宣布,尽管在初期阶段进行了测试,但不会大规模采用谷歌的 TPU 芯片。TPU(张量处理单元)是谷歌专为机器学习任务设计的定制化 ASIC 芯片,旨在加速神经网络的训练与推理。TPU 采用数据流驱动架构,能够实现高效的矩阵乘法流水线计算,从而减少内存访问延迟。
图源备注:图片由AI生成,图片授权服务商Midjourney
OpenAI 表示将继续依赖英伟达的 GPU 和 AMD 的 AI 加速器来支持其模型的训练与推理。这是因为这两家公司的产品已经经过验证,并且 OpenAI 与它们之间已经建立了供应协议。虽然有媒体报道称 OpenAI 在某些任务中开始使用谷歌的 AI 芯片,但知情人士指出,这些仅是较低性能的 TPU,而谷歌最新、专为其 Gemini 大语言模型设计的芯片仍将继续自用。
OpenAI 与谷歌云的合作满足了其对基础设施的更广泛需求,但公司明确表示,在短期内不会将大量算力转移至 TPU 平台。投资者和分析师之前将潜在的 TPU 合作视为 OpenAI 在寻找英伟达替代方案的信号,摩根士丹利的策略师甚至认为,这一举动将能有效验证谷歌硬件在市场中的竞争力。
然而,OpenAI 的表态反映出其与现有芯片合作伙伴之间的紧密关系,以及超大规模部署新硬件的复杂性。在人工智能算力需求持续激增的背景下,OpenAI 似乎更倾向于在现有的 GPU-TPU 混合测试基础上逐步扩展,而不是全面转向 TPU 架构。这一芯片路线图向市场传递了信息,表明英伟达和 AMD 仍将是 OpenAI 的核心供应商,可能会限制谷歌在 AI 硬件市场的增长空间,尽管其 TPU 技术持续进步。
未来,投资者将密切关注 OpenAI 下一次基础设施更新及谷歌云财报,以捕捉 TPU 使用率变化或新供应商多元化的迹象。
划重点:
🌟 OpenAI 暂停大规模使用谷歌 TPU 芯片,继续依赖英伟达和 AMD。
📈 TPU 芯片经过初步测试,尚无规模化部署计划。
🔍 投资者将关注 OpenAI 基础设施更新及谷歌云财报,以了解 TPU 使用情况。