日前,OpenAI方面宣布与亚马逊云科技(以下简称为AWS)达成战略合作协议,将在未来7年内向后者采购价值380亿美元的算力,并透露该协议的价值还将在未来7年内持续增长。
据了解,据双方达成的协议,OpenAI将立即开始使用AWS的算力资源、支撑从ChatGPT推理到新一代模型训练等多样化AI任务,其中包括数十万片英伟达最新GPU(涵盖GB200与GB300系列),并具备扩展至千万级CPU规模的能力。

据AWS方面透露,此次为OpenAI打造的AI算力集群采用全新架构设计,重点优化数据中心网络带宽与GPU互联效率。通过Amazon EC2 UltraServer实现低延迟互联,OpenAI能够在大规模模型训练与推理之间实现灵活切换与资源调度。根据AWS方面公布的信息,“所有容量计划在2026年底前部署完毕,并具备在2027年及以后进一步扩展的能力”。
对此OpenAI首席执行官萨姆·奥特曼(Sam Altman)表示,“前沿AI的突破离不开稳定而高效的算力支持。与AWS的合作将进一步强化我们的计算生态,为下一阶段的智能发展奠定基础”。AWS首席执行官马特·加曼(Matt Garman)则表示,“随着 OpenAI不断突破AI技术的极限,AWS一流的基础设施将成为其AI雄心的坚实后盾”。
双方认为,“AWS在云基础设施领域的领先地位,结合OpenAI在生成式 AI 领域的开创性进展,将帮助数百万用户持续从ChatGPT中受益”。
值得一提的是,今年早些时候OpenAI的开源模型已在Amazon Bedrock上线。据AWS方面透露,OpenAI已迅速成为Amazon Bedrock上最受欢迎的模型提供商之一,包括Bystreet、Comscore、Peloton、Thomson Reuters、Triomics在内的数千家客户正利用其模型进行编码、科学分析、数学问题求解等工作。
【本文图片来自网络】
