在AI发展浪潮中,算力就是生产力。根据行业数据显示,训练类似GPT-4级别的模型需要数万张NVIDIA A100 GPU持续运转数月,仅电力成本就高达数百万美元。
这种惊人的资源消耗,体现出算力获取能力已经成为AI企业的重要竞争壁垒,拥有强大算力的企业可以在模型规模、训练速度、应用场景等方面占据明显优势。
3月11日消息,OpenAI与以GPU为核心的云服务提供商CoreWeave达成了一项为期五年、价值119亿美元的协议,再次印证了算力正在成为AI企业发展的核心竞争力。知情人士透露,OpenAI将通过此次交易获得CoreWeave价值3.5亿美元的股权,这笔交易与CoreWeave计划中的IPO并无关系。
1 CoreWeave:IPO前的“及时雨”
对于CoreWeave而言,这笔交易可谓是一场“及时雨”。
CoreWeave成立于2017年,早期以加密货币挖掘业务起家。随后根据市场趋势调整战略,CoreWeave成功转型,通过向科技公司提供NVIDIA的高性能GPU,助力构建和训练人工智能模型。
在过去的2024年,CoreWeave年营收飙涨730%,达19.15亿美元(约合人民币139亿元)。然而在一路高歌猛进的同时,CoreWeave也面临着一些挑战。
一方面,其客户集中度极高,微软作为最大客户,在2024年贡献了公司62%的营收。
另一方面,在前不久IPO前夕,微软撤回部分合作,原因是CoreWeave在交付方面存在问题,未能按时完成任务,这影响了微软对CoreWeave的信心。
本次与OpenAI达成的巨额订单,不仅填补了微软留下的空缺,还大幅提升了CoreWeave的营收预期,为其IPO之路注入了一剂强心针,显著增强了其商业前景的稳定性和吸引力。
2 OpenAI:构筑算力“护城河”
从OpenAI的角度来看,与CoreWeave的合作则体现了“兵无常势,水无常形”,与微软微妙的市场合作关系。
长期以来,OpenAI在计算能力上以微软为主,在一定程度上限制了其自主性和灵活性。此外,随着AI技术竞争日益激烈,不同场景下对算力的优化需求呈现出差异化,OpenAI也希望自身算力来源更加多元化。
在这种背景下,通过与CoreWeave的深度合作,OpenAI将算力掌握在自己手中,可以根据业务发展的节奏和模型训练的特点,定制化算力服务,确保后续算力模型训练的灵活性。
值得一提的是,OpenAI近期积极布局AI基础设施,例如与软银合作开展“星际之门”项目,与Oracle形成数据中心合作,此次与CoreWeave的合作是其完善自身基础设施生态的又一重要举措,有助于OpenAI在未来AI发展的浪潮中掌握更多的主动权。
3 小结:AI算力争夺“拉锯战”
当前,全球AI算力市场存在着严重的供需矛盾。随着大模型训练的规模呈指数级增长,对高性能计算资源的需求将急速攀升。OpenAI与CoreWeave的合作,体现出算力资源在AI产业链中的重要地位,算力供应商的话语权将显著提升。
从市场角度看,OpenAI与CoreWeave的成功合作,可能会吸引更多厂商关注AI算力领域。首当其冲的便是云服务提供商,如亚马逊AWS、微软Azure在加速自研芯片的同时,也将加大对算力基础设施的投入力度,如为客户提供个性化的AI模型训练环境、更灵活的资源调配方案以及更优质的技术支持等。
本文为e-works原创投稿文章,未经e-works书面许可,任何人不得复制、转载、摘编等任何方式进行使用。如已是e-works授权合作伙伴,应在授权范围内使用。e-works内容合作伙伴申请热线:editor@e-works.net.cn tel:027-87592219/20/21。