Vessl AI推出流体计算技术,破解AI基础设施GPU供需难题
2026-04-23 06:57

Vessl AI推出流体计算技术,破解AI基础设施GPU供需难题

  

  “GPU的供需存在地理和时间上的错配。数据中心可能建好了却找不到合适的客户,同时也会出现需求溢出却无法获得所需GPU的情况。”

  在AI热潮推动GPU供应瓶颈成为热门话题之际,“新云”公司正受到关注。与亚马逊或谷歌等多功能云不同,这些是专为AI定制的基础设施公司,专门出租AI开发和运营所需的GPU。近期,英伟达等大型科技公司已连续投资相关企业,韩国股市也推出了只包含这些公司的“新云ETF”。

  有一家初创公司,其服务方式并非直接购买和提供GPU,而是通过基于软件的方法,连接并调度全球闲置的GPU或其他云的剩余资源。这就是2020年成立的Vessl AI。公司由具有开发背景的安在满(音)创立,最初提供优化开发所需计算资源的机器学习运维平台。从2024年开始,公司将这项业务扩展至GPU资源连接。当时的GPU运营规模约为100台,到2025年底增至300台,并在今年3月迅速增长至3000台。目标是到今年年底确保拥有1万台。与此相应,去年的销售额也比前年增长了3.4倍。

  24日会面的安CEO表示:“直接提供GPU的方式通常需要租用整台服务器1到3年,因此从客户角度来看,工作完成后仍需支付剩余期限的费用,或者在任务集中时难以灵活扩展规模。”然而,Vessl AI能自动调度多个数据中心的GPU使用,使基础设施可根据需求灵活扩展。安CEO将此解释为“流体计算”,意味着它解决了GPU的流动性问题。

  据说成本最高可降低80%。首先,Vessl AI以更优惠的条件从各数据中心获取GPU。由于客户按使用时间付费,因此成本得以降低。目前,Vessl AI已与以色列、芬兰、日本和韩国等地的八个全球数据中心签订基础设施合同,超过100家公司和研究机构正在使用Vessl AI的云服务,包括加州大学伯克利分校、斯坦福大学和明尼苏达大学等。

  安CEO解释说:“在‘大语言模型’训练的热潮过去后,由于物理AI、世界模型和科学AI等新的训练需求,GPU需求正迅速增长。”特别是在这一领域,流动性的优势更加凸显。这是因为模拟所需的GPU与全面训练所需的GPU不同,且在切换时,单个数据中心往往难以支持所有GPU类型。

  关于AI基础设施市场的未来变化,安CEO解释道:“即使现在,也有约30到40名客户在等待大规模获取GPU。去年和今年情况完全不同。”这表明需求将激增。尤其是最近,企业利用成熟的GPU云而非自建数据中心的需求正迅速增加。Vessl AI近期与国内半导体公司Rebellions建立了合作伙伴关系,并正扩大与国内云公司的合作。安CEO表示:“最终,我们希望进行协调,让国内资源能在海外得到充分利用。”

  本文由海声网原创发布,未经许可,不得转载!

  本文链接:http://o.frfey.com/lf/1335.html

本内容为作者翻译自英文材料或转自网络,不代表本站立场,未经允许不得转载
如对本稿件有异议或投诉,请联系本站
想要了解世界的人,都在 切尔网

相关推荐