
AI开发平台Hugging Face已与包括SambaNova在内的第三方云供应商合作推出推理提供者功能,旨在使使用Hugging Face的开发者更容易地在其选择的基础架构上运行AI模型。
参与该新举措的其他合作伙伴包括Fal、Replicate和Together AI。
Hugging Face表示,其合作伙伴已经与其合作,将其各自的数据中心的运行模型的权限集成到Hugging Face的平台中。现在,使用Hugging Face的开发者可以在几次点击内,例如从Hugging Face项目页面在SambaNova的服务器上启动DeepSeek模型。
Hugging Face长期以来一直提供其内部解决方案以运行AI模型。但在周二的一篇博客文章中,该公司解释称,其重心已转移到协作、存储和模型分发能力。

“无服务器提供者蓬勃发展,是时候让Hugging Face通过一组出色的提供者提供易于统一访问无服务器推理了”,该公司在文章中写道。 “[我]我们很自然地与下一代无服务器推理提供者合作进行面向模型的无服务器推理。”
无服务器推理让开发者无需配置或管理任何底层硬件就可以部署和扩展AI模型。诸如SambaNova之类的提供者会自动启动必要的计算资源,并根据使用量进行扩展或缩减。
Hugging Face表示,通过其平台使用第三方云提供商的开发人员目前将支付标准提供商API费率。 (Hugging Face表示,将来可能与提供者合作伙伴建立收入分成协议。)所有Hugging Face用户都会获得一小额度的推理积分,而订阅Hugging Face Pro的用户将额外获得每月2美元的积分。

Hugging Face成立于2016年,作为一个聊天机器人初创公司,已成为全球最大的AI模型托管和开发平台之一。迄今为止,Hugging Face已从投资者包括Salesforce、Google、亚马逊和英伟达募集了近4亿美元的资金。该公司声称已实现盈利。
TechCrunch有一份专注于AI的新闻简报!在此注册,每周三在收件箱收到。