(CWW)NVIDIA与Hugging Face宣布建立合作伙伴关系,为数百万开发者提供生成式AI超级计算服务,帮助他们构建大语言模型(LLM)和其他高级AI应用。
此次合作将使开发者能够使用Hugging Face平台内的NVIDIA DGX™CloudAI超级计算为高级AI模型进行训练及调优,借助为智能聊天机器人、搜索、摘要等特定行业应用的业务数据定制的大语言模型(LLM),推动生成式AI在各个行业中的应用。
NVIDIA创始人兼首席执行官黄仁勋表示:“研究人员和开发者是正在改变每个行业的生成式AI的核心力量。Hugging Face与NVIDIA正在将全球最大的AI社区与NVIDIA在全球领先云环境中的AI计算平台相连接。通过双方的合作,Hugging Face社区用户只需要点击一下鼠标,就可以使用NVIDIA AI计算。”
(资料图)
作为合作的一部分,Hugging Face将提供一项名为“训练集群即服务(Training Cluster as a Service)”的新服务,用以简化企业创建新的自定义生成式AI模型的过程。该服务由NVIDIA DGX Cloud提供支持,将在未来几个月内推出。
Hugging Face联合创始人兼首席执行官Clément Delangue表示:“世界各地的人们正在利用生成式AI工具建立新的联系,进行新的探索,而我们仍处于这一技术转型的早期阶段。双方的合作将为Hugging Face带来NVIDIA最先进的AI超级计算,使企业能够通过开源并以他们需要的速度将AI的命运牢牢掌握在自己手中,推动未来发展。”
在Hugging Face中大幅增强LLM定制和训练功能
Hugging Face平台让开发者能够利用开源资源构建、训练和部署最先进的AI模型。目前有超过15,000家企业机构正在使用Hugging Face,社区共享了超过25万个模型和5万个数据集。
DGX Cloud与Hugging Face的集成将实现对NVIDIA多节点AI超级计算平台的一键式访问。通过DGX Cloud,Hugging Face用户将能够连接到NVIDIA AI超级计算,提供利用独家数据快速训练和调整基础模型所需的软件和基础架构,推动新一轮企业大语言模型(LLM)开发浪潮。借助由DGX Cloud提供支持的训练集群即服务,企业将能够利用其在Hugging Face上的独家数据,以前所未有的速度创建出独一无二的高效模型。
DGX Cloud为大规模模型加速开发和定制
每个DGX Cloud实例均配备8颗NVIDIA H100或A10080GB Tensor Core GPU,每个节点的GPU总内存为640GB。NVIDIA Networking所提供的高性能、低延迟结构确保工作负载能够在互联系统集群中进行扩展,从而满足高级AI工作负载的性能要求。
DGX Cloud还提供NVIDIA专家支持,可帮助客户优化模型并快速解决开发难题。
DGX Cloud基础设施由领先的NVIDIA云服务提供商合作伙伴托管。
供应情况
与Hugging Face集成的NVIDIA DGX Cloud预计将在未来几个月内推出。