(CWW)NVIDIA與Hugging Face宣布建立合作伙伴關系,為數百萬開發者提供生成式AI超級計算服務,幫助他們構建大語言模型(LLM)和其他高級AI應用。
(資料圖片僅供參考)
此次合作將使開發者能夠使用Hugging Face平臺內的NVIDIA DGX?CloudAI超級計算為高級AI模型進行訓練及調優,借助為智能聊天機器人、搜索、摘要等特定行業應用的業務數據定制的大語言模型(LLM),推動生成式AI在各個行業中的應用。
NVIDIA創始人兼首席執行官黃仁勛表示:“研究人員和開發者是正在改變每個行業的生成式AI的核心力量。Hugging Face與NVIDIA正在將全球最大的AI社區與NVIDIA在全球領先云環境中的AI計算平臺相連接。通過雙方的合作,Hugging Face社區用戶只需要點擊一下鼠標,就可以使用NVIDIA AI計算。”
作為合作的一部分,Hugging Face將提供一項名為“訓練集群即服務(Training Cluster as a Service)”的新服務,用以簡化企業創建新的自定義生成式AI模型的過程。該服務由NVIDIA DGX Cloud提供支持,將在未來幾個月內推出。
Hugging Face聯合創始人兼首席執行官Clément Delangue表示:“世界各地的人們正在利用生成式AI工具建立新的聯系,進行新的探索,而我們仍處于這一技術轉型的早期階段。雙方的合作將為Hugging Face帶來NVIDIA最先進的AI超級計算,使企業能夠通過開源并以他們需要的速度將AI的命運牢牢掌握在自己手中,推動未來發展。”
在Hugging Face中大幅增強LLM定制和訓練功能
Hugging Face平臺讓開發者能夠利用開源資源構建、訓練和部署最先進的AI模型。目前有超過15,000家企業機構正在使用Hugging Face,社區共享了超過25萬個模型和5萬個數據集。
DGX Cloud與Hugging Face的集成將實現對NVIDIA多節點AI超級計算平臺的一鍵式訪問。通過DGX Cloud,Hugging Face用戶將能夠連接到NVIDIA AI超級計算,提供利用獨家數據快速訓練和調整基礎模型所需的軟件和基礎架構,推動新一輪企業大語言模型(LLM)開發浪潮。借助由DGX Cloud提供支持的訓練集群即服務,企業將能夠利用其在Hugging Face上的獨家數據,以前所未有的速度創建出獨一無二的高效模型。
DGX Cloud為大規模模型加速開發和定制
每個DGX Cloud實例均配備8顆NVIDIA H100或A10080GB Tensor Core GPU,每個節點的GPU總內存為640GB。NVIDIA Networking所提供的高性能、低延遲結構確保工作負載能夠在互聯系統集群中進行擴展,從而滿足高級AI工作負載的性能要求。
DGX Cloud還提供NVIDIA專家支持,可幫助客戶優化模型并快速解決開發難題。
DGX Cloud基礎設施由領先的NVIDIA云服務提供商合作伙伴托管。
供應情況
與Hugging Face集成的NVIDIA DGX Cloud預計將在未來幾個月內推出。