DeepSeek在今年春節期間走紅之后,也成為了云計算廠商爭奪的重點。
據界面新聞了解,目前已有亞馬遜云科技、阿里云、騰訊云、移動云在內的十幾家國內外云計算廠商上線了DeepSeek-R1和DeepSeek-V3模型。
實際上,類似的類似的劇情在過去一年中已屢見不鮮,雖然這次的角色身份略有不同,但模型爭霸的本質依然沒變。在普通用戶端,使用新AI很簡單,下載APP直接用起來就行了。但在企業端,卻并不簡單,部署首先需要價格不菲的硬件,其次需要提供穩定的API,再者還需要構建面向用戶端的應用并實施托管,更不用說高階的針對企業私有數據的定制優化了。同時,企業還需要考慮數據和模型的安全問題。
這些問題可以大致歸納為企業部署和使用模型中的工程化問題,具體包括成本、性能、安全以及針對私有數據進行定制優化、不同尺寸的模型和日益增長的各種智能體的復雜調度等。
以DeepSeek為例,其公開的模型V3和R1均有不同的型號。其中,DeepSeek-R1-Distill系列模型參數范圍是15億至700億,而R1和R1-Zero的參數規模則達到6710億。一方面,不同參數規模的模型對計算性能的要求不同,企業需要對部署的硬件和軟件進行細致的調優,確保模型在實際運行中能夠達到最佳的性能;另一方面,企業在應用實踐中通常需要平衡“響應速度”與“推理能力”而采用多級模型混合部署模式,還會面臨異構計算資源的管理、跨云部署等難題。
在這種情況下,降低企業部署大模型的門檻已經成為云計算廠商獲得市場競爭力的又一個關鍵因素。一位云計算廠商的售前技術人員對界面新聞表示,DeepSeek之后,大模型的迭代速度會加快,云計算廠商想要以更快地速度幫助企業應用性能更好、成本更低的模型,還需要持續降低企業部署大模型的門檻。
低代碼、多樣化部署成趨勢
靈活性和選擇多樣性企業選擇是云平臺部署大模型的重要因素之一。在降低企業部署大模型的門檻,云計算廠商依然在靈活性和多樣性上進行探索。
在上線DeepSeek-R1和DeepSeek-V3模型之后,阿里云PAI Model Gallery支持了云上一鍵部署兩款模型,無需編寫代碼即可完成AI模型開發流程。
企業的相關工作人員登陸阿里云PAI控制臺,在Model Gallery頁面的模型列表中選擇想要部署的DeepSeek系列模型,一鍵部署DeepSeek模型生成服務即可。
目前,DeepSeek-R1支持采用vLLM加速部署,DeepSeek-V3支持vLLM加速部署以及Web應用部署,DeepSeek-R1蒸餾小模型支持采用BladeLLM和vLLM加速部署。簡單來說,在不同計算資源和應用場景下,企業都可以更靈活地部署大模型。
同時,阿里云的機器學習平臺還為企業提供了自動化的機器學習工具,通過自動搜索模型參數和訓練超參數的最優組合、低代碼可視化建模等方式降低了企業部署大模型的技術門檻。
亞馬遜云著重探索的方向是助力企業客戶進行多樣化部署,這是基于其在大模型應用初期的洞察而來的。亞馬遜CEO Andy Jassy此前已多次在公開場合表達過其對大模型行業發展的判斷:不會有一個模型一統天下。在基于大模型構建應用時,不同的應用場景需要的技術指標也各不相同,延遲、成本、微調能力、知識庫協調能力、多模態支持能力等等,都會因場景需求的不同而被取舍。
經過幾年的發展,企業對大模型的應用越來越印證了這個判斷。以快速響應場景為例,DeepSeek R1的深層思考模式顯然不太合適,其生成首個token的用時超過30秒,而Amazon Nova則只需要數百毫秒即可生成響應。而目前的DeepSeek-V3模型是文生文模型,并不支持圖形等多模態信息的輸入,也不是萬能的。
其于這一理念,亞馬遜云科技上線了DeepSeek、AI21 Labs、Anthropic和poolside等100多個重點領先廠商的模型,并提供多樣化的部署方式。比如,在DeepSeek的部署上,亞馬遜云科技提供了4種方式,既可以滿足一部分企業客戶希望通過API快速集成預訓練模型的需求,也可以滿足另一部分企業客戶追求高級定制或者性價比的需求。
從整體的趨勢上看,降低模型訓練和部署門檻,使企業無需深厚AI經驗即可調用大模型,是各家云計算廠商目前都在做的事。
模型蒸餾等AI工具變得越來越重要
DeepSeek-R1-Distill通過蒸餾優化,在推理速度、計算成本、部署靈活性方面具有明顯優勢,它更適合需要低成本部署大模型的場景。
在DeepSeek-R1-Distill發布之前,亞馬遜云科技還在Amazon Bedrock中推出模型蒸餾功能,幫助企業進一步降低大模型的使用成本。根據亞馬遜云科技CEO馬特?加曼(Matt Garman)在演講中透露的信息,經過蒸餾的模型相比被蒸餾的模型,運行速度能夠快500%,成本還能降低75%。
在上述云計算廠商售前技術人員看來,在DeepSeek走紅之后,企業客戶通過模型蒸餾降本增效的需求越來越多,模型蒸餾功能對于云計算廠商也越來越重要。
據界面新聞了解,除了亞馬遜云科技之外,阿里云、百度云等國內云計算廠商也已支持蒸餾功能。其中,阿里云PAI的模型蒸餾功能支持將大模型的知識遷移到較小的模型中,從而在保留大部分性能的同時,大幅降低模型的規模和對計算資源的需求。比如,基于 Qwen2大模型開發的精簡語言模型,通過知識蒸餾技術,提升了指令遵循能力,同時保持了較小的參數規模,便于部署和應用。
通過模型蒸餾滿足企業客戶低成本部署的需求,屬于解決大模型落地使用中的工程化問題。如果說基于場景選擇合適的模型只是構建應用旅程的第一步,隨著構建的深入,解決工程化難題的能力成為能否實現快速創新的關鍵。
除了模型蒸餾功能之外,云計算廠商在優化效果、減低延遲和成本上還可以通過低延遲優化推理、提示詞緩存等功能,大幅提升推理效率。比如,直接返回已緩存的結果比每次都調用大模型計算,推理延遲更短且計算成本更低。
在企業落地大模型的過程中,還有一些需求推動著云計算廠商在更多工程化問題上進行創新,包括基于企業自有數據的定制優化、AI安全和審查以及實現復雜功能的多智能體等。
從實踐來看,云計算廠商也在通過降低投入成本和技術門檻的方式來滿足企業客戶的這些需求。其中,亞馬遜云科技把AI工具都集成在了Amazon Bedrock平臺上,通過更便于操作的方式讓企業經濟實用地解決提取自由數據、提升回答問題準確性等問題。
馬特?加曼(Matt Garman)在2024 re:Invent上分享亞馬遜在部署大模型時的幾個關鍵洞察時,特別強調了計算成本的問題。在他看來,隨著生成式AI應用規模的擴大,計算成本變得至關重要,人們非常渴望獲得更高的性價比。
這也是驅動云計算廠商在大模型部署上持續創新的關鍵因素。可以預見,未來,云計算廠商還進一步結合AI硬件加速和自動化優化,推動企業客戶使用上更快、更低成本的大模型推理服務。