91视频观看-91视频观看免费-91视频免费网址-91视频免费网站-国产日产欧产精品精品推荐在线-国产日产欧美a级毛片

關于ZAKER 合作
量子位 20分鐘前

華為又開源了個大的:超大規模 MoE 推理秘籍

超大規模 MoE 模型(如 DeepSeek),到底該怎么推理才能做到又快又穩。

現在,這個問題似乎已經有了標準答案——

華為一個新項目,直接把推理超大規模 MoE 背后的架構、技術和代碼,統統給開源了!

這個新開源項目名叫Omni-Infer,整體來看,它對于企業用戶來說是非常利好的。

例如它可以給企業提供 PD 分離部署方案,針對 QPM 進行系統級優化,還會分享大規模商用過程中硬件使用的 " 方法論 "。

而且對于開發者和開源社區,華為這 " 一呼 " 也是起到了 " 百應 " 的效果。

北京智源研究院副院長兼總工程師林詠華表示:

北京智源研究院一直以來致力于人工智能開源生態建設,很高興看到 Omni-infer 項目開源,智源團隊打造的面向多芯片的 FlagScale 框架也在第一時間接入了 Omni-infer,期待后續有更多生態合作。

GitHub 地址:https://github.com/FlagOpen/FlagScale/pull/630

上海人工智能實驗室系統平臺中心負責人王輝認為:

DeeLlink 致力于打造最開放兼容的人工智能計算體系,十分期待能與 Omni-infer 項目攜手,繁榮自主軟硬件協同開源社區、拓展生態版圖。

以及OpenI 啟智社區運營中心主任余躍也給出了響應:

OpenI 啟智社區堅持創新為本,面向未來與 Omni-Infer 項目一起打造基于算力網的開源共創協作生態。

據了解,華為 Omni-Infer 社區的定位是 " 加速套件 + 最佳實踐 ",未來提供開箱即用能力,支持昇騰推理集群快速部署。

而對于這次 Omni-Infer 的開源,其實是華為兌現了一個月前在發布重磅技術報告之際所做出的承諾。

那么接下來,我們就來一同深入了解一下華為的 Omni-Infer。

一個框架和一個套件

從整體來看,Omni-Infer 可以拆成兩大塊來看:一個是推理框架,一個是推理加速套件

從框架角度來看,Omni-Infer 能和業界主流的開源大模型推理框架(如 vLLM)完美兼容,就像不同品牌的零件可以組裝在同一臺機器上。

并且據了解,它的功能還將不斷擴展,會持續為昇騰硬件平臺上的大模型推理提供更強大的支持(例如 SGLang 等主流開源 LLM 推理框架)。

值得一提的是,Omni-Infer 是與 vLLM/SGLang 等等這些主流大模型推理開源框架是解耦的,獨立安裝。

這就意味著用戶只需維護 vLLM 等的主版本即可,大大降低了軟件版本維護的成本。

至于 Omni-Infer 的加速套件,若是用較為形象的比喻,它的 " 打開方式 " 是這樣的:

企業級的 " 調度員 ":它有一套智能的調度系統,就像交通警察指揮車輛一樣,能合理安排任務(xPyD 調度)。而且支持大規模分布式部署,就像多個交通崗亭協同工作,不管任務量多大,都能保證最低的延遲,讓響應更及時。

精準的 " 負載平衡器 ":對于不同長度的任務序列,它在預填充和解碼這兩個關鍵階段都做了優化。比如,就像快遞分揀中心針對不同大小的包裹采用不同的分揀策略,讓整個處理過程的吞吐量達到最大,同時還能保持低延遲。

MoE 模型的 " 專屬搭檔 ":它對混合專家(MoE)模型特別友好,支持 EP144/EP288 等多種配置。可以想象成一個大型的 " 專家團隊 ",每個專家負責不同的任務,它能讓這些專家高效協作。

智能的 " 資源分配者 ":具備分層非均勻冗余和近實時動態專家放置功能。就像在一個大型工廠里,根據實時的生產需求,動態調整各個生產線的工人分配,讓資源得到最充分的利用。

注意力機制的 " 強化器 ":專門為 LLM、MLLM 和 MoE 等模型優化了注意力機制。這就好比給模型的 " 注意力 " 裝上了 " 放大鏡 ",讓它在處理信息時更聚焦、更高效,提升了模型的性能和可擴展性。

如何 " 食用 "?

在聊完 Omni-Infer 的特點之后,我們繼續來看下該如何去體驗。

首先對于它的使用環境是有一定的要求:

硬件:目前僅支持 CloudMatrix384 推理卡

操作系統:Linux Python: >=3.9, <= 3.11

其次在安裝方式上,目前僅支持通過 Docker 鏡像方式進行安裝:

docker pull swr.cn-southwest-2.myhuaweicloud.com/omni-ai/omniinfer:202506272026

這個鏡像已預先集成所需的 CANN 及 Torch-NPU 依賴包,同時內置可直接運行的 Omni-Infer 與 vLLM 工具包,開箱即可使用。

可以使用下面這個命令檢查是否可用:

pip list | grep omni_infer

PD 分離自動化部署(4 機 2P1D)為例,它的部署框架如下所示:

再接下來,只需文檔教程,僅少量代碼和步驟,即可完成安裝和部署:

整體來看,此次華為面向超大規模 MoE 開源的項目,是做到了簡單幾步就可以讓 AI 推理這事變得又快又穩。

極致開源

Omni-Infer 除了將此前《華為昇騰服務器 DeepSeek V3/R1 推理部署最佳實踐》技術報告中的關鍵技術開源出來之外,也同步進行了更加專業的開源社區建設。

首先,在獨立的社區倉庫中,將社區治理、社區會議、社區活動、生態合作、代碼規范、設計文檔等社區信息全部開放出來,讓開發者能夠最直接深入的參與到社區發展中。

其次,參照業界主流大型開源社區的最佳實踐,采用開放的社區治理機制,通過項目管理委員會(Project Management Committee)和特別興趣小組(Special Interest Group)兩級機制,提供公正透明的討論與決策機制。

再次,針對業界同類開源項目大多存在的 " 一頭熱 " 的 " 被動適配 " 生態合作模式問題,Omni-Infer 社區則采取了 " 主動適配 " 的社區構筑路徑,尤其是主動擁抱國內正在逐步成長的人工智能開源項目,讓生態真正實現多方共贏。

作為長期與業界幾大主流開源基金會(Linux 基金會、OpenInfra 基金會、Apache 基金會等)保持緊密合作關系的社區團隊,Omni-infer 剛開源的首個活動就將參與 OpenInfra 基金會在蘇州的 Meetup,感興趣的同學可以到現場交流,也順路可參加有特色的全球性開源社區的生日活動。

最后,所有相關的地址放下面了,感興趣的小伙伴可自取哦 ~

技術報告及可分析代碼包:

https://gitcode.com/ascend-tribe/ascend-inference-cluster

源代碼開發協作:

https://gitee.com/omniai/omniinfer

社區治理、運作等內容:

https://gitee.com/omniai/community

【其他托管平臺】

Github:

https://github.com/omni-ai-npu/omni-infer

OpenI 啟智社區:

https://git.openi.org.cn/omni-ai/omni-infer

GitLink 確實平臺:

https://gitlink.org.cn/omni-ai/omniinfer

一鍵三連「點贊」「轉發」「小心心」

歡迎在評論區留下你的想法!

點亮星標

科技前沿進展每日見

主站蜘蛛池模板: 男人操女人逼逼视频 | 亚洲第一页在线视频 | 国产碰碰 | 91九色视频无限观看免费 | 欧美精品免费线视频观看视频 | 欧美性色xo影院69 | 一级做a爰全过程免费视频毛片 | 国产精品亚洲综合久久 | 久草免费资源视频 | 久久免费成人 | 一级片日韩| 日韩不卡一二三区 | 51国产偷自视频区视频手机播器 | 一级毛片免费视频网站 | 欧美一级毛片高清视频 | 日本强不卡在线观看 | 一级片免费观看 | 完整日本特级毛片 | 精品久久久久久久久久久久久久久 | 久久免费精品 | 美国三级大片 | 亚洲一区二区三 | 久久久久久亚洲精品不卡 | 亚洲精品视频久久久 | 一级片免费在线播放 | 亚洲bbbbbxxxxx精品三十七 | 国内精品伊人久久久久妇 | 一级啊片| 日本不卡高清免费 | 亚洲国产精品日韩高清秒播 | 成人看片黄a在线看 | 中文字幕一区二区三区 精品 | 最新步兵社区在线观看 | 亚洲自拍成人 | 亚洲欧美高清在线 | 成人黄激情免费视频 | 亚洲91精品 | 欧美极品大肚孕妇孕交 | 久久精品国产国产精品四凭 | 亚洲色在线视频 | 精品亚洲成a人在线观看 |