2025-01-29 04:43
NVIDIA 的Blackwell介紹頁面早已揭示如果導入MoE Mixture of Expert 混合專家技術到模型裡,推論速度將是H100的30倍、訓練速度是4倍 MoE是DeepSeek自認的創新之一,當然改動了一些架構、增加了模型裡Expert專家的數量等工作 MoE的目的在降低算力的消耗,為業界已知的技術 如果不計折舊,若Blackwell是H100價格的三倍,推論成本理論上可以降為1/10 所以如果推論的需求大增,要不要買Blackwell
89
回覆
3
轉發
3

回覆

轉發

24小時粉絲增長

發文前

1,226

發文後24小時

1,252

變化

+26 (2.12%)

互動率

(讚 + 回覆 + 轉發) / 粉絲數
7.37%

回覆 (BETA)

最先回覆的內容
發文後用戶內容

© 2025 Threadser.net. 版權所有。

Threadser.net 與 Meta Platforms, Inc. 無關,未經其認可、贊助或特別批准。

Threadser.net 也不與 Meta 的"Threads" 產品存在任何關聯。