Threadser.net
數據
關鍵字
功能建議
Blog
Following
Threads
登入
串文
串文鏈結
2025-01-29 04:43
NVIDIA 的Blackwell介紹頁面早已揭示如果導入MoE Mixture of Expert 混合專家技術到模型裡,推論速度將是H100的30倍、訓練速度是4倍 MoE是DeepSeek自認的創新之一,當然改動了一些架構、增加了模型裡Expert專家的數量等工作 MoE的目的在降低算力的消耗,為業界已知的技術 如果不計折舊,若Blackwell是H100價格的三倍,推論成本理論上可以降為1/10 所以如果推論的需求大增,要不要買Blackwell
讚
89
回覆
3
轉發
3
作者
Andrew美股探路客
raikk6
粉絲
1,289
串文
154+
讚
回覆
轉發
24小時粉絲增長
發文前
1,226
發文後24小時
1,252
變化
+26 (2.12%)
互動率
(讚 + 回覆 + 轉發) / 粉絲數
7.37%
回覆 (BETA)
最先回覆的內容
發文後
用戶
內容