Meta公布MoE架構開發的Llama 4,開源4000億、1090億參數的Maverick、Scout

回應新崛起的DeepSeek,Meta上周末公布第一個混合專家(mixture of experts,MoE)模型家族Llama 4,並同時開源4000億參數的Maverick及1090億參數的Scout,此外預覽高達2兆參數量的Behemoth。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *