Meta公布MoE架構開發的Llama 4,開源4000億、1090億參數的Maverick、Scout 發佈日期: 7 4 月, 2025 作者: wellchen2020 回應新崛起的DeepSeek,Meta上周末公布第一個混合專家(mixture of experts,MoE)模型家族Llama 4,並同時開源4000億參數的Maverick及1090億參數的Scout,此外預覽高達2兆參數量的Behemoth。