Llama 4 Maverickは、128のエキスパートと1回の順伝播あたり170億の活性パラメータ(総計4,000億)を持つ混合エキスパート(MoE)アーキテクチャを採用したMetaの大容量マルチモーダル言語モデルです。12言語のテキスト・画像入力と100万トークンのコンテキストウィンドウに対応し、アーリーフュージョン方式でネイティブマルチモーダルを実現しています。アシスタント型インタラクションと画像推論向けに指示調整され、高度なマルチモーダル理解と高スループットが求められるビジョン言語タスクに最適化されています。
Llama 4 Maverickは、128のエキスパートと1回の順伝播あたり170億の活性パラメータ(総計4,000億)を持つ混合エキスパート(MoE)アーキテクチャを採用したMetaの大容量マルチモーダル言語モデルです。12言語のテキスト・画像入力と100万トークンのコンテキストウィンドウに対応し、アーリーフュージョン方式でネイティブマルチモーダルを実現しています。アシスタント型インタラクションと画像推論向けに指示調整され、高度なマルチモーダル理解と高スループットが求められるビジョン言語タスクに最適化されています。