OpenBMB、マルチモーダルモデル「MiniCPM-V 4.6 1.3B」を公開
Artificial Analysis
2026年5月12日 (火)
- •MiniCPM-V 4.6 1.3B Instructは「Artificial Analysis Intelligence Index」で13点を記録した。
- •MMMU-Proにおいて38%を達成し、パラメータ数2B未満のオープンウェイトモデルで最高性能を示した。
- •ベンチマーク実行に必要な出力トークン数は5.4Mと少なく、高い効率性を備えている。
OpenBMBは2026年5月11日、テキスト、画像、動画入力をサポートする視覚言語モデル「MiniCPM-V 4.6 1.3B Instruct」を公開した。清華大学のNLPラボとModelBestの共同開発によるこのモデルは、13億パラメータのデンス(密結合)型アーキテクチャを採用しており、Apache 2.0ライセンスの下でHugging Faceを通じて利用可能だ。
「Artificial Analysis Intelligence Index」において13点を獲得し、Qwen3.5 0.8B(10点)を上回った。視覚推論タスク「MMMU-Pro」では38%を記録し、パラメータ数2B未満のオープンウェイトモデルとして最高スコアを達成した。また、インデックス測定に要した出力トークン数は5.4Mで、Qwen3.5 0.8B(101Mおよび233M)と比較してそれぞれ約19倍、約43倍の効率性を実現している。
一方で知識想起能力には課題が残り、「AA-Omniscience」ベンチマークでは-85を記録した。これはExaone 4.0 1.2B(-83)やQwen3.5 0.8B(-89)といった他の2B未満の非推論モデルと同水準である。本モデルは262Kのコンテキストウィンドウを備え、BF16精度で動作する。