IBM、新モデル「Granite 4.1」を発表:規模よりも効率を重視
- •IBMが3Bから30Bパラメータのオープンソースモデル群「Granite 4.1」を公開。
- •データ品質の向上により、8Bモデルがより大規模な32BのMoEモデルに匹敵する性能を実現。
- •AIの判断を介在させる「LLM-as-a-Judge」や多段階学習パイプラインを採用し、効率的な学習を追求。
IBMは最新モデル「Granite 4.1」を発表し、AI開発における「規模こそが正義」という業界の風潮に一石を投じた。単にパラメータ数を増やすのではなく、5段階の複雑なトレーニングパイプラインを通じ、徹底的なデータ精査を行うことでベンチマークでの高評価を達成している。計算リソースを力任せに投入するよりも、質の高いデータをいかに選定するかが現代のAI開発の鍵であることを証明した事例と言える。
新ラインナップには3B、8B、30Bのデンスモデルが含まれ、すべてApache 2.0ライセンスで公開されている。特に注目すべきは8Bモデルの性能だ。以前の複雑なMoEアーキテクチャを採用した32Bモデルと比較しても遜色なく、むしろ凌駕する場面さえある。標準的なデンスモデルへ回帰したことで、企業導入時の予測可能性や運用の容易さが格段に向上した。
今回の成果の裏側には、データパイプラインの緻密な設計がある。ウェブ上の生データをそのまま学習させるのではなく、数学やコーディング、論理的推論に特化したデータセットを用いて段階的に学習を行った。さらに、fine-tuning段階ではAIを評価者として活用する仕組みを導入し、ハルシネーション(幻覚)を排除しつつ、指示に対する忠実度を高めている。
最終的なモデルの磨き上げには、高度な強化学習が適用された。多領域の学習と数学に特化した強化学習を段階的に組み合わせることで、新しいスキルを獲得する際に古い知識が失われる「破滅的忘却」を防いでいる。このアプローチは、AIが単に巨大化するのではなく、より賢く成長する次世代の基準を示している。
開発者にとって、これらのモデルは高い信頼性と計算速度、そしてコスト効率を兼ね備えた実用的な選択肢となる。ブラックボックス化が進む巨大AIシステムに頼ることなく、透明性と性能を両立させたい企業にとって有力なツールといえるだろう。