GPT-OSS-120Bは、OpenAI初のオープンウェイト言語モデルで、総パラメータ数1,170億の混合エキスパート(MoE)アーキテクチャにおいて、1回の順伝播あたり51億パラメータのみを活性化します。ネイティブMXFP4量子化により80GB GPU1枚で動作可能で、主要な推論ベンチマークでo4-miniに迫る性能を達成します。思考深度の調整、完全な思考連鎖へのアクセス、関数呼び出しや構造化出力などのツール使用に対応しており、Apache 2.0ライセンスで公開されているため、ローカル環境で自由に活用できます。
GPT-OSS-120Bは、OpenAI初のオープンウェイト言語モデルで、総パラメータ数1,170億の混合エキスパート(MoE)アーキテクチャにおいて、1回の順伝播あたり51億パラメータのみを活性化します。ネイティブMXFP4量子化により80GB GPU1枚で動作可能で、主要な推論ベンチマークでo4-miniに迫る性能を達成します。思考深度の調整、完全な思考連鎖へのアクセス、関数呼び出しや構造化出力などのツール使用に対応しており、Apache 2.0ライセンスで公開されているため、ローカル環境で自由に活用できます。