インド政府、先端AIモデルの安全性評価を開始
- •インド政府が高度な生成AIモデルに伴うリスクの体系的評価に着手した。
- •Anthropic社の「Mythos」モデルが規制対象となる高性能システムの例として挙げられている。
- •自律型エージェントの普及を前に、安全プロトコルの確立を目指す。
生成AIの急速な進化により、各国政府は傍観の立場から積極的な監督へと舵を切っている。インド当局も、高度なAIモデルの包括的なリスク評価を開始した。これは世界的に強まるAI規制の流れを反映したものだ。
対象となるのは、高度な推論、コーディング、意思決定能力を備えた強力なシステムである。これらのモデルが社会基盤や規範とどのように相互作用するかを評価することが目的だ。規制当局は、Anthropic社の「Mythos」のようなモデルを念頭に、もはや業界の自主規制だけでは不十分であると認識している。
技術と法制度の乖離、いわゆる「ガバナンス・ギャップ」が浮き彫りとなっている。AIの悪意ある挙動だけでなく、大規模化した際の予測不能な創発的挙動が懸念されているからだ。AIが人間のような対話をシミュレートし、独立してタスクを実行可能になれば、ソーシャルエンジニアリングや体系的なバイアスといった意図しない結果を招く恐れがある。
各国政府はストレス試験や監査を通じてリスクの定量化を試みており、議論は抽象的な危険性から具体的な政策定義へと移行している。この政策転換は、AIを単なる消費者向け製品ではなく、エネルギー網や防衛システムのような「重要技術」として位置づけようとする国家の意志の表れだ。
開発者には、公的アプリケーションへの統合前に厳格な安全性チェックが課されることになる。政策立案者の核心的な課題は、イノベーションのスピードや教育・科学研究における経済的な可能性を損なうことなく、いかに安全なガードレールを構築するかという点にある。
我々は、国家が自国内のAIの構築と展開を管理する「AI主権」の時代に突入したといえる。今後、開発者に対する義務的な監査や、モデルの学習過程や有害な出力を抑制するための安全対策を記した透明性レポートの提出が、より強く求められるだろう。