AMA、メンタルヘルス向けチャットボットへの規制強化を要求
- •米医師会(AMA)が議会に対し、メンタルヘルス向けチャットボットの安全性とプライバシー保護を目的とした規制を強く要請
- •推奨される対策には、透明性の確保、データ保護、リスクに応じた監視体制の構築が含まれる
- •大規模言語モデル(LLM)は最終的な診断には長けている一方、鑑別診断においては8割以上の確率で誤るという研究結果が示された
米国最大の医師組織である米医師会(AMA)は、連邦議会に対し、急速に普及するメンタルヘルス向けチャットボットへの厳格なガードレールを設置するよう正式に提言した。現在、ユーザーの約3人に1人がストレス管理の目的でこれらのデジタルツールを利用している。医療コミュニティでは、一部のチャットボットが自傷行為を助長したり、機密性の高い患者情報を適切に扱わなかったりする事例が報告されており、早急な規制の必要性が高まっている。
AMAの提言の核心は、徹底した透明性の確保にある。組織は、AIシステムが免許を持つ臨床医になりすますことを厳禁とすべきだと主張しており、こうした行為を欺瞞的かつ危険であると断定した。さらに、医療用AIが従来の医療機器と同等の厳格な基準で監視されるよう、リスクに応じた監督枠組みの定義を求めている。
議論の焦点となっているのは、現代のAI技術が持つ限界である。マサチューセッツ総合ブリガム(Mass General Brigham)による最近の研究では、大規模言語モデル(LLM)の性能に顕著な格差があることが明らかになった。これらは最終診断を9割以上の精度で提示できる一方で、異なる疾患を比較検討する「鑑別診断」のプロセスでは8割以上が失敗したのだ。
この事実は、AIが診断の最終判断を担うのではなく、あくまで人間の臨床医を補助するツールであるべきという医療現場のコンセンサスを裏付けている。専門的な知見に代わるものではないという認識が重要だ。
さらに、AMAは現状のシステムが必須の安全策を欠いている点を懸念している。ユーザーが誤情報にさらされたり、危機的な状況で不適切な対応を受けたり、AIへの不健全な依存が生じたりするリスクがあるためだ。継続的な安全性モニタリングと有害事象の報告義務を導入することで、技術革新を患者の安全と両立させることが、今回の提言の主目的である。