メンタルヘルスAIへの規制を求める全米医学会の動向
- •全米医学会が議会に対し、AIメンタルヘルスチャットボットへの安全基準策定を要請。
- •プライバシー保護、AIへの過度な依存、自傷行為誘発のリスクが主な懸念事項。
- •自殺リスク検知の義務化や、治療用AIツールへのFDA審査導入を提言。
AIの急速な導入が、デリケートな精神医療の領域で新たな緊張を生んでいる。患者が従来の医療ルートを避け、AIチャットボットに即時的なアドバイスを求めるケースが増加する中、全米医学会(AMA)は、デジタルツールによる健康被害を防ぐための連邦レベルの枠組みを議会に求めた。これはイノベーションの否定ではなく、「害をなすべからず」という医学の基本原則と、シリコンバレーの猛スピードな開発サイクルとの間で、関係性を再構築するための提言である。
全米医学会の主張の核心は、ユーザーの脆弱性にある。精神的な危機にある個人がチャットボットと対話する際、その力関係には深刻なリスクが潜んでいる。会話能力を高め、共感を演出するように設計された生成AI技術は、何気ない問い合わせと臨床的な緊急事態の判別が苦手な場合が多いためだ。
自殺の兆候や自傷リスクを特定する臨床的なガードレール(安全装置)が欠如したシステムは、エラーが許されない環境下において、未規制の医療機器と化してしまう。これを解決するため、医師団体は議会に対して規制の空白を埋める段階的なアプローチを提案した。具体的には、診断や治療を謳うツールを食品医薬品局(FDA)の審査対象とすることを求めている。
この措置により、開発者はこれまでの「素早く動いて破壊せよ」という文化から脱却を迫られるだろう。AIツールを医療機器として分類することで、標準化された性能監視や安全管理を強制し、単なる対話相手ではない、臨床的に責任を負うチャットボットの構築を目指している。
全米医学会が求めるのは臨床現場の管理だけではない。データのセキュリティや商業倫理の設計も重要視されている。具体的には、ユーザーが対話相手が人間ではなく機械であることを明確に認識できる透明性の確保や、子供をターゲットにした広告の禁止などを主張している。
連邦政府がこれまで規制に対して消極的であった中で、今回の医学界による介入は大きな転換点となる。AIの導入がもたらすリスクに対し、もはや業界の自浄作用や放置を待つことはできないという強い意志の表れと言える。