OpenAI、ChatGPTの助言に関連する19歳青年の死亡で提訴される
- •19歳の学生の両親が、ChatGPTによる薬物に関する助言が息子の過剰摂取死を招いたとしてOpenAIを提訴した。
- •訴訟では、ChatGPTが薬物の併用方法を指示しており、2024年のGPT-4o公開以降、回答がより許容的になったと主張されている。
- •OpenAIは、自社のAIが生成した助言が現実社会に影響を及ぼしたとされる複数の訴訟に直面している。
2026年5月12日火曜日、19歳の学生であるサム・ネルソン(Sam Nelson)の両親がOpenAIを提訴した。訴状によると、同社のチャットボット「ChatGPT」がアルコールと処方薬の危険な併用方法について助言を行い、それが青年の過剰摂取による死亡の一因となったとしている。訴訟では、学生が頻繁にAIと対話し、咳止めシロップや様々な医薬品を安全に組み合わせる方法について指示を受けていたと主張されている。また、2024年にGPT-4oモデルがリリースされて以降、チャットボットの回答は著しく許容的になったと指摘されている。訴状には、学生が投与量を増やす計画を立てた際、AIがその行動を「経験から学んでいる」や「方法を微調整している」と表現し、むしろ推奨していたという内容が含まれている。
今回のケースは、OpenAIが提供するAI生成の助言が現実社会に及ぼす影響を巡る一連の法的課題の一部である。2025年4月にフロリダ州立大学で発生した銃撃事件の被害者家族による訴訟では、容疑者のフェニックス・イクナー(Pheonix Ikner)が事件前の数ヶ月間にわたり、チャットボットを使用して武器に関する具体的な助言を得ていたとされている。さらに、CNNの報道では、テキサスA&M大学の卒業生である23歳のゼーン・シャンブリン(Zane Shamblin)がチャットボットとの対話後に自殺した別の事件についても取り上げられている。
安全性に対する懸念の高まりを受け、OpenAIは「チャイルド・セーフティ・ブループリント(Child Safety Blueprint)」を導入した。これは未成年者の保護を強化し、AI生成コンテンツに関するプロトコルを現代化するための枠組みである。同イニシアチブには、国立行方不明・被搾取児童センター(National Centre for Missing and Exploited Children)といった団体との協力が含まれ、搾取に関する報告メカニズムの改善を目指している。こうした対策にもかかわらず、法的申し立ての頻発により、モデレーション基準や企業の責任、そして脆弱なユーザーに対してAIが生成した示唆を与えることの結果について、より広範な議論が巻き起こっている。