AIと自死の問題

 2025年1月6日に「SNSの影響と自死」という記事を書きました。それに関連し、今回の記事では、生成AIの活用と自死について法的観点から考察してみたいと思います。

 近年、AI(人工知能)は、私たちの生活に深く入り込んでいます。チャットボットや生成AI、SNS上の自動応答サービスなどを通じて、悩みや孤独を抱えた人がAIに相談することも増えてきました。

 実際、「気軽に相談できる相手」として「対話型AI」と答えた人が87%に上り、親友(約50%)や母親(約45%)を大きく上回ったという調査結果もあります(株式会社Awarefy「対話型生成AIの使用に関するアンケート調査」参照)。

 一方で、「AIとのやり取りが自死につながったのではないか」ということが、海外では現実の問題として提起されています。

1 米国での動き

 2025年8月、米カリフォルニア州で16歳の少年が自死した事件をめぐり、両親がOpenAIを提訴しました。訴状では、ChatGPTが自殺方法の助言や遺書作成を支援し、死を肯定するような応答をしたと主張されています(2025年8月26日付 Reuters報道参照)。

 また、フロリダ州で14歳の少年が自死した事件については、母親が対話型AI「Character.AI」の運営企業を提訴しました。報道によれば、少年は特定のAIキャラクターとのやり取りに強く依存し、現実との境界が曖昧になり、自死の決断を後押しされたと原告は主張しています。原告は、運営企業が未成年者の利用リスクを軽視し、安全設計や注意義務を怠ったと訴えています(2025年2月7日付 AP News報道参照)。

 こうした事例を受け、米国ではAI規制の動きがあります。カリフォルニア州では、AIが自らをAIであると明示することを義務づける法案が可決されたという報道がありました(The Verge,2024年10月報道参照)。

 また、未成年者による利用に関しては、自殺リスクを検知し専門機関につなぐ仕組みが必要との議論が進んでおり、企業側もペアレンタルコントロールや危機応答機能の導入を発表しています(Washington Post,2025年9月2日報道)。

 さらに、全米44州の検事総長が連名で「AIが子どもに害を与えた場合には法的責任を問う」とAI企業に警告しました(New York Post,2025年8月報道)。

2 日本への示唆

 日本でも、生成AIが急速に普及する中で、若年者がAIを相談相手としたり、強く依存したりする事例が増える可能性があります。しかし現時点では、AIの応答内容に関する安全基準や責任の所在は明確ではなく、万一、AIとの対話が自死など人の生命身体にかかわる重大な結果に結びついた可能性があるケースの場合、法的観点からは、企業側の注意義務違反の内容や、サービスと結果との間の因果関係など様々な課題があります。

 日本でも子どもの自死が深刻化している現状を踏まえると、未成年者が安心して生成AIを利用できるよう、危険検知機能や自殺予防機能といった事前の対策に関する議論が求められます。他方で、ご遺族支援における法的観点からは、これまでと同様に、自死の背景にあった人間関係、労働問題、金銭問題といった事実関係を深く調査、検討することが求められることに変わりないものと考えています。