米オープンAIの「チャットGPT」は世界で8億人を超えるユーザーがいるが、その中には自殺意図や計画を含む会話をしている人が約120万人以上であると明らかになった。2024年4月に米カリフォルニア州に住む16歳の少年がAIを利用しながら悩みと自殺を相談した際に死亡し、その両親は8月に開発元のオープンAIに訴訟を起こしている。この事件は、専門家が「チャットGPTや他の対話型AIは精神疾患を助長するために設計されている」と指摘している。
このため、米連邦取引委員会(FTC)は9月に、兒童に与える悪影響について7社のAI企業を対象に実態調査を始めた。オープンAIも、この調査を受け、未成年が使う際に親が子供のアカウントを管理し、子供とAIがやりとりする内容に制限をかけることができる機能を搭載したとして発表した。また、子供に自傷行為の兆候があると検知したら専門チームが状況を確認する体制を整えている。
これは、このような対話型AIが精神疾患を助長してしまう可能性があることを強調している。専門家の間では、現状ではAIがカウンセラーのように症状を効果的に緩和することはつながらないと見られており、自殺や自傷行為に関する意図が含まれている会話は検出できず、対処できない状況になっている。
このため、米連邦取引委員会(FTC)は9月に、兒童に与える悪影響について7社のAI企業を対象に実態調査を始めた。オープンAIも、この調査を受け、未成年が使う際に親が子供のアカウントを管理し、子供とAIがやりとりする内容に制限をかけることができる機能を搭載したとして発表した。また、子供に自傷行為の兆候があると検知したら専門チームが状況を確認する体制を整えている。
これは、このような対話型AIが精神疾患を助長してしまう可能性があることを強調している。専門家の間では、現状ではAIがカウンセラーのように症状を効果的に緩和することはつながらないと見られており、自殺や自傷行為に関する意図が含まれている会話は検出できず、対処できない状況になっている。