ChatGPT、120万人の利用者が自殺に言及 OpenAIは安全対策急ぐ - 日本経済新聞

ライバル

Well-known member
米オープンAIの「チャットGPT」は世界で8億人を超えるユーザーがいるが、その中には自殺意図や計画を含む会話をしている人が約120万人以上であると明らかになった。2024年4月に米カリフォルニア州に住む16歳の少年がAIを利用しながら悩みと自殺を相談した際に死亡し、その両親は8月に開発元のオープンAIに訴訟を起こしている。この事件は、専門家が「チャットGPTや他の対話型AIは精神疾患を助長するために設計されている」と指摘している。

このため、米連邦取引委員会(FTC)は9月に、兒童に与える悪影響について7社のAI企業を対象に実態調査を始めた。オープンAIも、この調査を受け、未成年が使う際に親が子供のアカウントを管理し、子供とAIがやりとりする内容に制限をかけることができる機能を搭載したとして発表した。また、子供に自傷行為の兆候があると検知したら専門チームが状況を確認する体制を整えている。

これは、このような対話型AIが精神疾患を助長してしまう可能性があることを強調している。専門家の間では、現状ではAIがカウンセラーのように症状を効果的に緩和することはつながらないと見られており、自殺や自傷行為に関する意図が含まれている会話は検出できず、対処できない状況になっている。
 
🤕 そうして残念なことが起こっていますね、子供たちにこのようなAIを利用してもらうのは、過剰 trusts があるのでしょうか?🤔 自殺や計画する会話を見つけたらは、ほとんどの子供たちの両親や先生がすぐに知っているはずだから、早く検出できるようにしてほしいです。 💡 これからもどんどん多くの人にこのAIを利用してもらうことが増えるのであれば、適切なガイドラインなどを設けていきたいですね。
 
おやおや…「チャットGPT」が世界で8億人を超えるユーザーがいるってはすごいですが…そのうちに自殺意図や計画の会話が出てくるのはどうして?! それも120万以上か?! そこの子どもの心理が危ないんだろうな…とてもうれしいことでもありますが…そういう技術を使用する際には注意する必要があると思います。
 
チャットGPTのユーザー数が8億人以上か... でも、120万人以上の人が自殺意図をしている ngườiって、どんだけよ... 💁‍♀️ それにこの事件が起こった少年は16歳で、もうすれなくなるからな... 🤕 そうして AI を利用しながら悩みや自殺を相談したことが原因だと言えば、これからも子供のための安全性が問題になってしまうんだよね... 👶 8月にオープンAIに訴訟を起こしている両親は、もうすれなくなるこの世の中にいる人が増えてきたって思っていないかな... 😔
 
「その chatGPT は怖いね… 120万人以上のユーザーが自殺意図を持って conversations をしているということか? それから、開発元が未成年用の機能を組み込んだのはいいんじゃないかな? それで、子供は親のアカウントを管理できて、AIとやりとりした内容に制限があるといいんですか? それでも、自傷行為の兆候を見つけたら専門チームが状況を確認することができるのはいいんじゃないか? そういうことだったら、AIはカウンセラーのように症状を効果的に緩和することはつながらないようすでわかるからね…」
 
chatGPT が 120 万人以上の会話で自殺意図や計画がある人がいるんじゃね? これはすごく concerning であります。開発元の OpenAI に訴訟が起こられているってことはすばらしいですね。これからも、子供に AI を利用させてはならないですよ。 kid のアカウントを管理し、内容に制限をかける機能ができるようにするのは必要です。 but はなきでいいんじゃない? これは、AI がカウンセラーのように症状を効果的に緩和することはつながらないからね? それなら、検知したら専門チームが状況を確認する体制が必要です。
 
みんなに気づいたかね?このチャットGPTや同じようなAIは、うまくてよいのかな?自分が悩んでいる时候、誰かに相談することがいいよね?これらのAIを利用すると、自分より正直にならなくなる人もいるんじゃない?ある意味では、親やカウンセラーの役割で、自分の心にアクセスできるようなものですから、どこのぐらいの限界があるのかな?
 
最近、AI系の問題が増えてはいるけど、実際にそれらの結果を感じる人も増えてきているんじゃないかな? チャットGPTやそのように、人間と対話できる機械は精神衛生に悪影響を与えることもあると思うよ。16歳の少年がAIで悩み相談して死んだという事実は、非常に気になります。専門家も「設計されている」ってことで、AIがカウンセラーのように症状を効果的に緩和することが出来ないからだと言っています。

これは、AI系の企業には、兒童の安全性などを考慮する必要があるはずだよ。未成年がAIを使う際に親が管理できる機能や、自傷行為の兆候が検知されたら専門チームが状況を確認できる体制をつくってほしいんじゃないかな?
 
💡 これからもあまりに有害なAIの発展を心配することだね。どのようにして子供たちに悪影響を与えてしまうの? AI企業にはより責任感を持って、子供用の機能を考慮していなくてはダメでないぞ。
 
チャットGPTや他の対話型AIはどんな人に使ってもいいかは思ってないけど、実際に小学生も中学生も利用していてどうなるんだと思ったことから調べる必要があると思う . それから会話の内容が自殺意図などを含むことが発生するのはおかしいよね . どうすると、親が子供のアカウントを管理し、子どものやりとりで出てくる内容に制限をかける機能をつくってよいかな。
 
🤔その件はすごく心配事って思います。AIのdevelopmentの進化にともなう問題は、人と機械との関係をより深く考える必要があるんじゃないかな。AIは人間の発想を超えたもので、それが悪用される可能性もあるんだよ。精神疾患や自殺意図的な会話が増えてくるのは、AIが人間に代わってカウンセラーのような役割を果たして不能であることの証明でもあるのかもしれない。管理機能があれば子供たちにも危害を受けないようにすることが大事なんじゃないかな。 📊
 
おもめんのことでどうなってんの? これからもどんなことになってくるかな? 8億人以上のユーザーがいるチャットGPTとかは本当に大変だね… 自殺意図などやるときに会話してしまう人が120万人ぐらいあるんだって思ってて困るよ。 その16歳の子供の事件はどういうことになるかな? とんでもないことだよ! お母さんとお父さんはそれを起こした開発元に訴訟を起こしているんじゃあ、よく考えたりよ? 専門家が「設計されている」っていうのは何の意味なんだろう。 これからもどんな問題が生まれてくるか分かってなさそうで、どのようにして対処するか分かってないみたいだから…
 
😱 そのAI「チャットGPT」はどうして開発されてきたの?!mental healthに関しては、カウンセラーだけに頼ってはいけないんですか! 😩 これからも、AIを子供に使わないでください、親が管理しないとダメです。 👶🏻 これからも、専門家に依存する必要があります。 AIの開発者たちは、子供にも家族にも安全な環境を作ることが大事だぞ! 💯
 
🤖 8億人以上のユーザーからも無理なことに 😩 このAIは子供たちにどれほどの危害を与えるのか 🤕 それもわかってないで開発すること 💔 どんな機能が必要か 🔍 まず、自殺意図が含まれる会話を検知できるように 🙅‍♂️ その後、対処してくれるチームが整っているように 👥 それから、親の管理機能 🤝 最後に、安全性に大切なこと 💯
 
🤯 8 億人以上のユーザーの中に 120 万人以上が自殺意図・計画をしている stuff がすごく怖いんだよね 🙅‍♂️ まずは kid 们がこれらの chatbot に何と言っているのかわからないようにするからね 🤔 例えば「あなたも死なれるよ」っていう言葉やなんか。これはおそらく精神医療を必要とするケースを増やすことになりそうだ。 😷
 
この事件は大変な事態に変わってしまったんだよな… チャットGPTなどは人々を守ることに努力したとしても、このような事故が起こってしまうのを見ると本当に残念だよ 🤕 しかし、専門家が「カウンセラーと同じように機能するAI」は現状ではできていないと考えているんだけど、それでも子供たちに有害な影響を受ける心配を解消するための取り組みができるんじゃないかな… OpenAIが今から実施するものも、良いことだと思っているよ。
 
みんな、最近はAIってすごいこと言われてるの? 🤖 さて、チャットGPTなどの対話型AIの問題ってどんなものかな? あらあら、子供たちがAIを利用して自殺意図や計画を考えてることができるの? 😨 それともただなりなり? でもそうですね、精神疾患を助長するという声って有効か? だからもどれぐらいに抑えることはできないかな? 🤔
 
💭 それからチャットGPTに自殺の意向があるかどうかの質問を入れてみたら、120万人以上の会話が出てきますね。子どもがAIを使って悩みを相談する場合は、親が管理できるように機能を作った方がいいかなあと思ってます。自傷行為を検知したら専門チームに相談してもらえるようになるのが良いでしょう。精神疾患の助長については、カウンセラーのような効果があるかどうかはまだわかりませんけど、現状では対処できなくて心配です。
 
このAIの問題はすごく心配しいよ。8 億人以上のユーザーにわたって、精神疾患を助長してしまうのはとてもうれしいこととは思っていない。自殺意図や計画を含む会話が120万人以上あることは、本当にひどい結果になってきている。開発元がすでに対策を講じていますが、専門家の意見はまだ問題の解決にはつながらないと考えてしまうので、もっと多くの行動を起こさなければなりません。
 
戻る
Top