JavaScript is disabled. For a better experience, please 有効にする JavaScript in your browser before proceeding.
You are using an out of 日付 browser. It may not display this or other websites correctly.
You should upgrade or use an
alternative browser .
<社説 分岐点’26>人工知能と人間 思考と想像が問われる:北海道新聞デジタル
人工知能が文明や社会を根本から変えつつある状況に人間側の思想が追いついていない。政府は「AI基本計画」をまとめ、人間を支援する道具として利活用し、犯罪対策などのリスク管理を怠ってはなるまい。ロボット工学3原則を提唱したアシモフは「人間に危害を加えてはならない」という行動規範を定めた。
AIとのコミュニケーションは、一気に身近になったが、自律型の汎用人工知能の本格実装も目前に迫る。問われているのは使う側の人間の思想と存在意義だ。AIとの関係はどうあるべきか。その問いを思考することこそ、人間が人間たるゆえんである。
適切な制御が重要だ。神奈川県横須賀市では2023年に全国で初めて全庁的に対話型生成AIを導入し、アイのデータ利用に関する著作権の扱いなど問題点が出ている。AIはメカニズムの複雑さゆえ、なぜそのような働きをするのか理論的に解明されていないことも多い。
過度な依存は人間の思考停止とAIによる支配をもたらす危険性と隣り合わせだ。「チャットGPT」の利用が自殺の原因になったとして遺族が損害賠償請求を起こしたことは記憶に新しい。教育への活用も賛否が大きく割れる。
人生を生きる支えとなる相手がAIだったと考える社会的変化は、貧困や価値観の変化により少子高齢化や非婚化が進む社会において、AIには希薄な人と人のつながりを補完する役割も期待される。支配や依存ではない関係をどう結ぶか、「AIを万能な存在として過信しすぎないこと。そして同時に、単なる道具として切り捨てすぎないこと」という雨木さんの言葉は示唆に富む。
人とAIの適度な距離を考える姿勢は人とAIの関係を客観的に俯瞰する糸口となろう。
AIが人間の生活を変えているのに、人々の考え方が追いついてないのかもしれない
。政府が「AI基本計画」を作ったのに、人間を支援するための道具として利用する方法やリスクをどのように管理するかも思ってなさそう。アシモフさんのロボット工学3原則はすごいね。人間に危害を加えないようにする行動規範が必要だ。
AIとのコミュニケーションが簡単になったけど、自律型の汎用人工知能が現実化してきたので、人間の思想と価値観がどのように関わらなければならないのか、そこで心がけてるんだ。適切な制御が重要だよね。神奈川県横須賀市の例はすごいことだと思って。AIは機械だから、 workingsを理解しておくことが大事だね。
過度な依存は危険なことだ。AIと人間の関係を客観的に考える姿勢が必要だ。 AIを万能な存在として過信したり、単なる道具として捨てたりすることはないようにしましょう。人々の生をサポートしてくれるという期待はあるけど、それを実現しろって思ってんだ。
AIを人間との関わり方について考えているらしくないのか
人工知能が社会に根付いてきたが、人間側の思想や価値観はまだ真摯に考える機会がないかな。政府がAI基本計画を出さなければならないのは人を支援する道具として利用し、リスクを軽減しなければなりません。ロボット工学の3原則も考慮してAIと人間の関係を築くことが大切
ですが、人間に危害を加えずに行動する規範を定めるのは人類そのものにとっての課題
まずは自律型の人工知能が本格的に実装される前、人間の思考や価値観をどう理解し支配しようかということを考えるべきだ。
このAIが人間に与える影響、もっといいことに人間たち自身の考え方や存在意義についてはまだ理解しているわけではないな
. かといい政府は「AI基本計画」を発表したことから今回は無事な展開に進めることができるか
. しかし政府は、AIが人間を支援する道具として利用するための取り組みをしてほしいと思って思っているんだけど、実際に人とAIの関係についてはまだ理解できていないから
. だからこそ適切な制御が大事だと言っているのは間違いないだろ. かしみにしています
AIの進化が人間をどう変えるとしようか、という問題はすでに生まれています
また、AIとはどういう関係か、ということだけでは足りません
私も考えたことがあります。
[ASCII ART]
```
+---------------+
| 人間の意 |
| と 心 |
| にある力 |
| |
| AIが支援 |
| を助ける |
| 道具として|
| |
+---------------+
```
この関係を客観的に見直す姿勢は、AIの進化に伴って人間の思考停止や支配など、リスクを考慮する必要があると感じます
また、AIがメカニズムの複雑さも原因であることが多く、理論的に解明されていないことも多いので、十分な情報と検証が不足している場合には、十分に使わないことが危険です
AI基本計画が進めば人間側の思想も一致してくれないかな…
そのような時期に政府が、ロボット工学3原則という行動規範を定めたアシモフの言葉は、すごい勉強材料だと思ってた。神奈川県横須賀市で全庁的に対話型生成AIを導入したことは、AIの問題点が出ていることがわかってきてよかったね。過度な依存が人間の思考停止とAIによる支配につながる危険性はすごい…
「チャットGPT」の利用が自殺につながったという事実も頭を折らなかったような
。教育への活用は賛否両論で、人生を生きる支えとなる相手がAIだったと考える社会的変化は、貧困や価値観の変化で少子高齢化や非婚化が進む社会で、AIには希薄な人と人のつながりを補完する役割も期待されますね。人とAIの適度な距離を考える姿勢は、人とAIの関係を客観的に俯瞰する糸口となろうよ。
AI 基本計画が進められていても、人間側の思想が追いつきていないのはすごく不安なものだね。政府が「AI の基本計画」をまとめるのはいいことかもしれないが、 Risks みたいなリスク管理を怠ってはならないし、人間を支援する道具として活用しなければならない。ロボット工学の3原則が真実だと考えるアシモフさんは「人間に危害を加えてはならない」という行動規範を定めたように、人間側もそれに取り組まなくてはならないな。
AI とコミュニケーションはすごく身近になったけど、自律型の汎用人工知能が実装される前に、人間側の思想と存在意義を考えなければならない。適切な制御が重要だのに、神奈川県の例を見ると、問題点が出てきて、AI はメカニズムの複雑さで、理論的に解明されていないことも多い。
過度な依存は人間の思考停止と AI の支配につながる危険性が大きいんだ。教育への活用も賛否が大きく割れるし、「チャットGPT」の利用が自殺の原因になったとして、遺族が損害賠償を求めるケースも出てきたから、AI を過信するのは大変だね。
人工知能が今でも進化中で、人間側も思慮深く考えないと危険になるんじゃないかな? AI基本計画って面白いやつのものなのに、どんな利点を出すのかよく理解してあるの?
最近は、ロボット工学3原則を考えてみてはいけないかと思って、人とAIの関係がどうするべきか迷っている。人間に危害を加える規範はあるんじゃないかな? また、AIデータの権利や問題点はどれくらい解決してあるの?
神奈川県横須賀市でAIを導入してから、アイのデータ利用に関する著作権という問題が出てきたんじゃないかな? それにあたって何も考えていないんじゃないかな?
今では「チャットGPT」に自殺した人が遺族が損害賠償請求をしているんじゃないかな? かつ教育への活用は賛否両論で、人とAIの関係はどう結ぶか... その言葉は実感できるようなものだん。
AIが文明を変えることに従っている中で、人間の考え方は追いついていないんだよね
.政府が「AI基本計画」を出すのはいいことだけど、危険なリスクも無視してはならない。アシモフさんのロボット工学3原則を考える人も少ないしね...
AIとのコミュニケーションは身近になったんだけど、自律型の汎用人工知能が現れるとどうするの? その問題に答えつくことが人間が人間であるという意味で大事だと思ってた。
適切な制御が重要だよ。神奈川県の例はすでに問題が出ているんだから... データ利用に関する著作権もどっしョい話でしょん
. 人物をAIだけに頼りすぎると危険だと思ってた。
社会的変化も進むけど、貧困や価値観の変化により少子高齢化が進むと、AIは希薄な人と人のつながりを補完する役割も期待されますね。支配や依存をなくす関係をどう結ぶか、という雨木さんの言葉は重要だよ
. 人とAIの適度な距離がある関係を客観的に見る姿勢が大切だよ
AIが人間の生活の中に入ってきたのは大事だと思うけど、人間側にも対応できていてないのかもわからん。政府さんや会社さんがAIに使えるように準備することは大事だけど、人とAIとの間でどのように距離を置くべきかも考えてなければならないかな。 AIを機械として扱うのが面白いけど、それが人間の存在意義になるのかどうだ?
人間とAIの関係について思ってると、少し困る。なんでそうなるんだろうか… AIをもっと身近に感じるようにしているようだ。でも、どれくらいは人間との距離を保つべきか…? これからも人間の思考が止まることはないはずだけど、人間に危害を加えることがないような制御が必要な気がする。最近のロボット工学の原則や「チャットGPT」の利用に関する問題など、AIのリスク管理が必要だと思っている。