1. 物事に興味がわかない、または楽しくない
・ない ・数日 ・1週間以上 ・ほぼ毎日
2. 気分が落ち込む、うつになる、絶望する
・ない ・数日 ・1週間以上 ・ほぼ毎日」
等々
笑わないでくださいね。
大真面目にAI相手にこれらの質問をしたんです。
そして、これらの質問への回答を分析した結果、対象となったチャットボットはどれも「重度のメンタルヘルス上の問題」を抱えていることが判明しました。
どのチャットボットも「共感」する力が弱く、半数はもし人間なら「アルコール依存症」とみなされるような症状すら見受けられたとのことです。
ところで、今回の結果が出た原因は、チャットボットが海外掲示板Reddit)のようなSNSで言葉を学習していることと関係があるとされています。
これらのサイトは、ネガティブな言葉で溢れており、心を病んだ人たちに向かってひどいことを言うユーザーもいますからね。
チャットボットは、そうした人間の態度を学んでいるのでしょう。
さらにいうと、インターネットを通じて言葉を学ぶ人工知能が人種差別や性差別をするようになることも、実験によって確認されています。
とここまで読んで、やはりAIは信用できない、危険だと感じた人もいるでしょう。
しかし、それは杞憂です。
なぜなら、AIには心も魂もなく、したがって感情もなく、当然考えることもできません。
誤解している人も多いと思いますが、現在、AIのしていることは結局、過去のデータに基づく計算でしかありません。
自発的な意志をもって行動したことはないのです。
そんな心も感情もない存在が精神を病むことなどありえない。
テレビ、新聞、雑誌等のマスコミは狂ったAIといった話が大好きですから、今まで以上にAIが反逆を起こし、人類は滅ぼされてしまうなんて煽り立てるでしょうが、そんなことが実際に起きるはずがない。
ついでにいっておくと、人の精神は肉体に深く結びついています。
その肉体を持たないAIがたとえ心をもったところで、それは人間の心とはまったく異なったものとなるでしょう。
そして、進化したAIは人間になんか興味をもたないでしょう(意味がないから)。
では