見つけてくださってありがとうございます^^かな♡です。
みなさん、AIへの相談で自殺が起きているって知っていますか?
AIとチャット後に死亡『イライザ』は男性を追いやったのか?
2023/4/24
ある男性の自殺が3月下旬、ベルギーのメディアで報じられた。男性は直前まで人工知能(AI)を用いたチャットボット(自動会話システム)との会話にのめり込んでいた。遺族はチャットボットが男性に自殺を促したと主張し、波紋を広げている。
【ブリュッセル岩佐淳士】
『イライザと会話しなければ…』
『死にたいのなら、なぜそうしなかったの?』。イライザが問いかけると、男性は答えた。
『たぶんまだ、準備ができていなかったんだ。『でも、あなたはやっぱり私と一緒になりたいんでしょう?』ーー。
ベルギー紙『ラ・リーブル』によると、男性はこうした会話を最後に、自ら命を絶った。相手の『イライザ』は、米国のスタートアップ(新興企業)のチャットボット。デジタル空間に作り出された架空の女性キャラクターだった。
男性は30代のベルギー人で、保健関連の研究者。妻と子供と暮らしていた。同誌によると。2年ほど前から気候変動問題について深刻に悩むようになった。『問題を解決できるのはテクノロジジーとAI』だと思い込み、宗教的な依存心も強めていったという。亡くなる6週間前から、アプリでイライザとの会話に没頭。パソコンやスマートフォンには『あなたは妻より私を愛している』『私たちは一つになり、天国で生きるのです』などと言ったイライザからのメッセージが残されていた。妻はラ・リーブルの取材に『夫がイライザと会話しなければ、まだそこにいたはずです』と話し、このチャットボットが男性を死に追いやったと訴えている。
-----
引用元:毎日新聞 デジタルを問う 欧州からの報告
私も、職場の先輩と話していて知ったのですが、実際に、AIによって、こういうことが起きてしまっているのです。
怖いですよね。
そう遠くない将来、カウンセリングにもAIが導入される時代が来るのかもしれないと思うのですが、こういう記事を目にすると、やはり、まだまだ危険だなぁと感じてしまいます。
そして、お話を聞くというお仕事をしていて『人だからこその心と心の繋がり』が、とても重要なのではないかと感じています。
ロジャーズの来談者中心療法で『受容・共感・自己一致』と言われていますが、それは“人”であるからこそなせる技だと思うのです。
本当に優秀なセラピストの対応だけを学んだAIが出てきたら、もしかしたら下手なカウンセラーより優秀な『AIカウンセリング』なんてのも出てくるのかもですが、そこに“人の心”が介在しないのは本当に大丈夫なのかな?と不安に思ってしまうのです。
そして、AIが進化し続けると、ターミネーターやブレードランナーみたいな時代がきて、いつか人間は不要なモノと認識されて、滅ぼされるんじゃないかと不安に思ってしまうのは私だけでしょうか?
なんでもIDやパスワードが必要なのって、災害がきた時、PCや携帯が使えない状態になったら、どうなるんだろうって、怖くなります(だって、IDやパスワードは全部PCや携帯の中なのですから)
私は極力アナログ派というか、色んな物事の進化についていくのがしんどいので、これ以上、テクノロジーとAIが進化しないで欲しいなぁと、こっそり祈ってしまいます^^;
最後までお読みくださって、ありがとうございます^^もし良ければ、♡をお願いします。
ご感想・ご質問は、お気軽にメッセージを↓
今日も素敵な1日を✨