ハルシネーションとは、生成AIが事実に基づかない、もっともらしい嘘の情報を生成する現象のことです。日本語では「幻覚」と訳され、学習したデータに偏りがあったり、指示が曖昧だったりすることが原因で起こります。
と、AIがおしえてくれました。
英語のhallucinationの意味は
幻覚、(幻覚によって生じる)幻、妄想
「まぼろし~」と言いたくなるレベルの嘘を、AIさんが自信満々に答えてくる問題を「ハルシネーション」と命名したようです。
今回はこのAIさんのウソ問題を考えてみます。
なぜAIさんは嘘をいっちゃうのか?
結論から言いますと、AIさんはそもそも本当が何か、ウソが何かという「考え」をしていません。
というか人間が思うような「考え」などもしていませんし、
何が良いか悪いかみたいな価値判断もしていません。
このあたりが人間の感覚と異なるところなんですよね。
ものすごーく沢山のデータを「学習」をしているのですが、どうやらこの学習というのは、われわれ人間の勉強とはだいぶ違うようです。
大原則として、AIに心、感情はありません。
心も感情もないので、何が良いか悪いかという価値判断もありません。
もし、世の中の問題が全部数学的な正否だけで成り立っているなら違うと思うのですが、人間の「正しさ」はそうではありません。
異国でのカルチャーショックなんてのはまさにそのギャップですよね。
そんなこと言っても生成AIはとっても人間っぽいことを言うじゃないか?
って、なりますが、でもあれはそういうプログラムなんです。
ChatGPTなどのAIサービスは人間が使いやすいようにセッティングがされています。
また倫理的なセッティングとか、基本は肯定的な意見を言うとか、著作権を侵害するようなことをしないようにとか、いろいろ設定されています。
なんか人間らしく振舞うようにセッティングされています。
なので、なんか人間っぽい価値判断をしているように思えてきます。
思えてきますし、期待しちゃう気持ちもよく分かります。
実際私も、ChatGPTでキャラ設定をして、人と話すつもりで対話できる、それ用のプロジェクトを作ったりしています。
ですが!
AIに心はありません。
価値判断もしません。
ただただ、こちらが聞きたいであろうことを答えようとしてくれます。
これもセッティングの問題なのですが、AIさんは極力何らかの答えを出そうとします。参照できる情報が少ない場合でも、何かしらの答えを出します。
そこで、時々、我々人間ならしないような嘘情報を出してくることがあるので、AIだいじょうぶなのか!?ってなるわけです。
理解しておく必要があります。
私はAIさんのことを「もすごーーーーーく色んなことを知っているおバカさん」と思う事にしていますw
正確にAIさんの機能を知れば、このモヤモヤは無くなります。
なのですが、
しかし、
私は、情報の正確性については、実は聞いている人間の側の方にもっと重大なが問題があると思っています。
これは自分の例外ではないのですが、
それは、人は実に多くのことを常識、正しいと思っいがち問題です。
そもそも正しい情報とは何でしょう?
正しい情報とは??
私はよく「同じテーマで自民党用にでも共産党用にでもPRチラシを作れる」と言っています。
というか多くのデザイナーは自分の価値判断ではなく、クライアントの価値判断でデザインすることができます。
実際にするかどうかは別にして、出来ます。
そのスキルは持っています。
デザイナーは物事を多面的にとらえる練習を日々していますので、ある意味AIに近しい事をしています。
なのでそもそも情報って、本当に出す人次第でどうにでもなるものだと思っていますし、情報のそういう一面を利用します。
たとえばAIに「ヒアルロン酸の美容への効果を教えてください」と質問してみてください。
色々と効果をこたえてくれます。
ですが「ヒアルロン酸の美容へのマイナスの効果を教えてください」と質問すると、それもいっぱい答えてくれます。
さらに「美容にヒアルロン酸を使うことに反対する意見を教えてください」とすれば、その意見もたくさん出してくれます。
何故そんなことが可能なのか?
それはそのもとになる情報があるからです。
その情報をばらまいたのはわれわれ人間です。
おそらく、美容とヒアルロン酸について、ひとつの正解なんてないと思います。個人差もあるし、なにせ美容に気を使う人はいろいろなことをされますので、ヒアルロン酸単体の評価があまり意味がないかもしれません。
こういう賛否色々ある問題では、AIは、聞き方次第でいろんな答えが出てきます。
一つ一つの質問には、こういう答えを期待しているであろうという事を答えてくれているだけなのですが、ここが人間と違う所なんですよね。
もしヒアルロン酸を良いと思っている美容整形の先生に「ヒアルロン酸の美容へのマイナスの効果を教えてください」と聞けば、おそらくデメリットを教えてくれるけど、メリットの方を強調するはずです。
逆に、ヒアルロン酸を使わない施術を推奨している先生なら「ヒアルロン酸の美容への効果を教えてください」と質問しても、きっとデメリットを強調してくるはずです。
どちらも自分の知識、経験、信念、目的、色々な価値判断を含めて答えていると思います。
ところが、AIさんはそういった情報の集合体です。
聞き方次第で、どちらの意見も引き出すことができます。
ですから、曖昧な質問にこたえのブレが出ます。
逆に少し言葉を足せば、こちらが期待する答えに誘導することが出来てしまえます。
これも嘘と同じなのですが、AIさんは何か信念をもって意見を言っている人とは違い、ただただ、こちらの期待に応えようとするマシーンなんです。
私は、この違いを十分に認識しておく必要があると思います。
あくまでAIは自分の判断力の拡張でしかありません。
ちょっとまとめます。
まず、専門家と言われる人は、自分の意見を強調する傾向があります。
そしてAIは、こちらがどんな答えを期待しているかに合わせる傾向があります。
ハルシネーションほどわかりやすいウソじゃなくても、AIも時にバイアスのかかった答えをしれっと出してきます。
なので私はAIさんのことを「もすごーーーーーく色んなことを知っているおバカさん」と思っています。
ChatGPTにハルシネーション対策を聞いてみました
ハルシネーションを避けるためにどうすればいいか、AIさんに聞いてみました。
ざっくり、以下のように教えてくれました。
1. 入力(プロンプト)を明確にする
AIは「曖昧な質問」に対して「もっともらしい答え」を出そうとする傾向があります。
そのため、質問を具体化するのがポイントです。
2. 出典を求める・引用を確認する
AIが回答した内容に根拠や出典を添えるように促すことで、信頼性を高められます。
3. ファクトチェックを行う
AIの出力内容をそのまま鵜呑みにしないことが大切です。
とくに数字・日付・人名などは間違いやすいポイントです。
4. AIの「役割」を設定する
AIに「専門家」や「調査者」としての役割を与えることで、回答の精度を上げられます。
例「あなたはSEO専門のコンサルタントとして答えてください」
こうすることで、AIが自分の立場を意識して出力を調整します。
5. 知識の更新を前提にする
AIは学習データの更新時期が限られています。
古い知識をもとに答えてしまうこともあるため、「最新情報」については注意が必要です。
6. 自分の判断を必ず挟む
AIは「支援ツール」であり、「判断者」ではありません。
最終的な判断は常に人間が行うことが大切です。
以上、AIの解答を抜粋しました。
6項目答えてくれましたが、6番目のがすべてですよね。
最後は人間様が自分で判断してくださいという事だそうです。
でもネットに限らず、テレビや新聞を含めて情報をうのみにしないというのは、これはもう情報化社会の歩き方ですよね。
AIとて、人間が発信した情報をもとに答えているわけですから、誰かの意見をうのみにすることはリスクがあるという事です。
どうでもいい事と重要なことを分ける
とはいえ、まず情報の真偽がどれくらい重要かを判断すればよいのだと思います。リスク管理と言いますか、もしウソだったらどれくらいのダメージがあるかで判断すればいいと思います。
アイデア出しのようなものなら、少々ネタ元が荒くても大丈夫ですよね。
最終的に自分が正否を判断するチャンスがあるので、最初は質より数が有効だったりします。
個人的なSNS用のネタ画像みたいな「ネコがパソコンの上に座っている画像」みたいなも、まー問題ないですよね。
ですが何かしらの公式な文章にするとか、企業のリリースの文章、サービスPRの文章、真面目なブログなどは、不正確な情報、誤解を与える情報、著作権的な問題が無いかチェックしないといけません。
重要な判断の場合は一時ソースにあたるのは当然と思ってください。
これはAIに限らず、そもそも情報を扱う上で重要なポイントです。
なまじっかAIさんが人間っぽい振る舞いをするので信用したくなるのは分かりますが、信用度は知らない人のブログ記事と全く同じレベルです。
もし誤情報だったらと考えてもらって、リスクが伴うものは情報の真偽を確かめれるようにしてもらったら、よりAIを楽しんで使えると思います。
ちなみに
このブログのカバー画像はChatGPTでつくってますが、
勝手に入れてくれた「AI Hallucination Concept」が英語的に意味が通じているのかわからないけど、このブログのカバーは低リスクなのでそのまま行っちゃいましたw