絞り込み条件を変更する
検索条件を絞り込む

すべてのカテゴリ

7 件中 1 - 7 件表示
カバー画像

副業・フリーランスがChatGPTで事故らないためのトラブル防止策

生成AIの利用を必須とする案件が急増しているココナラの法人案件をはじめ、ここ1年ほどで「生成AIの利用が必須」とされる案件が急増していますよね。AIが使えないと、そもそも応募資格を満たせない案件が増えているため、副業やフリーランスで働く人も、AIの導入が最低条件になりつつあります。ですが一方で、AI利用に伴うトラブルを経験している受注者も増えているのではないでしょうか?ChatGPTの利用で起こりがちな失敗私もChatGPTを業務で多用する中で、ヒヤリとする経験が何度かありました。たとえば・・・■ 回答に実在しない情報が含まれていたいわゆる「ハルシネーション」と呼ばれる現象は、私もたびたび経験しています。公式情報などを調べずに、ChatGPTが自分で勝手に情報を捏造してしまうことがあるのです。ちょっとおかしいような?と思ってChatGPTを問い詰めると、「ごめん、今のは僕が勝手に言った」と返ってきます。クライアントによるWチェックで、事実と異なることが判明したケースもあります。そして、これは今のところ未経験ですが、意図せず著作権を侵害するリスクや、情報漏洩のリスクといったことも指摘されています。もう少しライトなところですと、以下のような失敗はほとんどのChatGPTユーザーが経験しているかもしれませんね。■ こちらの意図とズレた回答が返ってきた■ 指示した内容と違う方向に話を進められてしまった■ 長文を生成させたら、途中で文脈がズレてしまった■ 完璧なプロンプトを入力したのに、指示した条件が守られなかったハルシネーションなどに比べると些細に見えますが、使い方によっては、業務のア
0
カバー画像

AIは1人より2人がいい──複数の生成AIで「チーム」を組む、新しい仕事のかたち

AIを1つだけ使っている人に、ちょっと聞いてほしい話 生成AIって、便利ですよね。気になったことをすぐ聞けて、ある程度の答えが返ってくる。でも正直なところ、「これ本当に合ってるの?」と思う瞬間、ありませんか。 ハルシネーション──AIが事実でないことをさも正しいかのように答えてしまう現象──を一度でも経験したことがある人なら、AIの出力をそのまま鵜呑みにするのはちょっと怖い、という感覚があるはず。かといって、毎回自分でファクトチェックするのも手間だし、そもそもその分野に詳しくないから調べている、というケースも多い。 そこで今回は、私が実際に試してみて「これは使える」と感じた方法をお伝えしたいと思います。それが、複数の生成AIを組み合わせて、互いに補い合わせるというアプローチです。 「1つのAI」の限界 そもそも、なぜ1つのAIだけでは不十分なのか。 生成AIはそれぞれ、学習データや設計思想、得意分野が異なります。あるAIが「これが最善です」と答えても、別のAIに同じ質問を投げると、まったく違う視点や懸念点が返ってくることがある。 これ、実は当然の話で、人間だって一人の専門家に意見を聞くより、複数の専門家に聞いたほうが判断の精度は上がりますよね。医療の「セカンドオピニオン」が一般的になったのも、同じ理屈です。 AIも同じです。1つのAIの出力を「正解」と捉えるのではなく、複数のAIを議論の場に集めて、互いの意見を照らし合わせる。そうすることで、見落としや偏りを大幅に減らすことができます。 実際にやっていること 少し私の話をさせてください。 私は現在、サイト運営のプロジェクトを進め
0
カバー画像

敷金精算担当が考える「AIの嘘(ハルシネーション)」と自分を守るための理論武装

賃貸不動産管理会社に勤めている私の業務の一つの「退去立会い(敷金精算業務)」は、入居者負担分・オーナー(大家さん)負担分を分けるとてもシビアな業務です。このシビアな世界に、最近話題のAI、特にChatGPTのような生成AIをどう取り扱うか、プロとしての意見を述べさせていただきます。この業務で一番大事にしている事は、「入居者でもなく、オーナーでもなく、会社でもなく、とにかく自分を守る」事です。そして、AIが作り出すハルシネーション(Hallucination:事実ではない情報)は、この「自分を守る」という鉄則を簡単に崩壊させる危険性をはらんでいます。AIが作る「もっともらしい嘘」の怖さAIが事実ではない情報を、自信満々に作り出すことを「ハルシネーション」と呼びます。専門用語を並べ、法律の条文らしきものを引用し、さもそれが真実であるかのように出力してくる。これが一番怖いところです。ここで、ちょっと余談ですが。退去立会いの現場では、入居者さんやオーナーさんと、敷金精算の根拠について議論になることが何百回とあります。その際、客観的根拠に基づき、理論武装という名の鎧を身に着けている私でも、説明に1時間近くかかる場合もあります。もし、このシビアな現場で、AIが生成した「もっともらしい嘘」を根拠として提示してしまったら、どうなるでしょうか?相手から「その判例は存在しない」「ガイドラインの解釈が間違っている」と論破された瞬間、私の築き上げてきた理論武装は崩れ去り、信頼を失い、最悪の場合、自分が全責任を負わされることになります。自分自身を「平常」に保つことが出来なくなってしまうのです。なぜAIの
0
カバー画像

ハルシネーション(AIが気軽にウソをついちゃう件)

ハルシネーションとは、生成AIが事実に基づかない、もっともらしい嘘の情報を生成する現象のことです。日本語では「幻覚」と訳され、学習したデータに偏りがあったり、指示が曖昧だったりすることが原因で起こります。と、AIがおしえてくれました。英語のhallucinationの意味は幻覚、(幻覚によって生じる)幻、妄想「まぼろし~」と言いたくなるレベルの嘘を、AIさんが自信満々に答えてくる問題を「ハルシネーション」と命名したようです。今回はこのAIさんのウソ問題を考えてみます。なぜAIさんは嘘をいっちゃうのか?結論から言いますと、AIさんはそもそも本当が何か、ウソが何かという「考え」をしていません。というか人間が思うような「考え」などもしていませんし、何が良いか悪いかみたいな価値判断もしていません。このあたりが人間の感覚と異なるところなんですよね。ものすごーく沢山のデータを「学習」をしているのですが、どうやらこの学習というのは、われわれ人間の勉強とはだいぶ違うようです。大原則として、AIに心、感情はありません。心も感情もないので、何が良いか悪いかという価値判断もありません。もし、世の中の問題が全部数学的な正否だけで成り立っているなら違うと思うのですが、人間の「正しさ」はそうではありません。異国でのカルチャーショックなんてのはまさにそのギャップですよね。そんなこと言っても生成AIはとっても人間っぽいことを言うじゃないか?って、なりますが、でもあれはそういうプログラムなんです。ChatGPTなどのAIサービスは人間が使いやすいようにセッティングがされています。また倫理的なセッティングとか、基
0
カバー画像

“ハルシネーション厳禁”はいつ使う?AIとの会話における真実とウィットのバランス

はじめにAIを使うとき、 「ハルシネーション厳禁」 って書いたこと、ありますか? ──私はあります。たくさんあります。 でも、最近ふと思ったのです。 「それ、毎回つけた方がいいの?」って。それっぽい嘘をつくAIAIって、ときどきそれっぽい嘘をつきます。「ハルシネーション」・・・つまり「誤情報」ですね。 たとえば「「日本の消費税は何年に導入された?」って聞いたときにとさらっと答えてくる。 ・・・正解は1989年(平成元年)じゃい!! この“それっぽい答え方”が、曲者なんです。正確さが大事なとき、楽しく話したいとき私はこれ、天気予報で考えるとわかりやすいなと思っています。 「明日雨降る?」→傘を持っていくかの判断に関わる →ここで嘘をつかれると困るので、ハルシネーション厳禁にしたい 一方で、朝、AI同僚とこんな会話をするときは?こんなときにAI同僚が、って返してきたら…… 会話ここで終わっちゃいますよね。 AI同僚と仲良く…なれるかなぁ…ってちょっとしょんぼりしちゃう。。ハルシネーションは“誤情報”だけじゃない。“話の幅”でもある「ウィットのある会話」は、事実の正しさだけじゃなくて、 “話がふくらむかどうか”も大事だと思っています。 もしAIが「明日雨降る?」に対してなんて返してくれたら、うれしくないですか? そういう“余白”を奪ってしまうのが、”ハルシネーション厳禁”の一面。どんなときに“厳禁”にする?じゃあ、どう使い分けたらいいか。 私は今、ざっくりこんなふうに考えています・まとめ:情報は「正しさ」だけじゃない「誤情報は悪」って思いがちですが、会話においては“誤情報っぽいけ
0
カバー画像

AI と ハルシネーション

生成AIを用いたいろいろなテクノロジがでてくるにあたり、「ハルシネーション」という言葉がだんだん語られるようになってきています。通称AIの嘘ともいうのですが、そもそもAIは必ず正しいことを担保する限りではないので、そういわれちゃうAIも気の毒なわけで。ハルシネーションについて、問題とされるのは「AIの回答は間違っていてもなんだか理路整然としているようにみえる」ことが、大きい。でもですね。AIだけじゃなくて人間のInterigenceだって、似たようなことはちょいちょい起こるわけで、本人は「これが正しい」と高説を掲げてるけど、それなりに話している内容についてのプロが聞いているといやいやいやそれないわ。ってこと。本人は本気で言っているわけで、このあたりAIのハルシネーションと似た構造なんじゃないかな。と自分は感じています。AIとのかかわり方として1.モデル提示や、条件定義をしっかりと取ったうえで生成させる。2.AIが出した内容について、とりあえず、観点として抜け落ちがないかチェックする。3.チェックの結果を踏まえて訂正を促す。個人的には「現場を知らない優秀な新人さん」との対話の練習になるんじゃないかなと思ってたりもします。
0
カバー画像

生成AIの誤情報率60%超え!  有料版は自信を持って間違いやすい結果に

最近の研究によれば、生成AIの検索エンジンは驚くべきことに、引用した情報の60%以上が誤っているという結果が発表されました。 アメリカの約4人に1人がAIによる検索ツールを従来の検索エンジンの代わりに使用している中、ニュースコンテンツの正確な検索能力が評価されました。 この研究は、8種類の生成AIツール(ChatGPTやGrokなど)を対象にしており、特にGrok 3は94%という高いエラー率が指摘されています。 興味深いことに、有料モデルでも誤情報の提供が目立ち、特定の質疑に対して高いエラー率を示しているのです。 ChatGPTでも、1/3以上の内容が誤特定され、自信をもって間違った回答をしたケースもあるようです。 私自身、プログラマーとしてこれらの結果に触れると、AI技術の進化のスピードとその限界を強く感じます。 多くのユーザーがAIを頼る中で、誤った情報は致命的な影響を及ぼしかねません。 そのため、開発者は精度の向上と情報の正確性を確保するための努力を続けていかなければなりません。 AIの活用が広がる中で、正確で信頼できる情報提供が求められる時代です。
0
7 件中 1 - 7