テクノロジー「無責任なAI」

記事
IT・テクノロジー


展示用_edited.jpg


【見破りテスト】



PCソフトレビュー会社の
ツールテスター社が
AIの「チャットGPT」の文書を
見破れるかテストしました。


結果テストした人数1920人の内
半数以上がチャットGPTと
人間の文章を区別できず
完全に騙されてしまいました。


最も騙されやすいのが
生まれた時からインターネットに
普通に接してきた今の若者の
Z世代の人達です。


テスト方法は
チャットGPTが書いた
色々なジャンルの記事と
人が書いた記事を見比べさせました


それをランダムで表示し
チャットGPTで作られた記事か
人間が書いた記事か
被験者に判断してもらいました


更にランダムで表示される記事は
全文人間かAIが書いた物なのに
AIの記事を人が編集した物もあると
嘘の情報も伝えました。


参加者の内57.1%がAI経験者で
41.1%がAI未経験者で
1.8%がAIなんて全く知らない人
このような人たちが集められました

SEV1nETZFN6dRLt1678741527_1678741568.jpg

〓=〓=〓=〓=〓=〓=〓=〓=〓=〓





【嘘つき】



結果AIだけで作られた文章を
見破る事が出来たのは
46.9%と半数以下でその他の人達は
みんな騙されちゃいました。


AIの文章を読んだ人の内36.3%が
「人間が書いたものだー!」と感じ
16.7%の人が「AIの文章を人間が
編集したものだー!」と感じました


つまり半数以上の53%は
全文AIが書いた記事なのに
全文人間か人間が手直しして
完成させたものだと思てるのです。


特に騙されやすかったのは
特に18~24歳の若者たちで
AIが作った物の判別を最も苦手とし
正確に判別できたのは40.2%でした


逆に65歳以上が52%の正解率で
一番高確率でAIの記事が解り
年齢による知識の多さがAIの記事の
違和感を見つけられたのです。


分野別でみるとテクノロジーが
51.05%AIと解りましたが
健康系の記事が43.94%の人しか
AIの記事と解らなかったのです。


この事からチャットGPTは
責任を負わないくせに適当な
健康系の説得力ある文章を書き
人に悪影響を与えてしまいます。

Ozj634Wfb47o6vJ1678741825_1678741863.jpg

〓=〓=〓=〓=〓=〓=〓=〓=〓=〓





【AIの署名】



このようにAIが書く記事は
まるで専門家の様に記事を書き
その記事を真に受けた人が
被害にあう可能性があります。


チャットGPTは
自分が持ってない情報の事を
記事にしろと命令すると
平然と嘘の記事を書くのです。


今回のテストで半数以上の人が
チャットGPTと人間の文章を
見分けられない事が解かり
騙される危険性が高まりました


今後更にAIの技術が進化してくと
全く見分ける事が出来なくなって
コオロギ食べても平気だよ~んと
怖い嘘に騙されるかもしれません


このテストに参加した人たちの
80.5%が今後もAIに記事を書かせ
人に読ませるなら
AIと解るサインが必要と言います


しかしもう既に
チャットGPTがnoteでも使用でき
みんな普通にAIに記事を書かせ
投稿してる人がたくさんいます


その多数の記事の中から我々は
AIの記事か人間の記事か見分け
正確な情報なのか騙されない様に
気を付けないとなりません。

agRqaCWfhKtTYGJ1678741900_1678741935.png



サービス数40万件のスキルマーケット、あなたにぴったりのサービスを探す