8月8日に公開されましたGPT5について生成AIのPerplexity(パープレ)で調査しましたので、紹介します。
まず、生成AIの回答において、「根拠」や「出典」を表示しないものは、使えないと考えていました。GPT5は改善されたようなので、「根拠」や「出典」について調査しましたので、紹介します。
AIプロンプト:GPT5は情報の根拠を提示しますか?
「(生成AIの回答)
GPT-5は、複雑な質問や長文資料に対して「根拠」や「出典」を示しながら回答する能力が大きく強化されています。特に、出典として信頼できる一次情報の明記や、情報の発行年の明示といった透明性の高い根拠提示が進化ポイントとされています。[1][2][3][4]
• 事実誤認(ハルシネーション)率はGPT-4に比べて大きく減少し、根拠付き回答が標準的に
→ 「分からない場合は分からないと明言する」「必要に応じて引用や根拠情報を提示する」動作が強化されています。[2][3][5][1]
• 複数情報源・長文処理の強化
→ 長文資料や多情報源を参照した回答時にも、実際の引用元や関連ファクトを回答中に明記する仕組みが整備されています。[3][4][2]
• 公式ガイドや安全基準でも根拠明示の方針
→ 「信頼できる一次情報を優先し、出典名/発行年を括弧で明記。不明な点は“分からない”と記載する」などが社内・公式ポリシーとなっています。[4][2]
一方で、出典や根拠の提示がない情報に対しては、「精度保証はない」「要検証」などの注意喚起も徹底されており、ユーザーが人間の専門家レベルの判断を行えるよう配慮されています。[6][5]
まとめると、GPT-5は「情報の根拠や出典を明記しながら回答する機能」がこれまで以上に強化されており、特に曖昧な場合や重要な判断を伴うシーンでは“分からないときは分からない”姿勢も含めて、より透明性と信頼性を重視した設計となっています。[1][2][3][4] (生成AIの回答はここまで)」
※実際の回答では、URLリンク[1]~[6]も表示されていましたが、ココナラの制限により省略しました。
AIプロンプト2:GPT-5は根拠の提示を具体的にどのように行いますか
「(生成AIの回答)
GPT-5は、根拠の提示において以下のような具体的な動作・仕組みを持ちます。
• 出典や前提の明記
複雑な質問や長文資料に対して、「前提を列挙→妥当性チェック→シナリオ・結論」といった構成で、各前提や結論の「根拠」を明記します。たとえば「このシナリオの根拠:為替は過去12か月データに基づく」など、理由や出典となるデータポイントを明示する形式です。[1]
• “分からない”や不確実性の明言
根拠や出典の確実性が低い場合や情報が限定的な場合は、「ここから先は推測」や「情報源不明」など、不確実性を積極的に記載するポリシーとなっています。[1]
• プロンプトでの細かい調整
「根拠付きで明記して」や「前提・要因をすべて列挙して」などの指示を与えると、GPT-5は明示的に「この結論に至る根拠A、根拠B…」という箇条書きや引用まとめを返すことが標準化しています。[2][1]
• 推論量や応答詳細のコントロール
ユーザーが「reasoning_effort」や「verbosity」を高めに設定する、もしくは「理由を詳しく説明して」と指示することで、裏付けとなる考察や過程を段階的・網羅的に提示します。API利用時だけでなく通常会話でも可能です。[3][2]
• 多段的な思考過程・比較
難題に対しては「複数の解決策を提示→それぞれの根拠を比較→最適解を選ぶ理由を説明」といった分解・比較の思考過程まで書き出しながら、その都度根拠やデータを明記します。[4][3]
こうした設計により、GPT-5は内容の透明性・再現性・信頼性を高めており、特に判断根拠やデータソースが重要な業務用途・専門的シナリオで活躍します。[2][1] (生成AIの回答はここまで)」
※実際の回答では、URLリンク[1]~[4]も表示されていましたが、ココナラの制限により省略しました。
AIプロンプト3:GPT-5の出典情報や根拠はどの程度信頼性がありますか
「(生成AIの回答)
GPT-5の出典情報や根拠は、以前のモデルと比べて大幅に信頼性が向上していますが、人間による検証は依然として必要です。最新のAI設計では、ハルシネーション(事実誤認)率が劇的に減少し、多段階の事実検証や外部知識連携によって正確性が強化されています。[1][2][3]
• 出典提示の精度と透明性
GPT-5は情報の根拠や出典を要求すると、実在する文献名や特許番号などを返す精度が大きく向上しています。「無効資料調査など専門分野」でも誤引用がほぼなくなり、実務用途の一次スクリーニングや論証ドラフトでは十分に活用できる水準と評価されています。[1]
• 多段階の検証と不確実性の表示
回答生成の二重検証(内部論理チェック・外部ファクト照合)や、「分からない部分は推測」といった不確実性の明言が導入されているため、虚偽や迎合も防止しています。[3][4]
• 精度指標
GPT-5の事実正確性は90%以上を目指して設計され、専門分野でも従来比+60%以上の向上が予測されています。ハルシネーション率も30%以下まで低減するなど、最新性・専門性ともに高い水準です。[2]
• 限界と注意事項
ただし、全ての出典情報や根拠が100%事実とは限らず、残りのエラーや誤引用リスクはゼロではありません。重要な判断や業務利用では、依然として人間専門家による裏付け・確認が必須とされています。[5][1]
まとめると、GPT-5は根拠と出典情報の提示能力が大きく進化し、多層的な検証と透明性向上が図られていますが、最終判断では人間による検証・補足が必要な場面も存在します。 (生成AIの回答はここまで)」
※実際の回答では、URLリンク[1]~[5]も表示されていましたが、ココナラの制限により省略しました。
結論としては、生成AIを利用して成果を発表する際は、自己責任で事実確認が必要と思います。著作権侵害等の権利侵害の恐れがあるからです。最初の情報取得については、1件ごとの記事に当たるよりも、「根拠」や「出典」のリンクを表示する生成AIの利用は、有効と考えます。生成AIのPerplexity(パープレ)で上記AIプロンプトを入力しますと、実際の記事にアクセスできると思います。
なお、上記参照リンクに内容を確認したところ、GPT-5利用について特許関係の記事もありました。
やはり、自分の脳を鍛えて、生成AIの出力結果をチェックするか、信頼できるココナラのサービス購入により、各種専門家に相談するのが良いと思います。自分が何らかの専門家であれば、生成AIは脳拡張支援ツールに使用できるかもしれません。
GPT5の利用について参考になれば、幸いです。