アメリカで起きたチャットGPTによる判例偽造事件

記事
法律・税務・士業全般
法律関係の仕事でも、チャットGPTをはじめとするAIの利用が広がっています。
簡単な相談事なら、チャットGPTに答えさせても問題ないレベルになっていますし、今後は、契約書などの文案もチャットGPTに頼めば、精度の高いものを作ってくれるようになるでしょう。
しかし、法律関係の仕事で、AIに頼り切ることの危険性を示す事件が早くもアメリカで起きてしまいました。
タイトルにあるとおりの判例偽造事件です。

2023/05/30の読売新聞の報道によると次の様な事件です。

ニューヨーク州の弁護士が民事訴訟の準備書面をチャットGPTで作成して、裁判所に提出したところ、6件の実在しない判例が記されていた。
この民事訴訟は、航空機内で配膳用カートによって受傷した乗客が損害賠償を求めて航空会社を訴えたもの。
原告代理人の弁護士が、航空会社が被告となった過去の判例を複数引用した準備書面を裁判所に提出したものの、裁判所が判例を調べても該当する事件がなかった。
そこで、裁判所が弁護士に確認したところ、弁護士は、チャットGPTで準備書面を作成したこと。さらに、判例が実在するかどうかのチェックもチャットGPTで確認していたことを認めた。
裁判所は前例のない事件だとして、弁護士への懲戒を検討しているという。


今後は、準備書面などの法律関係の文書をチャットGPT等のAIのサポートを受けながら、効率的に作成していくことは、業務の効率化のために有効だと思います。
膨大な判例から、自分の担当する事件に引用できる判例を探すことも、AIのサポートを受ければ、より効率的になることは言うまでもないでしょう。
しかし、出来上がった文書が、正しいのかどうかは、やはり、人間がチェックしなければならないことをこの事件は示唆していると思います。

特に、判例が実在するかどうかは、紙文書の判例集で調べたり、裁判所の判例検索システムで、直接調べるなどして、間違いがないか確認すべきでしょう。

今回は、裁判所がちゃんと調べたために、判例が実在しないことが発覚したからよかったものの、今後、AIの利用が広がると、実在しない判例を根拠に判決が下されてしまうなどと言う、恐ろしい事態も生じるかもしれません。

法律関係の仕事に関わる方は、この事件を他山の石とすべきでしょう。

このニュースは、読売新聞にありますので、興味がある方はチェックしてみてください。

サービス数40万件のスキルマーケット、あなたにぴったりのサービスを探す