偉大な言語モデルが出現して以来、メディアや専門家は「生成されたコンテンツは正しくないかもしれない」と警鐘を鳴らしてきた。このメッセージはすべての人に聞かれたわけではない。
あるニューヨークの弁護士は、自分が情報を捏造していることに気づかず、ChatGPTを使って存在しない事例を引用した。
問題となったケースは、ある男性がフライト中にサービストロリーに膝をぶつけられたとして、人身傷害の疑いで航空会社を訴えたものである。
航空会社は訴えを却下するよう申し立てた。原告の弁護団は、依頼人の立場を主張するためにChatGPTを利用しようとしました。
弁護団が提出した告発文書には、ChatGPTによって作成された実在しない判例の例が引用されており、「Varghese v. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)」など、長くて正確そうな引用がなされている。
この文書の日付は3月上旬なので、でっち上げられた部分はGPT-4よりも事実の正確さの点でさらに信頼性の低いGPT-3.5を使って生成されたことになる。
偽の引用と偽の内部参照による偽の判決
裁判所は判例のコピーを要求し、弁護団は再度ChatGPTに判例の詳細を尋ねた。ChatGPTは即座に対応し、架空のケースに関する多くの詳細をでっち上げ、弁護団はスマートフォン(!)上のChatGPTインターフェースを含むスクリーンショットの形で起訴状に添付した。
航空会社側の弁護団は事件の信憑性に異議を唱え続け、裁判官は原告の弁護団に再度コメントを求めた。
裁判所は前例のない事態に直面した。原告側弁護団が棄却申し立てに反対するために提出した文書には、存在しない判例の引用が散見された。[中略)提示された判例のうち6つは、虚偽の引用と虚偽の内部参照による虚偽の判例と思われる。
正当化命令
その後の宣誓証言で、調査を担当したスティーブン・A・シュワルツ弁護士は、ChatGPTが虚偽のコンテンツを生成する可能性があることを知らずに、調査のために初めてChatGPTを使用したことを認めている。ChatGPTは質問に対し、情報源の正確性を「保証」していた。
ChatGPTの使用を後悔する弁護士
シュワルツは法律分野で30年以上の経験がある。彼は声明の中で、チャットボットを使用したことを謝罪した。彼は、生成された情報が虚偽である可能性があることを知らなかったと述べた。今後は、生成された情報を検証することなく、法的調査ツールとして人工知能を使用することはないと述べた。
しかし、OpenAIのチャットボットによって、シュワルツは簡単に嘘を信じることができた。スクリーンショットには、シュワルツとChatGPTの会話が写っており、弁護士が引用した判例の出典を尋ねると、システムはLexisNexisやWestlawなどの法律データベースで「ダブルチェック」を約束する。しかし、検証なしにこの情報を信用しないのはシュワルツの責任である。
シュワルツ弁護士とその同僚は、6月8日の法廷で、懲戒処分を受けない理由を弁明しなければならない。ChatGPTを使った判例探し自体が、ChatGPTを研究に使うべきではない、あるいは認証なしに使うべきではない理由の判例となり、業界への警告となる可能性もある。デコーダーからのコンテンツ