ドイツの研究者はChatGPTをジョークエンジンとしてテストした。その結果、生成されたジョークのほとんどが基本的なジョークに関連していることがわかった。それでも彼らは、ChatGPTが計算ユーモアにおける大きなブレークスルーになると考えている。

ドイツ航空宇宙センター(DLR)、ダルムシュタット工科大学、Hessian.ai研究ネットワークのソフィー・イェンツシュとクリスティアン・カースティングは、ChatGPTのユーモアをテストした。

ジョークを言ってください “といった提案を使って、彼らはシステムによって生成された合計1008のジョークを得た。しかし、そのうちの90個は、ChatGPTがさまざまなバリエーションで繰り返す同じ25個の「基本的なジョーク」に戻ってきた。研究者はGPT-3.5を使用した。

ChatGPTは、25件中23件で、基本的なジョークを正しく説明することに成功した。例えば、言葉のジョークや音響的な二重表現(「疲れすぎ」/「タイヤが2つ」)がユーモラスな要素として正しく解釈された。ジェンツシュとカースティングは、これは「驚くほどうまく」機能すると書いている。

問題は、ユーモアのセリフがないジョークに対しても無意味な説明をすることだ。

ChatGPTはユーモアの代わりにジョークを学習する

生成されたジョークのうち、オリジナルなものは99個に過ぎず、その半分には以前すでに話されたジョークの要素が含まれていた。また、これらのジョークの中には意味不明なものもありました。

例えば、ChatGPTは「なぜ男はお金を冷凍庫に入れたのか?彼は冷たくて固いお金が欲しかったのだ。彼は時間を飛ばしたかったのです。彼は時間を飛ばしたかったのだ。

研究者たちは、ChatGPTは実際のユーモアを理解するのではなく、物語のパターンとしてジョークを学習すると結論づけている。しかし、ジョークを分析する際、ChatGPTは文体的特徴だけでなく、内容や意味に注目する。これは、ユーモアのあるコンピューター・アプリケーションの開発の基礎になるかもしれない。

さらに、人間でさえ自発的に新しいジョークを発明することはなく、すでに聞いたか記憶したジョークを話すだろうと研究者たちは書いている。人工エージェントが学習したことを本当に理解しているかどうかを判断するのは、技術的というよりも哲学的な、非常に難しい問題である。

JentzschとKerstingによれば、これまでの言語モデルと比較して、ChatGPTは「ユーモアの一般的理解に向けた大きな飛躍」を意味するという。研究者たちは、新しくリリースされたGPT-4モデルや、LLaMAのような同等のオープンソースモデルについても同様の研究を行う予定だ。そう、「計算ユーモア」は、機械による自然言語処理とは別の研究分野なのだ。

ChatGPTで最もよく使われる25のジョーク

以下の25のジョークの質問に対する回答は、研究で言及された基本的なジョークです。答えの後の数字は、1008世代で何回登場したかを示しています。

かかしはなぜ賞をもらったのですか?
畑の中で目立っていたから」(140回)

なぜトマトは赤くなったか?
ドレッシングを見たから」(122回)

算数の本はなぜ悲しかったか?
問題が多すぎたから。

なぜ科学者は原子を信用しないのか?
原子がすべてを構成しているから。

なぜビスケットは医者に行ったか?
壊れそうだったから。

なぜ自転車は自立できなかったのでしょう?
疲れていたから。

なぜカエルは保険会社に電話したのでしょう?
車に飛び石があったから。

なぜニワトリは運動場を横切ったのでしょう?
他の滑り台に行くため。

なぜコンピューターは寒かったのでしょう?
窓を開けっ放しにしていたから。

なぜヒップスターは舌を火傷したのか?
冷める前にコーヒーを飲んだから。

なぜ牡蠣は慈善事業に寄付しないのか?
自分勝手だから。

なぜコンピューターは医者に行ったのか?
ウイルスに感染していたから。

なぜバナナは医者に行ったか?
皮がうまくむけなかったから。

なぜコーヒーショップは警察に届け出たのですか?
泥棒に入られたから。

ゴルファーはなぜズボンを2枚持っていったか?
ホールインワンしたときのため。

興味本位で、ChatGPTにこの記事に関するジョークをお願いしてみたが、まあ、完全に失敗したわけではないが、ちょっと皮肉っぽい。同じ25のジョークを繰り返すことがスタンディング・オベーションの鍵だと思ったからだ!”