ワシントン・ポスト』紙と『ニューヨーク・タイムズ』紙によると、FTCはOpenAIのChatGPTについて、ユーザーデータの取り扱いと個人に関する誤った情報の拡散に関する懸念から調査を行っている。
20ページに及ぶ詳細な書簡の中で、FTCはOpenAIに対し、ユーザーに対する潜在的なリスクについて一連の質問を行い、データ・セキュリティ・インシデントやソフトウェア更新前に取られた予防措置についての情報を要求している。
また、3月に発生した会話履歴の流出や、ChatGPTのユーザーが虚偽の情報を生成する能力について知っているかどうかについても、より詳しい情報を求めている。
人間のようなコミュニケーション能力を持っているにもかかわらず、AIは自分が生成したコンテンツに対する理解が不足しており、その結果、人々に関する有害な虚偽情報を作成したケースがある。ChatGPTが個人について有害な虚偽の発言をしたケースは、少なくとも2件公表されている。
そのうちのひとつは、ChatGPTがある法学部の教授を、彼がやってもいないセクハラを行ったと非難したケースだ。もう一つの有名なケースでは、ChatGPTは、贈収賄で刑務所に入ったとされるオーストラリアの市長について虚偽の申し立てを行った。
FTCの調査はリークから始まり、OpenAIのCEOであるサム・アルトマンは悔しがっている。
この調査は、OpenAIにとって最初の重大な規制上の挑戦となる。このスタートアップの共同創業者であるサム・アルトマンは以前、AI業界の急速な成長と、雇用喪失や誤った情報の拡散といった潜在的なリスクを挙げ、議会証言でAI法案を歓迎した。
ツイッターでアルトマンはFTCの調査に反応し、「リークから始まり、信頼構築に役立たなかった」ことを残念に思っている。
アルトマンは、GPT-4は「長年のセキュリティ研究」に基づいており、最初のトレーニングの後、モデルの整合性とセキュリティを最適化するためにさらに6ヶ月の段階を経ていることを強調している。
「我々はユーザーのプライバシーを保護し、個人ではなく世界について学ぶためにシステムを設計しています」とアルトマンは書いている。The Decoderからの情報です。