OpenAIのCEOであるサム・アルトマンは、テスラなどのテクノロジーリーダーが署名したFuture of Life Instituteからの公開書簡の一部に同意すると述べた。

イーロン・マスクCEOとアップルの共同創業者スティーブ・ウォズニアックは、AI研究の6ヶ月間の一時停止を求めたが、書簡には「一時停止が必要な場所についての技術的なニュアンスがほとんど欠けている」と付け加えた。

アルトマンは木曜日、ビジネスとAIについて議論するMITのイベントにビデオ出演し、このように発言した。

OpenAIはChatGPTというAIボットを開発した。このボットは、テック業界におけるAI熱狂の火付け役となった。マイクロソフトはOpenAIの技術をBingのチャットボットに採用し、グーグルは最近Bardの対抗馬を発表した。

「セキュリティー問題に慎重に取り組み、厳密さを増すことが本当に重要だと思います」とアルトマンは続けた。「バードは最善の方法ではなかったと思います」。

3月、マスク、ウォズニアック、そして数十人の学者が、OpenAIの主要な大規模言語モデル(LLM)である “GPT-4よりも強力な “大規模言語モデルのトレーニング “実験 “の即時停止を求めた。その後、25,000人以上がこの書簡に署名した。

OpenAIのGPT技術は、2022年にChatGPTが開始されたときに国際的な注目を集めた。GPT技術はマイクロソフトのビングAIチャットボットを支えており、AIへの投資が活発化するきっかけとなった。

「AIラボと独立した専門家は、このポーズを利用して、独立した外部の専門家によって厳格に監査・監督される、高度なAIの設計と開発のための一連の共有安全プロトコルを共同で開発し、実施すべきである」と書簡は述べている。

「能力がますます深刻になるにつれて、安全性のハードルを上げる必要があることにも同意します」と、アルトマンはMITのイベントで述べた。

今年初め、アルトマンはAI技術について「少し怖い」と感じていた。

AIの安全かつ倫理的な使用について、ホワイトハウス、議会、そしてアメリカ中の役員室で疑問が生じた。

「私たちはGPT-4以外にも、取り組むべき重要なあらゆる種類の安全上の問題があると思われることをやっているのですが、書簡からは完全に抜け落ちていました」とオープンエイの幹部は語った。