誰もがChatGPTとAIテキスト生成について話している。しかし、OpenAIの真の目標は人工超知能の開発だ。そして、そのようなシステムをコントロール下に置く方法を提案している。
OpenAIの役員会から直接、潜在的な超知能を制御する方法についての記事が届いた。
著者はSam Altman、Greg Brockman、Ilya Sutskeverの3名で、超知的AIシステムの可能な制御システムについて論じている。彼らの定義によれば、これは「人工知能」(AGI)よりも「劇的に強力」な未来のAIシステムである。
Altman、Brockman、Sutskeverは、人工的な超知能がもたらす影響は、肯定的なものから否定的なものまで広範囲に及ぶだろうと指摘し、潜在的な影響を原子力や合成生物学と比較している。今後10年間で、AIシステムは「ほとんどの分野で専門家を凌駕し、現在の大企業と同程度の生産的な仕事をこなすようになる」という。
調整、制御、技術
超知能を効果的に制御するために、彼らは3つの出発点を提案している:
- 調整:スーパーインテリジェンスの開発努力は、スーパーインテリジェント・システムを安全かつ円滑に社会に統合するために調整される必要がある。これは、主要な政府によって立ち上げられるグローバル・プロジェクトや、AI能力の成長速度を制限するための集団的合意を通じて行うことができる。
- 規制:OpenAIは米上院公聴会で、国際原子力機関(IAEA)のような規制機関の設立を改めて求めた。そのような機関は超知能を監督する責任を負う。そのような機関は、システムを検査し、監査を要求し、セキュリティ基準を課し、使用とセキュリティレベルの制限を設定することになるだろう。
- 技術的解決策超知的AIを安全なものにするためには、人類は技術的能力を開発する必要がある。これは未解決の研究課題である。
OpenAIのリーダー3人は、超知能の厳格な規制を支持する一方で、企業やオープンソースプロジェクトが規制を受けずに重要な能力の閾値以下のモデルを開発できるような明確な制限の必要性も強調している。
「私たちが懸念しているシステムは、これまでに作られたどのテクノロジーも超える力を持つだろう。
サム・アルトマン、グレッグ・ブロックマン、イリヤ・スーツキーヴァー
人間がAIを管理しなければならない
Altman、Brockman、Sutskeverの3人は、強力なAIシステムのガバナンスにおける一般市民の参加と監視の重要性を強調している。彼らの見解では、これらのシステムの限界と目的は民主的に決定されるべきである。
しかし、こうした大まかな制限の範囲内では、ユーザーは自分が使用するAIシステムに対して「多くのコントロール」を持つべきである。OpenAIのCEOであるアルトマンは、将来的にカスタマイズ可能なAIモデルを提供する予定であることを発表している。
最後に著者は、あらゆるリスクがあるにもかかわらず、人工超知能の開発を正当化する。その例は、教育、創造性、生産性においてすでに目に見えているという。
しかも、人工超知能の発達を防ぐことはほとんど不可能である。莫大な利益、減少するコスト、関係者の多様性から、その出現は避けられないと3人の創設者は言う。それを阻止するには、ある種の “グローバルな監視体制 “が必要だが、それでも保証はない。「だから、我々はそれを正しく理解する必要がある。