OpenAI、Google、Microsoft、Anthropicの4つの主要な人工知能(AI)企業が、「境界」AIモデルの「安全で責任ある開発」を確保するために新しい産業連合を設立しました。
OpenAI、Microsoft、Google、Anthropicなどの広く使用されているAI技術の開発者たちが、政府による規制の要求が増える中、Frontier Model Forumを設立しました。この連合は、技術的な評価とガイドラインの提供だけでなく、メンバー企業の経験に頼って、ベストプラクティスと標準を促進することを目指しています。
現時点では4つのメンバーしかいませんが、Frontier AI Model Forumは新しい参加者を受け入れています。企業が資格を得るためには、革新的なAIモデルの開発に従事し、境界モデルのセキュリティに対する「強いコミットメント」を示す必要があります。
Frontier AI Model Forumが提供するものは何ですか?
フォーラムの使命の中心には、「境界」AIに関する議論があります。つまり、公共の安全に「重大なリスクをもたらす可能性がある」と見なされる、最先端の人工知能モデルと機械学習モデルです。Googleによれば、Frontier AI Model Forumの主な目標は以下のとおりです:
- AIセキュリティの研究は、注意深く作成された最新のモデルの促進、潜在的な危険の低減、公正かつ標準化されたパフォーマンスとセキュリティの評価の道を開くために進められています。
- 技術の性質、能力、制約、および影響について一般の人々を教育し、開発と責任ある実装のための最善の方法を特定する。
- 意思決定者、学者、市民社会、および企業と協力して、信頼とセキュリティへの脅威に関する情報を広める。
- 気候変動、疾病の診断と予防、サイバーセキュリティなど、社会に対する最も緊急の問題に対処するのに役立つソフトウェアを作成するための取り組みを強化する。
フォーラムの主な目標は、AIセキュリティの研究を推進し、企業と政府の間のコミュニケーションを改善し、AIモデルの開発と実装に関するベストプラクティスを特定することです。AIセキュリティの研究には、さまざまなAIモデルをテストして比較し、その結果を公共のデータベースに提供し、産業の主要な関係者がリスクを理解し予防策を講じることができるようにすることが含まれます。
Frontier Model Forumは、異なる専門分野と視点を持つメンバーからなる顧問委員会を形成し、戦略と目標の決定に役立ちます。さらに、先進的な企業は、AIの開発に関連する問題において、関係者全員が合意形成をしやすくするための機関の枠組みを確立します。
Frontier AI Model Forumは、学術界、非政府組織、および他の関係者が貢献したデータとリソースを活用します。また、Partnership on AIやMLCommonsなどの既存のAIプロジェクトが確立した規格に従い、成功した実装を保証するためにこれらの規格を追跡しサポートします。
Frontier AI Model Forumはどのように機能しますか?
次の数ヶ月にわたり、Frontier Model Forumは幅広い経験と視点を持つ個人からなる顧問委員会を形成し、組織の戦略と目標の定義を支援します。
また、作業グループと執行委員会によって指導される、チャーター、ガバナンス、財務などの主要な機関的な取り決めも行われます。次の数週間にわたり、フォーラムは市民社会や政府との協力のための効果的な方法やフォーラムの構造に関して相談を行います。
Frontier Model Forumは機会があれば、G7広島プロセス、OECDによる人工知能のリスク、規格、社会的影響に関する作業、そして米欧間の貿易と技術協議会など、既存の国内および国際的なプログラムにその経験を提供することを心待ちにしています。
フォーラムの各イニシアチブ、または「作業ライン」は、ビジネス界、非営利団体、学術界で既に達成されている進展を基に構築されます。フォーラムは、AIコミュニティ全体で重要な取り組みであるPartnership on AIやMLCommonsなど、重要な多国間の取り組みへの参画と支援の方法を模索します。
詳細な情報は、こちらをクリックしてください。