OpenAI, Google, Microsoft e Anthropic, quatre des plus grandes entreprises d’intelligence artificielle (IA), ont fondé une nouvelle association industrielle pour assurer le « développement sûr et responsable » des soi-disant modèles d’IA de « frontière ».
Les développeurs de technologies d’IA largement utilisées, y compris OpenAI, Microsoft, Google et Anthropic, ont créé le Frontier Model Forum en réponse aux demandes croissantes de réglementation gouvernementale. Cette alliance vise à fournir des évaluations techniques et des références, ainsi qu’à promouvoir les meilleures pratiques et normes, en s’appuyant sur l’expérience des entreprises membres.
Bien qu’il n’ait actuellement que quatre membres, le Frontier AI Model Forum accueille de nouveaux participants. Pour être éligible, une entreprise doit travailler sur des modèles d’IA innovants et démontrer un « fort engagement envers la sécurité des modèles de frontière ».
Qu’est-ce que le Frontier AI Model Forum offre ?
Au cœur de la mission du forum se trouve la discussion sur l’IA de frontière, c’est-à-dire les modèles d’intelligence artificielle et d’apprentissage automatique de dernière génération qui sont considérés comme suffisamment dangereux pour représenter des « risques sérieux pour la sécurité publique ». Selon Google, voici les principaux objectifs du Frontier AI Model Forum :
- La recherche sur la sécurité de l’IA est encouragée pour favoriser la création prudente de modèles de dernière génération, réduire les dangers potentiels et ouvrir la voie à des évaluations impartiales et normalisées des performances et de la sécurité.
- Informer le public sur la nature, les capacités, les limites et les effets de la technologie, en déterminant les meilleures méthodes pour son développement et sa mise en œuvre responsable.
- Travailler en collaboration avec les décideurs, les universitaires, la société civile et les entreprises pour diffuser des informations sur les menaces à la confiance et à la sécurité.
- Intensifier les efforts pour créer des logiciels qui peuvent contribuer à résoudre certains des problèmes les plus urgents de la société, tels que le changement climatique, le diagnostic et la prévention des maladies et la cybersécurité.
Les principaux objectifs du Forum seront de renforcer la recherche sur la sécurité de l’IA, d’améliorer la communication entre les entreprises et les gouvernements, et de déterminer les meilleures pratiques pour développer et mettre en œuvre des modèles d’IA. L’étude de la sécurité de l’IA impliquera de tester et de comparer différents modèles d’IA et de rendre les résultats accessibles dans une bibliothèque publique, afin que tous les acteurs clés du secteur puissent comprendre les risques et prendre des précautions.
Le Frontier Model Forum formera un conseil consultatif composé de membres de différentes disciplines et perspectives pour aider à décider des tactiques et des objectifs. De plus, les entreprises pionnières établiront des structures institutionnelles qui faciliteront la construction de consensus entre toutes les parties concernées sur les questions liées au développement de l’IA.
Le Frontier AI Model Forum utilisera également les données et ressources contribuées par les universitaires, les ONG et d’autres parties prenantes. Il suivra et soutiendra les normes établies par des projets d’IA existants, tels que la Partnership on AI et la MLCommons, pour assurer leur mise en œuvre réussie.
Comment le Frontier AI Model Forum fonctionnera-t-il ?
Au cours des prochains mois, le Frontier Model Forum formera un Conseil Consultatif composé d’individus ayant une large gamme d’expériences et de perspectives pour aider à définir la stratégie et les objectifs de l’organisation.
Des arrangements institutionnels clés seront également établis, tels qu’une charte de principes, une gouvernance et des finances, dirigés par un groupe de travail et un conseil exécutif. Dans les prochaines semaines, le forum recherchera des consultations avec la société civile et le gouvernement sur la structure du Forum et les méthodes efficaces de collaboration.
Lorsqu’il en aura l’occasion, le Frontier Model Forum est impatient de mettre son expertise au service de programmes nationaux et mondiaux existants, tels que le processus G7 Hiroshima, le travail de l’OCDE sur les risques, les normes et l’impact social de l’intelligence artificielle, et le Conseil de commerce et de technologie entre les États-Unis et l’Union européenne.
Chacune des initiatives du Forum, ou « axes de travail », cherchera à s’appuyer sur les progrès déjà réalisés par le monde des affaires, le secteur à but non lucratif et l’académie. Le Forum cherchera des moyens de s’engager et de soutenir des efforts multilatéraux importants, tels que la Partnership on AI et la MLCommons, qui ont toutes deux apporté des contributions significatives à l’ensemble de la communauté de l’IA.
Pour plus d’informations détaillées, cliquez ici.