Tout le monde parle de ChatGPT et de la génération de textes par l’IA. Mais le véritable objectif d’OpenAI est de développer une superintelligence artificielle. L’entreprise nous rappelle son objectif lointain et suggère comment garder un tel système sous contrôle.

Le conseil d’administration d’OpenAI a publié un article sur la manière de contrôler une superintelligence potentielle : les auteurs sont Sam Altman, Greg Brockman et Ilya Sutskever.

Les auteurs sont Sam Altman, Greg Brockman et Ilya Sutskever. Ils discutent des systèmes de contrôle possibles pour les systèmes d’IA superintelligents. Selon leur définition, il s’agira de futurs systèmes d’IA qui seront « considérablement plus puissants » que même l' »intelligence générale artificielle » (AGI), bien qu’ils ne précisent pas le terme « superintelligence ».

Altman, Brockman et Sutskever estiment que l’impact de la superintelligence artificielle sera très large, à la fois positif et négatif, et comparent les conséquences potentielles à celles de l’énergie nucléaire ou de la biologie synthétique. Au cours de la prochaine décennie, les systèmes d’IA « dépasseront les experts dans la plupart des domaines et effectueront autant de travail productif que les plus grandes entreprises aujourd’hui ».

Coordination, contrôle, technologie

Pour contrôler efficacement une superintelligence, ils proposent trois points de départ :

  • Coordination: les efforts de développement de la superintelligence devront être coordonnés afin de garantir l’intégration sûre et harmonieuse des systèmes superintelligents dans la société. Cela pourrait se faire par le biais d’un projet mondial lancé par les principaux gouvernements ou d’un accord collectif visant à limiter le taux de croissance des capacités de l’IA.
  • Réglementation: l’OpenAI réitère l’appel qu’elle a lancé lors de l’audition au Sénat américain en faveur d’une agence de réglementation similaire à l’Agence internationale de l’énergie atomique (AIEA). Cette agence serait chargée de superviser la superintelligence. Elle inspecterait les systèmes, exigerait des audits, imposerait des normes de sécurité et fixerait des restrictions d’utilisation et des niveaux de sécurité.
  • Solutions techniques: Pour rendre l’IA superintelligente sûre, l’humanité devrait également développer des capacités techniques. Il s’agit là d’une question de recherche ouverte.

Si les trois dirigeants de l’OpenAI sont favorables à une réglementation stricte de la superintelligence, ils soulignent également la nécessité de fixer une limite claire qui permette aux entreprises et aux projets open source de développer des modèles en deçà d’un seuil de capacité significatif sans réglementation.

« Les systèmes qui nous préoccupent auront une puissance supérieure à toutes les technologies jamais créées, et nous devons veiller à ne pas diluer l’attention portée à ces systèmes en appliquant des normes similaires à des technologies bien en deçà de ce niveau. »

Sam Altman, Greg Brockman, Ilya Sutskever

Les humains doivent être en charge de l’IA

Altman, Brockman et Sutskever soulignent l’importance de la participation et de la surveillance du public dans la gouvernance des puissants systèmes d’IA. Selon eux, les limites et les objectifs de ces systèmes devraient être déterminés démocratiquement.

Dans le cadre de ces limites générales, les utilisateurs devraient toutefois avoir « beaucoup de contrôle » sur le système d’IA qu’ils utilisent. Le PDG d’OpenAI, M. Altman, a déjà annoncé que son entreprise prévoyait de proposer à l’avenir des modèles d’IA personnalisables.

Enfin, les auteurs justifient le développement de la superintelligence artificielle, malgré tous les risques : elle pourrait conduire à un « monde bien meilleur » que celui que nous pouvons imaginer aujourd’hui. Ils affirment que des exemples sont déjà visibles dans l’éducation, la créativité et la productivité.

De plus, il serait presque impossible d'empêcher le développement de la superintelligence artificielle. Son émergence est inévitable, affirment les trois fondateurs, en raison des avantages énormes, des coûts décroissants et de la multiplicité des acteurs impliqués. Pour l’arrêter, il faudrait mettre en place une sorte de « régime de surveillance mondiale », et même dans ce cas, il n’y a aucune garantie. « Nous devons donc faire les choses correctement