Comment sera la fin du monde ? Un nouvel article donne un aperçu des risques catastrophiques de l’IA.
Le développement rapide de l’intelligence artificielle suscite une préoccupation croissante parmi les chercheurs et les décideurs politiques ces derniers mois. Avec des auditions au Sénat des États-Unis, une lettre demandant la suspension de l’entraînement et une sorte de tournée mondiale du PDG d’OpenAI, Sam Altman, le débat sur l’orientation et les risques potentiels des systèmes d’IA en 2023 a atteint de nouveaux sommets.
Le Center for AI Safety (CAIS) basé aux États-Unis vient de publier une vue d’ensemble complète de tous les « risques catastrophiques de l’IA », c’est-à-dire ceux qui pourraient causer des dommages à grande échelle.
Les quatre catégories de risques catastrophiques de l’IA
Les chercheurs ont divisé les risques en quatre catégories :
- Utilisation malveillante, où des individus ou des groupes utilisent délibérément l’IA pour causer des dommages. Des exemples comprennent la propagande, la censure et le bioterrorisme.
- Course à l’IA, où un environnement concurrentiel pousse les acteurs à utiliser une IA non sécurisée ou à céder le contrôle à l’IA. Un exemple est une course aux armements qui conduit à une forme de guerre automatisée échappant à tout contrôle.
- Risques organisationnels, qui montrent comment les facteurs humains et les systèmes complexes peuvent accroître la probabilité d’accidents catastrophiques. Des exemples comprennent la libération accidentelle d’un système d’IA dangereux pour le public ou une méconnaissance de la manière dont la sécurité de l’IA peut se développer plus rapidement que les capacités de l’IA.
- IA renégate, qui décrit la difficulté inhérente de contrôler des agents beaucoup plus intelligents que les êtres humains. Des exemples comprennent des systèmes d’IA qui modifient leurs objectifs ou recherchent activement le pouvoir.
Pour chaque catégorie de risque, l’équipe décrit des risques spécifiques, présente des histoires illustratives, propose des scénarios idéaux et fait des suggestions pratiques sur la façon d’atténuer ces risques.
« En abordant ces risques de manière proactive, nous pouvons travailler à réaliser les avantages de l’IA tout en minimisant le potentiel de résultats catastrophiques », déclare l’équipe.
Pour obtenir une vision complète, consultez l’article « Une vue d’ensemble des risques catastrophiques de l’IA ».