Todos están hablando sobre ChatGPT y la generación de texto por IA. Pero el objetivo real de OpenAI es desarrollar una superinteligencia artificial. La empresa nos recuerda su objetivo a largo plazo y sugiere cómo mantener bajo control dicho sistema.
Directamente desde la junta directiva de OpenAI, surge un artículo sobre cómo controlar una potencial superinteligencia: los autores son Sam Altman, Greg Brockman e Ilya Sutskever.
Ellos discuten posibles sistemas de control para sistemas de IA superinteligentes. Según su definición, estos serán sistemas de IA futuros que serán «dramáticamente más poderosos» que incluso la «inteligencia artificial general» (AGI), aunque no especifican el término «superinteligencia».
Altman, Brockman y Sutskever sugieren que el impacto de la superinteligencia artificial será amplio, tanto positivo como negativo, y comparan las posibles consecuencias con las de la energía nuclear o la biología sintética. En la próxima década, los sistemas de IA «superarán a los expertos en la mayoría de los campos y realizarán tanto trabajo productivo como las mayores empresas hacen hoy en día».
Coordinación, control, tecnología
Para controlar de manera efectiva una superinteligencia, sugieren tres puntos de partida:
- Coordinación: Los esfuerzos de desarrollo de la superinteligencia necesitarían ser coordinados para garantizar la integración segura y fluida de los sistemas superinteligentes en la sociedad. Esto podría lograrse a través de un proyecto global liderado por los principales gobiernos o mediante un acuerdo colectivo para limitar la tasa de crecimiento de las capacidades de la IA.
- Regulación: OpenAI reitera su llamado en la audiencia del Senado de Estados Unidos para establecer una agencia reguladora similar a la Agencia Internacional de Energía Atómica (AIEA). Dicha agencia sería responsable de supervisar la superinteligencia. Inspeccionaría los sistemas, exigiría auditorías, impondría estándares de seguridad y establecería restricciones de uso y niveles de seguridad.
- Soluciones técnicas: Para hacer que la IA superinteligente sea segura, la humanidad también necesitaría desarrollar capacidades técnicas. Esto es una cuestión de investigación abierta.
Aunque los tres líderes de OpenAI respaldan una regulación estricta de la superinteligencia, también enfatizan la necesidad de un límite claro que permita a las empresas y proyectos de código abierto desarrollar modelos por debajo de un umbral de capacidad significativa sin regulación.
«Los sistemas que nos preocupan tendrán un poder más allá de cualquier tecnología creada hasta ahora, y debemos tener cuidado de no diluir el enfoque en ellos aplicando estándares similares a tecnologías muy por debajo de ese nivel».
Sam Altman, Greg Brockman, Ilya Sutskever
Los seres humanos deben tener el control de la IA
Altman, Brockman y Sutskever enfatizan la importancia de la participación pública y la supervisión en la gobernanza de sistemas de IA poderosos. En su visión, los límites y objetivos de estos sistemas deben ser determinados democráticamente.
Dentro de estos amplios límites, sin embargo, los usuarios deben tener «mucho control» sobre el sistema de IA que utilizan. El CEO de OpenAI, Altman, ya ha anunciado anteriormente que su empresa planea ofrecer modelos de IA personalizables en el futuro.
Finalmente, los autores justifican el desarrollo de una superinteligencia artificial a pesar de todos los riesgos: podría llevar a un «mundo mucho mejor» de lo que podemos imaginar hoy en día. Afirman que ya se pueden ver ejemplos de esto en la educación, la creatividad y la productividad.
Además, sería casi imposible detener el desarrollo de una superinteligencia artificial. Su emergencia es inevitable, afirman los tres fundadores, debido a los enormes beneficios, los costos en declive y la multiplicidad de actores involucrados. Detenerla requeriría algún tipo de «régimen global de vigilancia», y aún así no hay garantías. «Por lo tanto, debemos hacerlo bien».