Las advertencias de las grandes empresas de tecnología sobre un apocalipsis de la IA nos están distrayendo de los años de daño real causado por sus productos.

El martes por la mañana, una vez más, los comerciantes de inteligencia artificial advirtieron sobre el poder existencial de sus productos. Cientos de ejecutivos de IA, investigadores y otras figuras técnicas y empresariales, incluido el CEO de OpenAI, Sam Altman, y Bill Gates, firmaron una declaración de una frase escrita por el Center for AI Safety, que declaraba que «mitigar el riesgo de extinción por la IA debe ser una prioridad global, junto con otros riesgos de escala societal, como pandemias y guerras nucleares».

Estas 22 palabras se hicieron públicas después de una gira de varias semanas en la que los ejecutivos de OpenAI, Microsoft, Google y otras empresas de tecnología pidieron una regulación limitada de la IA. Hablaron ante el Congreso, en la Unión Europea y en otros lugares sobre la necesidad de colaboración entre la industria y los gobiernos para contener el daño causado por sus productos, incluso mientras sus empresas continúan invirtiendo miles de millones en tecnología. Varios investigadores y críticos prominentes de la IA me han dicho que son escépticos sobre la retórica y que las regulaciones propuestas por las grandes empresas de tecnología parecen estar debilitadas y tener intereses propios.

El Valle del Silicio ha mostrado poco respeto por años de investigaciones que demuestran que el daño de la IA no es especulativo, sino concreto; solo ahora, después del lanzamiento de ChatGPT de OpenAI y una avalancha de financiamiento, parece haber mucho interés en parecer preocuparse por la seguridad. «Esto parece una estrategia de relaciones públicas muy sofisticada de una empresa que está avanzando rápidamente en la construcción de su propia tecnología que su equipo está señalando como riesgos para la humanidad», dijo Albert Fox Cahn, director ejecutivo del Surveillance Technology Oversight Project, una organización sin fines de lucro que defiende contra la vigilancia masiva.

La suposición subyacente no declarada detrás del miedo a la «extinción» es que la IA está destinada a volverse terriblemente capaz, transformando el trabajo de estas empresas en una especie de escatología. «Esto hace que el producto sea más poderoso», dijo Emily Bender, lingüista computacional de la Universidad de Washington, «tan poderoso como para eliminar a la humanidad». Esta suposición ofrece una propaganda implícita: los CEO, como semidioses, están utilizando una tecnología tan transformadora como el fuego, la electricidad, la fisión nuclear o un virus que causa pandemias. Sería una tontería no invertir. También es una postura que busca inmunizarlos contra críticas, copiando las comunicaciones de crisis de las empresas tabacaleras, los magnates del petróleo y Facebook: hey, no se enojen con nosotros; estamos rogando que regulen nuestro producto.

Sin embargo, el supuesto apocalipsis de la IA sigue siendo ciencia ficción. «Se está utilizando una historia fantástica y estimulante para desviar la atención del problema que la regulación debe resolver», dijo Meredith Whittaker, cofundadora del AI Now Institute y presidenta de Signal. Programas como GPT-4 han mejorado en comparación con sus versiones anteriores, pero solo de manera incremental. La IA puede transformar aspectos importantes de la vida cotidiana, quizás avanzar en medicina, reemplazar empleos, pero no hay razón para creer que cualquier oferta de Microsoft o Google conduciría al fin de la civilización. «Es simplemente más datos y parámetros; lo que no está ocurriendo son cambios fundamentales en cómo funcionan estos sistemas», dijo Whittaker.

Dos semanas antes de firmar la advertencia de extinción de la IA, Altman, quien comparó su empresa con el Proyecto Manhattan y a sí mismo con Robert Oppenheimer, presentó ante el Congreso una versión más atenuada de la profecía de la declaración de extinción: los tipos de productos de IA desarrollados por su empresa mejorarán rápidamente y, por lo tanto, podrían ser potencialmente peligrosos. Testificando ante un panel del Senado, dijo que «la intervención regulatoria por parte de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más poderosos». Tanto Altman como los senadores trataron este aumento de poder como inevitable y los riesgos asociados como «consecuencias potenciales» que aún no se han materializado.

Pero muchos de los expertos con los que hablé eran escépticos sobre cuánto progresará la IA desde sus habilidades actuales y afirmaron categóricamente que no necesita avanzar para perjudicar a las personas, de hecho, muchos de los productos actuales ya lo hacen. La divergencia, entonces, no radica en si la IA es perjudicial, sino en qué daño es más preocupante: ¿un cataclismo futuro de la IA del cual solo sus arquitectos están advirtiendo y afirmando que pueden evitar exclusivamente, o una violencia más cotidiana con la que gobiernos, investigadores y el público han estado luchando y combatiendo desde hace mucho tiempo, así como quiénes están en riesgo y cómo prevenir mejor dicho daño?

Un ejemplo de esto es la realidad de que muchos productos de IA existentes son discriminatorios: reconocimiento facial racista que no reconoce correctamente la identidad de género, diagnósticos médicos tendenciosos y algoritmos de contratación sexistas son solo algunos ejemplos conocidos. Cahn afirma que la IA debe considerarse sesgada hasta que se demuestre lo contrario. Además, a menudo se acusa a los modelos avanzados de violar los derechos de autor en relación con los conjuntos de datos y de violar los derechos laborales en cuanto a su producción. Los medios sintéticos están inundando internet con estafas financieras y pornografía no consensuada. La «narrativa de ciencia ficción» sobre la IA presentada en la declaración de extinción y en otros lugares «nos distrae de las áreas factibles en las que podríamos comenzar a trabajar hoy», dijo Deborah Raji, becaria de Mozilla que estudia el sesgo algorítmico. Y aunque los daños algorítmicos afectan principalmente a las comunidades marginadas hoy en día y, por lo tanto, son más fáciles de ignorar, un supuesto colapso de la civilización también perjudicaría a los privilegiados. «Cuando Sam Altman dice algo, incluso si está tan desconectado de cómo realmente se desarrollan estos daños, la gente está escuchando», dijo Raji.

Incluso si la gente escucha, las palabras pueden parecer vacías. Solo días después de su testimonio ante el Senado, Altman le dijo a los periodistas en Londres que si las nuevas regulaciones de IA de la Unión Europea eran demasiado estrictas, su empresa podría «cesar sus operaciones» en el continente. Este aparente cambio de postura provocó una reacción negativa y luego Altman tuiteó que OpenAI no tenía «planes de irse» de Europa. «Parece que algunas regulaciones realmente sensatas están amenazando el modelo de negocio», dijo Emily Bender de la Universidad de Washington. En respuesta a una solicitud de comentario sobre las declaraciones de Altman y la posición de la empresa con respecto a la regulación, un portavoz de OpenAI escribió en un correo electrónico: «Lograr nuestra misión requiere que trabajemos para mitigar tanto los riesgos actuales como los de largo plazo» y que la empresa está «colaborando con los responsables de la formulación de políticas, investigadores y usuarios» para lograrlo.

La farsa regulatoria es parte bien establecida del libro de jugadas del Valle del Silicio. En 2018, después de que Facebook fuera sacudido por escándalos de desinformación y privacidad, Mark Zuckerberg dijo ante el Congreso que su empresa tiene «la responsabilidad no solo de crear herramientas, sino también de asegurarse de que se utilicen para el bien» y que él apoyaría «la regulación adecuada». Desde entonces, las plataformas de Meta han fallado miserablemente en limitar la desinformación electoral y pandémica. A principios de 2022, Sam Bankman-Fried dijo ante el Congreso que el gobierno federal necesita establecer «directrices reguladoras claras y consistentes» para las criptomonedas. A finales de ese año, su propia empresa de criptomonedas resultó ser un fraude, y fue arrestado por fraude financiero en una escala comparable al escándalo de Enron. «Estamos viendo un intento realmente astuto de evitar ser asociado con las plataformas tecnológicas como Facebook y Twitter, que están enfrentando un escrutinio regulatorio cada vez más riguroso en cuanto al daño que causan», dijo Cahn.

Al menos algunos de los firmantes de la declaración de extinción parecen creer sinceramente que las superinteligencias podrían acabar con la humanidad. Yoshua Bengio, quien firmó la declaración y a veces es llamado el «padrino» de la IA, me dijo que cree que las tecnologías se han vuelto tan capaces que corren el riesgo de desencadenar una catástrofe que podría terminar con el mundo, ya sea como entidades conscientes rebeldes o en manos de un ser humano. «Si es un riesgo existencial, podemos tener solo una oportunidad, y eso es todo», dijo.

Dan Hendrycks, director del Center for AI Safety, me dijo que piensa de manera similar sobre estos riesgos. También agregó que el público necesita poner fin a la actual «carrera armamentista de IA entre estas corporaciones, donde básicamente priorizan el desarrollo de tecnologías de IA a expensas de su seguridad». Según Hendrycks, el hecho de que líderes de Google, Microsoft, OpenAI, Deepmind, Anthropic y Stability AI hayan firmado el aviso de su centro puede ser una señal de una preocupación genuina. Altman escribió sobre esta amenaza incluso antes de la fundación de OpenAI. Sin embargo, «incluso bajo esta interpretación generosa», dijo Bender, «uno tiene que preguntarse: si consideras que esto es tan peligroso, ¿por qué sigues construyendo?».

Las soluciones propuestas por estas empresas para los daños empíricos y fantasiosos de sus productos son vagas, llenas de lugares comunes que se desvían de un cuerpo establecido de trabajo sobre lo que los expertos me dijeron que realmente requeriría la regulación de la IA. En su testimonio, Altman enfatizó la necesidad de crear una nueva agencia gubernamental centrada en la IA. Microsoft hizo lo mismo. «Esto son retazos recalentados», dijo Whittaker de Signal. «Participé en conversaciones en 2015 en las que el tema era ‘¿Necesitamos una nueva agencia?' Esto es un viejo barco del que las personas de alto nivel suelen especular en un entorno de Davos antes de ir a cócteles». Y una nueva agencia, o cualquier iniciativa exploratoria de política, «es un objetivo a largo plazo que tomaría muchas décadas acercarse a lograr», dijo Raji. Durante ese tiempo, la IA podría no solo dañar a innumerables personas, sino también arraigarse en varias empresas e instituciones, dificultando en gran medida una regulación significativa.

Durante aproximadamente una década, los expertos han estudiado rigurosamente los daños causados por la IA y han propuesto formas más realistas de evitarlos. Las posibles intervenciones podrían implicar la documentación pública de los datos de entrenamiento y el diseño del modelo; mecanismos claros para responsabilizar a las empresas cuando sus productos difunden información médica errónea, difamación y otros contenidos perjudiciales; legislación antimonopolio; o simplemente hacer cumplir las leyes existentes relacionadas con los derechos civiles, la propiedad intelectual y la protección del consumidor. «Si una tienda está dirigiendo sistemáticamente a clientes negros a través de la toma de decisiones humanas, eso es una violación de la ley de derechos civiles», dijo Cahn. «Y para mí, no es diferente cuando lo hace un algoritmo». Del mismo modo, si un chatbot redacta un dictamen legal racista o brinda consejos médicos incorrectos, si ha sido entrenado en escritos protegidos por derechos de autor o engaña a las personas por dinero, las leyes actuales deben aplicarse.

Las predicciones apocalípticas y los llamamientos a una nueva agencia de IA equivalen a «un intento de sabotaje regulatorio», dijo Whittaker, porque las propias personas que venden y obtienen ganancias de esta tecnología intentarían «dar forma, vaciar y sabotear efectivamente» la agencia y sus poderes. Basta con ver a Altman testificar ante el Congreso o la reciente reunión de «IA responsable» entre varios CEOs y el presidente Joe Biden: las personas que desarrollan y obtienen beneficios del software son las mismas que le están diciendo al gobierno cómo abordarlo, una visión inicial de captura regulatoria. «Hay décadas de regulaciones muy específicas que las personas están exigiendo en términos de equidad, justicia e imparcialidad», dijo Safiya Noble, experta en estudios de Internet en UCLA y autora de «Algorithms of Oppression». «Y las regulaciones que veo [de las empresas de IA] son aquellas que son favorables a sus intereses». Estas empresas también han gastado millones de dólares haciendo lobby en el Congreso solo en los primeros tres meses de este año.

Todo lo que realmente ha cambiado en las conversaciones sobre la regulación de la IA en los últimos años es el ChatGPT, un programa que, al producir un lenguaje similar al humano, ha cautivado a consumidores e inversores, otorgando al Valle del Silicio un aura prometeica. Pero debajo de este mito, gran parte de los daños de la IA siguen sin cambios. La tecnología depende de la vigilancia y la recopilación de datos, explota el trabajo creativo y físico, amplifica los prejuicios y no es consciente. Las ideas y herramientas necesarias para la regulación, que requerirían abordar estos problemas y posiblemente reducir las ganancias corporativas, están disponibles para cualquiera que se preocupe por buscarlas. El aviso de 22 palabras es un tuit, no un documento; una cuestión de fe, no de evidencia. El hecho de que un algoritmo esté perjudicando a alguien en este momento sería un hecho si leyeras esta frase hace una década, y todavía lo es hoy.

Con contenido de The Atlantic.