La IA de código abierto está en auge. Esto hace menos probable que un puñado de empresas controle la tecnología.

Cambiaron el mundo escribiendo software. Pero los técnicos también son conocidos por redactar largos memorandos en prosa, los más famosos de los cuales marcaron puntos de inflexión en la informática.

Pensemos en el memorándum de Bill Gates «Internet tidal wave» de 1995, que reposicionó a Microsoft hacia la web; o el memorándum de Jeff Bezos «api mandate» de 2002, que abrió la infraestructura digital de Amazon, allanando el camino para la moderna computación en nube.

Ahora, los tecnólogos están entusiasmados con otro memorándum, esta vez filtrado desde dentro de Google, titulado «No tenemos fosos».

Su autor, desconocido, detalla los impresionantes avances de la inteligencia artificial (IA) y pone en tela de juicio algunas suposiciones arraigadas sobre el equilibrio de poder en esta industria en rápida evolución.

La IA irrumpió en la conciencia pública con el lanzamiento a finales de 2022 de Chatgpt, un chatbot impulsado por un «gran modelo de lenguaje» (llm) fabricado por Openai, una startup estrechamente vinculada a Microsoft. Su éxito ha llevado a Google y otras empresas tecnológicas a lanzar sus propios chatbots basados en llm. Estos sistemas pueden generar texto y mantener conversaciones realistas porque han sido entrenados utilizando billones de palabras extraídas de Internet. Entrenar un gran llm lleva meses y cuesta decenas de millones de dólares. Esto hizo temer que la IA estuviera dominada por unas pocas empresas con mucho dinero.

Pero esta suposición es errónea, dice la nota de Google. Señala que los investigadores de la comunidad de código abierto, que utilizan recursos gratuitos en línea, están logrando resultados comparables a los de los mayores modelos patentados. Se ha descubierto que los llms pueden «ajustarse» mediante una técnica llamada adaptación de bajo rango, o LoRa. Esto permite optimizar un llm existente para una tarea específica de forma mucho más rápida y barata que entrenar un llm desde cero.

La actividad de la IA de código abierto se disparó en marzo cuando se filtró en Internet Llama, un modelo creado por Meta, la empresa matriz de Facebook. Aunque es más pequeño que los llms más grandes (su versión más pequeña tiene 7.000 millones de parámetros, frente a los 540.000 millones de Palm de Google), se modificó rápidamente para producir resultados comparables a la versión original de Chatgpt en algunas tareas. A medida que los investigadores de código abierto se basaban en el trabajo de los demás con Llama, «se produjo una tremenda ola de innovación», escribe el autor de la nota.

Esto podría tener implicaciones sísmicas para el futuro de la industria. «La barrera de entrada para la formación y la experimentación ha caído desde la producción total de una gran organización de investigación hasta una persona, una noche y un potente portátil», afirma la nota de Google. Ahora es posible retocar una llm por 100 dólares en pocas horas. Con su modelo rápido, colaborativo y de bajo coste, «el código abierto tiene algunas ventajas significativas que no podemos replicar». De ahí el título de la nota: esto podría significar que Google no tiene un «foso» defensivo frente a los competidores del código abierto. Ni tampoco Openai.

No todo el mundo está de acuerdo con esta tesis. Es cierto que Internet se nutre de software de código abierto, pero la gente también utiliza software propietario de pago, desde Adobe Photoshop a Microsoft Windows. La inteligencia artificial puede alcanzar un equilibrio similar. Además, evaluar sistemas de inteligencia artificial es notoriamente difícil. Sin embargo, incluso si la nota es parcialmente correcta, la implicación es que el acceso a la tecnología de IA será mucho más democrático de lo que parecía posible hace tan sólo un año. Los potentes LLM pueden ejecutarse en un ordenador portátil; cualquiera que lo desee puede ahora retocar su propia IA.

Esto tiene implicaciones tanto positivas como negativas. Por el lado positivo, hace menos probable el control monopolístico de la IA por parte de unas pocas empresas. Se abaratará mucho el acceso a la IA, se acelerará la innovación en este campo y se facilitará a los investigadores el análisis del comportamiento de los sistemas de IA (su acceso a modelos patentados estaba limitado), lo que aumentará la transparencia y la seguridad. Pero un acceso más fácil a la IA también significa que los actores maliciosos podrán manipular los sistemas con fines nefastos, como generar desinformación. Significa que fracasarán los intentos occidentales de impedir que regímenes hostiles accedan a potentes tecnologías de IA. Y hace que la IA sea más difícil de regular, porque el genio ha salido de la botella.

Pronto se verá si Google y los de su calaña han perdido realmente su terreno en la IA. Pero, al igual que con los memorandos anteriores, este parece otro punto de inflexión para la informática. Referencia: The Economist.