OpenAssistant se convertirá en una verdadera alternativa de código abierto a ChatGPT de OpenAI. Ya están disponibles los primeros modelos, datos de entrenamiento y código.

El proyecto OpenAssistant comenzó en diciembre, poco después de que OpenAI lanzara ChatGPT. El objetivo es crear un asistente de IA de código abierto con las mismas características. Para ello, el equipo ha pasado meses recopilando un «corpus de conversaciones de tipo asistente generadas y anotadas por humanos, compuesto por 161.443 mensajes distribuidos en 66.497 árboles de conversación, en 35 idiomas diferentes, anotados con 461.292 valoraciones de calidad», con la ayuda de más de 13.500 voluntarios.

Ya están disponibles los modelos, los datos de entrenamiento y el código de OpenAssistant.

OpenAssistant lanza modelos con hasta 30.000 millones de parámetros

l equipo de OpenAssistant ha utilizado los datos de entrenamiento recopilados para perfeccionar varios modelos lingüísticos, entre los que se incluyen variantes del modelo LLaMA de Meta y del modelo Pyhtia de EleutherAI. La variante más grande se basa en el modelo LLaMA con 30.000 millones de parámetros. Al igual que Alpaca o Vicuna, los modelos están «sintonizados por instrucción» y no han sido mejorados mediante aprendizaje por refuerzo con retroalimentación humana (RLHF).

Sin embargo, los resultados generados por los chatbots deberían aproximarse a los del modelo gpt-3.5-turbo de ChatGPT, según un estudio comparativo con voluntarios. Ya están en marcha los primeros experimentos con complementos, como una búsqueda en Google. El equipo también tiene previsto entrenar y lanzar en el futuro un modelo LLaMA-30B con RLHF.

Los modelos Pythia ya están disponibles y los modelos LLaMA se lanzarán próximamente. Mientras que los modelos LLaMA no pueden utilizarse comercialmente debido a la licencia Meta, los modelos Pythia tienen licencia para uso comercial.

Además de los modelos, el equipo también libera el código y con OpenAssistant Conversations los datos recogidos. Además, todos los modelos pueden probarse a través de una interfaz web, donde las conversaciones también pueden evaluarse y utilizarse para seguir mejorando los modelos.

OpenAssistant habla abiertamente de las limitaciones actuales

Según un artículo adjunto, los modelos presentan los conocidos problemas de los grandes modelos lingüísticos, como las alucinaciones. También dice que los datos de entrenamiento recogidos fueron aportados principalmente por anotadores varones, con una edad media de 26 años. «Este perfil demográfico puede introducir inadvertidamente sesgos en el conjunto de datos, ya que está destinado a reflejar los valores, perspectivas e intereses de los anotadores», afirma el artículo.

El equipo también ha tomado medidas para detectar y eliminar los mensajes perjudiciales del conjunto de datos, pero el sistema no es infalible. «Dadas las limitaciones expuestas, abogamos por el uso de nuestros LLM sólo en contextos de investigación académica», afirma el documento. «Animamos encarecidamente a los investigadores a investigar a fondo la seguridad y el sesgo de los modelos antes de emplearlos en tareas posteriores. Es importante reconocer que los modelos liberados pueden mostrar un comportamiento inseguro y son susceptibles de ataques de inyección rápida».

El proyecto OpenAssistant pretende democratizar la investigación sobre alineación

Según el equipo, la investigación en IA, sobre todo en el ámbito de los modelos lingüísticos a gran escala y su alineación o adaptación a los valores humanos, se ha limitado en gran medida a un puñado de laboratorios de investigación con los recursos necesarios para entrenar y recopilar datos. Este monopolio en el acceso a datos de alta calidad pone en peligro la posibilidad de realizar esfuerzos de investigación inclusivos y diversos, sobre todo en torno a los retos de la alineación, «que posiblemente constituyen algunas de las áreas de investigación más cruciales de nuestro tiempo».

OpenAssistant, con sus modelos publicados y su conjunto de datos de libre acceso, es por tanto un intento de democratizar esta investigación, dice el artículo. Con ello, los autores se oponen claramente al planteamiento de OpenAI de hacer cada vez más opaco el desarrollo de sus propios modelos lingüísticos y el suministro de datos y de llevar a cabo la investigación de alineación con un pequeño grupo de expertos seleccionados.

Quienes deseen probar los modelos pueden hacerlo a través de la interfaz web de OpenAssistant. El código y más detalles están disponibles en GitHub. Los modelos están disponibles en Hugging Face.

OpenAssistant fue fundado por Andreas Köpf, Yannic Kilcher, Huu Nguyen y Christoph Schumann e incluye un equipo de más de 20 desarrolladores, expertos en datos y seguridad y un equipo de moderación y documentación. El proyecto cuenta con el apoyo de recursos informáticos, herramientas y otras ayudas de Redmond AI, Hugging Face, Weights & Biases, así como de Stabilty AI y LAION.