OpenAI, Google, Microsoft y Anthropic, cuatro de las principales empresas de inteligencia artificial (IA), han fundado una nueva asociación industrial para asegurar el «desarrollo seguro y responsable» de los llamados modelos de IA de «frontier».
Los desarrolladores de tecnologías de IA ampliamente utilizadas, incluyendo OpenAI, Microsoft, Google y Anthropic, han creado el Frontier Model Forum en respuesta a las crecientes demandas de regulación gubernamental. Esta alianza busca proporcionar evaluaciones técnicas y referencias, así como promover mejores prácticas y estándares, contando con la experiencia de las empresas miembros.
Aunque actualmente tiene solo cuatro miembros, el Frontier AI Model Forum está abierto a nuevos participantes. Para calificar, una empresa debe trabajar en modelos de IA innovadores y demostrar un «fuerte compromiso con la seguridad de los modelos de frontera».
¿Qué ofrece el Frontier AI Model Forum?
En el centro de la misión del foro está la discusión sobre la IA de frontera, es decir, los modelos de inteligencia artificial y aprendizaje automático de última generación que se consideran lo suficientemente peligrosos como para representar «riesgos graves para la seguridad pública». Según Google, estos son los principales objetivos del Frontier AI Model Forum:
- Impulsar la investigación en seguridad de IA para fomentar la creación cuidadosa de modelos de última generación, reducir los peligros potenciales y abrir el camino para evaluaciones imparciales y estandarizadas de rendimiento y seguridad.
- Educar al público sobre la naturaleza, capacidades, limitaciones y efectos de la tecnología, determinando los mejores métodos para su desarrollo e implementación responsable.
- Trabajar junto con tomadores de decisiones, académicos, sociedad civil y empresas para difundir información sobre amenazas a la confianza y seguridad.
- Intensificar los esfuerzos para crear software que pueda ayudar a abordar algunos de los problemas más urgentes de la sociedad, como el cambio climático, el diagnóstico y prevención de enfermedades, y la ciberseguridad.
Los principales objetivos del Foro serán aumentar la investigación en seguridad de IA, mejorar la comunicación entre empresas y gobiernos, y determinar las mejores prácticas para desarrollar e implementar modelos de IA. El estudio de seguridad de IA implicará probar y comparar diferentes modelos de IA y poner los resultados a disposición en una biblioteca pública, para que todos los actores principales del sector puedan comprender los riesgos y tomar precauciones.
El Frontier Model Forum formará un consejo consultivo con miembros de diversas disciplinas y perspectivas para ayudar a decidir sobre tácticas y metas. Además, las empresas pioneras establecerán estructuras institucionales que faciliten la construcción de consensos y promuevan la colaboración en la industria de IA.
El Frontier AI Model Forum también utilizará los datos y recursos que académicos, ONGs y otras partes interesadas han contribuido. Seguirá y apoyará los estándares establecidos por proyectos de IA preexistentes, como la Partnership on AI y la MLCommons, para garantizar su implementación exitosa.
¿Cómo funcionará el Frontier AI Model Forum?
En los próximos meses, el Frontier Model Forum formará un Consejo Consultivo compuesto por individuos con una amplia gama de experiencias y perspectivas para ayudar a definir la estrategia y los objetivos de la organización.
También se establecerán arreglos institucionales clave, como una carta de principios, gobernanza y finanzas, liderados por un grupo de trabajo y un consejo ejecutivo. En las próximas semanas, el foro buscará consultas con la sociedad civil y el gobierno sobre la estructura del Foro y métodos efectivos de colaboración.
Cuando surja la oportunidad, el Frontier Model Forum está ansioso por aportar su experiencia a programas nacionales y globales existentes, como el proceso G7 Hiroshima, el trabajo de la OCDE sobre riesgos, estándares e impacto social de la inteligencia artificial, y el Consejo de Comercio y Tecnología entre Estados Unidos y la Unión Europea.
Cada una de las iniciativas del Foro, o «líneas de trabajo», buscará construir sobre el progreso ya alcanzado por el mundo empresarial, el sector sin fines de lucro y la academia. El Foro buscará formas de involucrarse y apoyar importantes esfuerzos multilaterales, como la Partnership on AI y la MLCommons, ambas con contribuciones significativas en toda la comunidad de IA.
Para obtener información más detallada, haga clic aquí.