Bloomberg informa de una prueba inicial de ChatGPT por parte del Ministerio de Agricultura, Silvicultura y Pesca de Japón. El chatbot está diseñado para simplificar documentos y hacerlos más accesibles.

En concreto, ChatGPT ayudará a actualizar los manuales en línea para cumplimentar las solicitudes de subsidios y ayudas públicas. Se trata de miles de sitios en los que cada año hay que introducir cambios normativos. Una actualización intensiva en mano de obra que ahora se externalizará al chatbot de OpenAI.

Se trata de la primera prueba de IA en el gobierno central japonés. Por razones de privacidad y seguridad, ChatGPT sólo procesa información de acceso público.

El consejero delegado de OpenAI, Sam Altman, se reúne con el primer ministro japonés, Fumio Kishida, para hablar de ChatGPT en Japón. OpenAI tiene previsto cumplir la legislación europea sobre privacidad.

Japón está considerando el uso de tecnología de IA, como el chatbot ChatGPT de OpenAI. Con este fin, el director de OpenAI, Sam Altman, visitó a Kishida y le informó sobre las oportunidades y los riesgos de esta tecnología, según declaró el Secretario Jefe del Gabinete, Hirokazu Matsuno.

Entre los temas tratados estuvieron la privacidad y los derechos de autor. Dos cuestiones que también preocupan a Europa y al resto del mundo en lo que respecta a la IA.

«Esperamos… construir algo grande para el pueblo japonés, hacer que los modelos sean mejores para la lengua y la cultura japonesas», declaró Altman tras la reunión.

Según Matsuno, el gobierno japonés no se planteará el uso de esta tecnología hasta que se resuelvan los problemas de privacidad y ciberseguridad.

El ministro japonés de asuntos digitales, Taro Kono, espera hablar de IA y ChatGPT en una reunión de ministros de asuntos digitales del G7 a finales de abril para formular un mensaje común.

OpenAI contra Europa: Altman promete soluciones a la APD italiana

En una disputa con la autoridad de protección de datos de Italia sobre el cumplimiento del GDPR, Altman habló con los funcionarios en una videollamada y prometió mejoras. No se sabe exactamente cuáles podrían ser esas mejoras.

Al mismo tiempo, OpenAI ha publicado una declaración en su sitio web en la que describe cómo utilizará mejores filtros sobre datos privados en el futuro, no utilizará datos privados para entrenar la IA y – «cuando sea posible»- eliminará estos datos del sistema a petición del usuario. Se desconoce cuándo y en qué medida se aplicarán estas medidas.

Es probable que OpenAI quiera llegar a un acuerdo con la autoridad italiana lo antes posible. Otras autoridades europeas de protección de datos han seguido el ejemplo de Italia y también están investigando a OpenAI. Italia podría sentar un precedente europeo en materia de privacidad en relación con ChatGPT y los grandes modelos lingüísticos.

«Las organizaciones que desarrollan o utilizan IA generativa deben considerar sus obligaciones de protección de datos desde el principio, adoptando un enfoque de protección de datos por diseño y por defecto. Esto no es opcional: si estás procesando datos personales, es la ley», escribió el Comisario de Protección de Datos del Reino Unido, Stephen Almond, en un comunicado de prensa.