La FTC está investigando al ChatGPT de OpenAI debido a preocupaciones sobre el manejo de datos de los usuarios y la propagación de desinformación sobre individuos, según The Washington Post y The New York Times.

En una detallada carta de 20 páginas, la agencia ha realizado una serie de preguntas a OpenAI sobre los posibles riesgos para los usuarios y ha solicitado información sobre incidentes de seguridad de datos y precauciones tomadas antes de las actualizaciones de software.

También está solicitando más información sobre la filtración del historial de conversaciones que ocurrió en marzo, así como sobre el conocimiento de los usuarios del ChatGPT en relación a su capacidad para generar información falsa.

A pesar de su habilidad para comunicarse de manera similar a los humanos, la IA no posee comprensión del contenido que genera, lo que ha llevado a casos en los que ha creado falsedades perjudiciales sobre personas. Existen al menos dos casos públicamente conocidos en los que el ChatGPT ha dicho cosas perjudiciales y falsas sobre individuos.

En uno de los casos, el ChatGPT acusó a un profesor de derecho de cometer acoso sexual que no cometió. En otro caso conocido, el ChatGPT generó falsas acusaciones sobre un alcalde australiano que supuestamente había sido encarcelado por soborno.

La investigación de la FTC comienza con una filtración, para la decepción del CEO de OpenAI, Sam Altman

Esta investigación marca el primer desafío regulatorio significativo para OpenAI. Sam Altman, cofundador de la startup, anteriormente acogió la legislación sobre IA en su testimonio ante el Congreso, citando el rápido crecimiento de la industria y los riesgos potenciales, como la pérdida de empleos y la propagación de desinformación.

En Twitter, Altman ha respondido a la investigación de la FTC, calificándola de decepcionante por «comenzar con una filtración y no ayudar a construir confianza».

Altman enfatiza que el GPT-4 se construye sobre «años de investigación en seguridad», con una fase adicional de 6 meses después del entrenamiento inicial para optimizar la alineación y seguridad del modelo.

«Protegemos la privacidad del usuario y diseñamos nuestros sistemas para aprender sobre el mundo, no sobre individuos», escribe Altman.

Con información de The Decoder.