La Comisión Federal de Comercio de los Estados Unidos ha iniciado una investigación sobre OpenAI, la empresa que desarrolló ChatGPT, para determinar si ha infringido las leyes de protección al consumidor al utilizar su chatbot para difundir información engañosa y recopilar datos públicos de manera indebida.
En una extensa carta de 20 páginas, el gobierno ha solicitado a OpenAI que proporcione detalles precisos sobre su tecnología de inteligencia artificial, productos, clientes, políticas de privacidad y medidas de seguridad de datos.
Esta acción contra OpenAI, con sede en San Francisco, representa la amenaza regulatoria más significativa hasta la fecha para una startup que ha sido pionera en la creación de la tendencia de la inteligencia artificial generativa, cautivando a clientes y empresas, pero generando dudas sobre sus posibles riesgos.
El objetivo de la investigación de FTC sobre ChatGPT difunde información falsa
La Comisión Federal de Comercio (FTC) de Estados Unidos está llevando a cabo una investigación sobre OpenAI, la compañía que desarrolló ChatGPT, para determinar si ha violado las normas de protección al consumidor al utilizar su chatbot para difundir información falsa y recopilar datos abiertos.
El gobierno ha solicitado a OpenAI información precisa en una extensa carta de 20 páginas sobre su tecnología de inteligencia artificial, productos, clientes, políticas de privacidad y procedimientos de seguridad de datos.
Una portavoz de la FTC decidió no hacer comentarios sobre la investigación, que fue informada por primera vez el jueves por el Washington Post.
La FTC también ha requerido que OpenAI haga públicos los datos utilizados para entrenar los grandes modelos de lenguaje que son la base de servicios como ChatGPT, pero hasta ahora OpenAI ha rechazado hacerlo. Una de las escritoras que está demandando a OpenAI por alegaciones de que el modelo de lenguaje de ChatGPT fue entrenado con datos que incluyen sus obras es la comediante estadounidense Sarah Silverman.
La FTC ha solicitado a OpenAI que revele si obtuvo los datos directamente de internet (mediante «scraping») o si los adquirió de otras partes. Además, solicita detalles sobre las medidas tomadas para asegurar que no se incluyera información personal en los datos de entrenamiento, así como la identidad de los sitios web de donde se obtuvieron los datos.
Enza Iannopollo, analista principal de la empresa de investigación Forrester, ha afirmado que la mala gobernanza dentro de las empresas de inteligencia artificial podría ser una «catástrofe» tanto para los clientes como para las propias compañías, exponiéndolas a investigaciones y multas.