La FTC investiga a OpenAI por cuestiones relacionadas con la privacidad y la ciberseguridad
La Comisión Federal de Comercio de EE. UU. (FTC) está investigando a OpenAI por posibles violaciones de la ciberseguridad y la privacidad relacionadas con los datos que utiliza para entrenar el modelo de inteligencia artificial generativa, ChatGPT. En una solicitud de investigación de 20 páginas (básicamente una citación), la FTC afirma que la investigación se refiere a si ChatGPT ha incurrido en prácticas injustas y engañosas en materia de privacidad y seguridad de los datos, o si ha incurrido en general en prácticas injustas o engañosas relacionadas con riesgos de daño a los consumidores, incluido el daño a la reputación. Cada una de ellas constituiría una infracción del artículo 5 de la Ley de la FTC, y la FTC formula 49 preguntas junto con solicitudes de 17 categorías de documentos relacionados con las prácticas de OpenAI.
Esta investigación se produce tras las quejas del público a la FTC en las que se alegaban sesgos algorítmicos y problemas de privacidad, así como casos en los que ChatGPT había «alucinado» los resultados de las sugerencias.
Además, la investigación se produce en un momento en el que varios países han intentado regular el uso de la IA generativa. Las demandas para regularla en Estados Unidos se han intensificado, incluyendo el marco propuesto por el senador Chuck Schumer.
En general, las empresas deben seguir revisando su uso de los modelos de IA generativa, especialmente en lo que respecta al origen de los datos de entrenamiento, para asegurarse de que los datos cumplen con las leyes de privacidad aplicables.
La Comisión Federal de Comercio está investigando a OpenAI por posibles violaciones de la ley de protección al consumidor, y solicita al fabricante de ChatGPT registros exhaustivos sobre su manejo de datos personales, su potencial para proporcionar información inexacta a los usuarios y sus «riesgos de daño a los consumidores, incluido el daño a la reputación».
Ver artículo de referencia