En medio de la creciente preocupación por la privacidad, Polonia está investigando el ChatGPT de OpenAI para verificar el cumplimiento del GDPR.
El famoso sistema de chatbot de IA de OpenAI, ChatGPT, está siendo examinado una vez más para comprobar si cumple la legislación de la UE sobre protección de datos. Tras una denuncia presentada en Polonia, las autoridades locales han confirmado públicamente el inicio de una investigación.
Las acusaciones
La Oficina Polaca de Protección de Datos Personales (UODO) está examinando la denuncia contra ChatGPT, en la que se acusa a OpenAI de procesar datos de forma ilegal y poco clara. La autoridad hizo hincapié en el reto que supone, dada la ubicación de OpenAI fuera de la UE y la innovadora tecnología del chatbot de IA generativa que se está analizando.
Jan Nowak, presidente de la UODO, dijo que el caso afecta a varias disposiciones del GDPR y requiere que OpenAI responda a una serie de preguntas para garantizar un análisis exhaustivo.
Jakub Groszkowski, vicepresidente de la UODO, reiteró que las organizaciones deben cumplir el GDPR, independientemente de los avances tecnológicos. La denuncia cuestiona el cumplimiento por parte de OpenAI de las normas europeas de protección de datos.
Cuestiones centrales
La denuncia, presentada por el investigador de privacidad y seguridad Lukasz Olejnik, se centra en la incapacidad de OpenAI para corregir los datos personales erróneos creados por ChatGPT sobre él. Además, alega que OpenAI no respondió satisfactoriamente a su solicitud de acceso a los datos y proporcionó respuestas vagas y contradictorias.
La tecnología subyacente de ChatGPT, el llamado gran modelo lingüístico (LLM), se entrenó con diversos datos, a veces sin consentimiento. Este método de recopilación de datos y la generación ocasional de información falsa sobre las personas hicieron que ChatGPT entrara en conflicto con la normativa de la UE.
El contexto más amplio
Esta investigación es un capítulo más de la creciente lista de retos normativos a los que se enfrenta OpenAI en la UE. Anteriormente, la autoridad italiana de protección de datos (DPA) había suspendido temporalmente ChatGPT, y la DPA española inició una investigación. Además, un grupo de trabajo creado por el Consejo Europeo de Protección de Datos está examinando las tecnologías de chatbot de IA, allanando el camino para un enfoque unificado de la regulación de estas tecnologías en toda la UE.
A pesar de estos retos, OpenAI está intentando navegar por el complejo panorama regulador de la UE. La empresa ha abierto recientemente una oficina en Dublín, posiblemente para optimizar sus interacciones reguladoras en el ámbito de la protección de datos. Sin embargo, como la toma de decisiones sigue teniendo lugar en la sede de EE.UU., las DPA de la UE conservan la jurisdicción para investigar los problemas con ChatGPT en sus regiones.
Maciej Gawronski, de GP Partners, en representación de Olejnik, expresó su esperanza de entablar un diálogo constructivo con OpenAI sobre el cumplimiento del GDPR por parte de ChatGPT. Sin embargo, OpenAI aún no ha hecho comentarios sobre la investigación en curso.
Última palabra
El panorama en evolución de la IA y sus interacciones con las leyes de protección de datos ponen de relieve la necesidad de claridad y adaptación por ambas partes. Las experiencias de OpenAI en la UE pueden proporcionar lecciones valiosas para todo el sector tecnológico a la hora de alinear la innovación con la protección de datos.