Au milieu des préoccupations croissantes en matière de protection de la vie privée, la Pologne enquête sur le ChatGPT d’OpenAI pour vérifier la conformité au GDPR.
Le populaire système de chatbot IA d’OpenAI, ChatGPT, fait à nouveau l’objet d’un examen minutieux pour vérifier s’il est conforme à la législation européenne sur la protection des données. Suite à une plainte déposée en Pologne, les autorités locales ont confirmé publiquement l’ouverture d’une enquête.
Les allégations
L’Office polonais de protection des données personnelles (UODO) examine la plainte déposée contre ChatGPT, qui accuse OpenAI de traitement illégal et peu clair des données. L’autorité a souligné le défi, compte tenu de la localisation d’OpenAI en dehors de l’UE et de la technologie innovante de chatbot d’IA générative qui fait l’objet d’un examen.
Jan Nowak, président de l’UODO, a déclaré que l’affaire touche à plusieurs dispositions du GDPR et exige qu’OpenAI réponde à un certain nombre de questions pour garantir une analyse approfondie.
Jakub Groszkowski, vice-président de l’UODO, a rappelé que les organisations doivent se conformer au GDPR, indépendamment des avancées technologiques. La plainte met en cause le respect par OpenAI des règles européennes en matière de protection des données.
Questions centrales
La plainte, déposée par le chercheur en protection de la vie privée et en sécurité Lukasz Olejnik, porte sur le fait qu’OpenAI n’a pas corrigé les données personnelles erronées créées par ChatGPT à son sujet. Il affirme également qu’OpenAI n’a pas répondu de manière satisfaisante à sa demande d’accès aux données et a fourni des réponses vagues et contradictoires.
La technologie sous-jacente de ChatGPT, appelée large linguistic model (LLM), a été entraînée sur diverses données, parfois sans consentement. Cette méthode de collecte de données et la production occasionnelle de fausses informations sur les individus ont mis ChatGPT en conflit avec la législation européenne.
Un contexte plus large
Cette enquête est un nouveau chapitre d’une liste croissante de défis réglementaires auxquels OpenAI est confrontée dans l’UE. Auparavant, l’autorité italienne de protection des données (DPA) avait temporairement suspendu ChatGPT, et la DPA espagnole avait lancé une enquête. En outre, un groupe de travail mis en place par le Conseil européen de la protection des données examine les technologies de chatbot d’IA, ouvrant la voie à une approche unifiée de la réglementation de ces technologies dans l’ensemble de l’UE.
Malgré ces défis, OpenAI tente de naviguer dans le paysage réglementaire complexe de l’UE. L’entreprise a récemment ouvert un bureau à Dublin, peut-être pour rationaliser ses interactions réglementaires dans le domaine de la protection des données. Cependant, comme les décisions sont toujours prises au siège social américain, les autorités de protection des données de l’UE restent compétentes pour enquêter sur les problèmes liés à ChatGPT dans leur région.
Maciej Gawronski de GP Partners, représentant Olejnik, a exprimé son espoir d’engager un dialogue constructif avec OpenAI sur la conformité de ChatGPT au GDPR. Cependant, OpenAI n’a pas encore commenté l’enquête en cours.
Dernier mot
Le paysage évolutif de l’IA et ses interactions avec les lois sur la protection des données soulignent le besoin de clarté et d’adaptation de part et d’autre. Les expériences d’OpenAI dans l’UE peuvent fournir des enseignements précieux pour l’ensemble du secteur technologique en ce qui concerne l’alignement de l’innovation sur la protection des données.