El problema de las ‘alucinaciones’ de ChatGPT genera otra queja de privacidad en la UE

OpenAI se enfrenta a otra queja de privacidad en la Unión Europea. Este, que ha sido presentado por una organización sin fines de lucro que defiende los derechos de privacidad. noche en nombre de un denunciante individual, apunta a la incapacidad de su chatbot de IA ChatGPT para corregir la información errónea que genera sobre las personas.

La tendencia de las herramientas GenAI a producir información claramente errónea ha sido bien documentada. Pero también coloca a la tecnología en curso de colisión con el Reglamento General de Protección de Datos (GDPR) del bloque, que rige cómo se pueden procesar los datos personales de los usuarios regionales.

Las sanciones por incumplimiento del RGPD pueden alcanzar hasta el 4% de la facturación anual global. Lo que es mucho más importante para un gigante rico en recursos como OpenAI: los reguladores de protección de datos pueden ordenar cambios en la forma en que se procesa la información, por lo que la aplicación del RGPD podría remodelar la forma en que las herramientas de IA generativa pueden operar en la UE.

OpenAI ya se vio obligada a realizar algunos cambios después de una intervención temprana de la autoridad de protección de datos de Italia, que obligó brevemente a cerrar localmente ChatGPT en 2023.

Ahora noyb está presentando la última queja GDPR contra ChatGPT ante la autoridad de protección de datos de Austria en nombre de un denunciante anónimo que descubrió que el chatbot de IA les produjo una fecha de nacimiento incorrecta.

Según el RGPD, las personas en la UE tienen un conjunto de derechos asociados a la información sobre ellos, incluido el derecho a que se corrijan los datos erróneos. noyb sostiene que OpenAI no cumple con esta obligación con respecto a la producción de su chatbot. Dijo que la empresa rechazó la solicitud del demandante de rectificar la fecha de nacimiento incorrecta, respondiendo que era técnicamente imposible corregirla.

En lugar de eso, ofreció filtrar o bloquear los datos según ciertas indicaciones, como el nombre del denunciante.

OpenAI política de privacidad afirma que los usuarios que noten que el chatbot de IA ha generado “información objetivamente inexacta sobre usted” pueden enviar una “solicitud de corrección” a través de privacidad.openai.com o enviando un correo electrónico a dsar@openai.com. Sin embargo, advierte: “Dada la complejidad técnica de cómo funcionan nuestros modelos, es posible que no podamos corregir la inexactitud en todos los casos”.

En ese caso, OpenAI sugiere que los usuarios soliciten que elimine por completo su información personal de la salida de ChatGPT, completando un formulario. formulario web.

El problema para el gigante de la IA es que los derechos del RGPD no son a la carta. Los ciudadanos de Europa tienen derecho a solicitar la rectificación. También tienen derecho a solicitar la supresión de sus datos. Pero, como señala noyb, no le corresponde a OpenAI elegir cuáles de estos derechos están disponibles.

Otros elementos de la queja se centran en preocupaciones sobre la transparencia del RGPD, y noyb sostiene que OpenAI no puede decir de dónde provienen los datos que genera sobre las personas, ni qué datos almacena el chatbot sobre las personas.

Esto es importante porque, nuevamente, la regulación otorga a las personas el derecho de solicitar dicha información mediante la llamada solicitud de acceso al sujeto (SAR). Por ahora, OpenAI no respondió adecuadamente al SAR del denunciante y no reveló ninguna información sobre los datos procesados, sus fuentes o destinatarios.

Maartje de Graaf, abogado de protección de datos de noyb, comentó sobre la denuncia en un comunicado: “Inventar información falsa es bastante problemático en sí mismo. Pero cuando se trata de información falsa sobre personas, puede haber consecuencias graves. Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la legislación de la UE cuando procesan datos sobre individuos. Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir con los requisitos legales y no al revés”.

La compañía dijo que está pidiendo a la DPA de Austria que investigue la queja sobre el procesamiento de datos de OpenAI, además de instarla a imponer una multa para garantizar el cumplimiento futuro. Pero añadió que es “probable” que el caso se resuelva mediante la cooperación de la UE.

OpenAI se enfrenta a una queja muy similar en Polonia. En septiembre pasado, la autoridad local de protección de datos abrió una investigación de ChatGPT luego de la queja de un investigador de privacidad y seguridad que también descubrió que OpenAI no podía corregir información incorrecta sobre él. Esa denuncia también acusa al gigante de la IA de no cumplir con los requisitos de transparencia del reglamento.

Mientras tanto, la autoridad italiana de protección de datos todavía tiene una investigación abierta sobre ChatGPT. En enero presentó un borrador de decisión, diciendo entonces que cree que OpenAI ha violado el GDPR de varias maneras, incluso en relación con la tendencia del chatbot a producir información errónea sobre las personas. Las conclusiones también se refieren a otras cuestiones cruciales, como la legalidad del procesamiento.

La autoridad italiana le dio a OpenAI un mes para responder a sus hallazgos. Queda pendiente una decisión final.

Ahora, con otra queja del RGPD contra su chatbot, ha aumentado el riesgo de que OpenAI enfrente una serie de medidas de aplicación del RGPD en diferentes Estados miembros.

El otoño pasado, la compañía abrió una oficina regional en Dublín, en una medida que parece destinada a reducir su riesgo regulatorio al hacer que las quejas de privacidad sean canalizadas por la Comisión de Protección de Datos de Irlanda, gracias a un mecanismo en el GDPR que pretende agilizar la supervisión de las quejas transfronterizas. canalizándolos a una única autoridad estatal miembro donde la empresa está “principalmente establecida”.

Fuente