Nuevo choque entre el modelo de IA generativa de OpenAI y la regulación europea. La organización austriaca de defensa de derechos del consumidor NOYB ha registrado una queja contra la compañía norteamericana, como ha anunciado desde su web oficial este 29 de abril. Lo ha hecho a través de la Autoridad de Protección de Datos Austriaca (DSB), y amparándose en el reglamento general de protección de datos europeo (GDPR).

ChatGPT podría compartir información falsa sobre un determinado individuo. Así se destila del comunicado publicado por NOYB, aunque no es este el motivo real de la queja. Lo que denuncian desde la organización es que, según la normativa europea, los usuarios tienen derecho a exigir la corrección de información sobre ellos publicada en Internet. Asimismo, el marco europeo obliga a las empresas a eliminar los datos falsos y a compartir la fuente de la que proviene la información, a petición del usuario.

La queja viene motivada por el caso de un usuario que, según la organización, solicitó la corrección de su fecha de nacimiento (incorrectamente) proporcionada por ChatGPT. La respuesta que recibió de la empresa fue la imposibilidad de corregir las respuestas del modelo, así como la incapacidad de ofrecer al usuario un registro de los datos que poseen sobre él.

El problema: OpenAI se desentiende de las alucinaciones en las que incurre su modelo, en tanto que aún no es posible a nivel técnico evitar que su chat de inteligencia artificial comparta informaciones falsas. Con la normativa del GDPR en mente, la compañía liderada por Sam Altman tiene disponible un formulario para solicitar la eliminación de datos personales, aunque existe un gran escepticismo sobre la efectividad de esto sobre la IA.

Información sobre personas, un punto delicado

«Inventar información falsa es bastante problemático en sí mismo. Pero cuando se trata de información falsa sobre personas, puede haber consecuencias graves. Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la legislación de la UE cuando procesan datos sobre personas», asegura Maartje de Graaf, abogada de protección de datos en NOYB.

«Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir los requisitos legales y no al revés», añade De Graaf. Así, puede entenderse que desde la organización no aprueban que ChatGPT pueda saltarse varias normas europeas excusándose en que la suya se trata de una tecnología en desarrollo, con limitaciones que impiden controlar sus outputs.

Según esta misma experta, la compañía de IA podría llevar un registro más exhaustivo de los datos que utilizan para entrenar su modelo, de forma que puedan revelar de forma más precisa a los usuarios de dónde proviene la información sobre ellos de la que dispone.

Un asunto que trascenderá a la UE

Con todo ello, y pese a que la queja de esta organización ha sido interpuesta a través de la autoridad nacional austriaca en materia de privacidad, desde NOYB señalan que, muy probablemente, el caso será estudiado en colaboración con las autoridades de la Unión Europea. «Por ahora, OpenAI ni siquiera parece fingir que pueda cumplir con el RGPD de la UE», asegura de forma tajante el comunicado de la asociación.

Paralelamente, una queja similar está también tramitándose en Polonia, interpuesta el pasado septiembre debido a la negativa de OpenAI a corregir información compartida sobre un usuario.

 

Fuente: adslzone