OpenAI en el punto de mira de la UE por fallos en ChatGPT

0
Foto: Archivo

OpenAI, la empresa que se encuentra detrás de ChatGPT, parece que tiene un nuevo frente abierto, esta vez con la Unión Europea, debido a que su chatbot está generando información incorrecta —se la inventa— sobre algunas personas, un fallo común en este tipo de herramientas de inteligencia artificial conocido como alucinación.

En concreto, se trata de una queja de privacidad presentada por noyb, una organización sin fines de lucro, en nombre de un denunciante anónimo, pero que se describe como figura pública y que denuncia un incumplimiento del Reglamento General de Protección de Datos (RGPD).

Contextualizando, el RGPD es una ley que protege la privacidad y los datos personales de los ciudadanos de la Unión Europea y establece pautas sobre cómo las empresas deben procesar y proteger los datos de las personas, dando a todos ciertos derechos sobre sus datos personales, entre los que se encuentra el derecho a la corrección de datos incorrectos. Aquí está el problema.

Noyb afirma que OpenAI no cumple con esta obligación en el caso de ChatGPT, pero la empresa ha afirmado que es técnicamente imposible corregir la información incorrecta generada por el chatbot.

Maartje de Graaf, abogado de protección de datos de noyb, comenta sobre la denuncia: «Inventar información falsa es bastante problemático en sí mismo. Pero cuando se trata de información falsa sobre personas, puede haber consecuencias graves. Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la legislación de la UE cuando procesan datos sobre personas. Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir con los requisitos legales y no al revés».

¿Qué está ocurriendo y por qué OpenAI no puede «arreglar» ChatGPT?

Parece que aquí el gran problema para OpenAI radica en que ChatGPT no puede corregir de manera exacta la información incorrecta que genera sobre las personas. Aunque la empresa ha intentado solucionar esto creando formas de filtrar o bloquear la información falsa, es difícil hacerlo al 100% porque el sistema es demasiado complejo.

Además, otro obstáculo es que no se sabe exactamente de dónde viene toda la información que ChatGPT usa para responder preguntas. Por ejemplo, si el chatbot dice que naciste en una fecha de nacimiento que es falsa, no puedes ni tú y casi ni ellos conocer de dónde sacó ese dato para que se corrija.

Todo esto al final crea un gran problema para la empresa que hay detrás que, al enfrentarse a este tipo de quejas o denuncias a la Unión Europea, se encontraría casi atado de manos y pies. Las sanciones por incumplimiento del RGPD pueden alcanzar hasta el 4% de la facturación anual global y aunque no sería un gran hándicap para ellos, sí que podría venir de la mano de obligaciones para que cambien la herramienta, lo que desde luego ya serían palabras mayores.

Con información de ComputerHoy