La IA ya está interpretando tus emociones y advierten que debe ser regulada por la ley

Date:

La inteligencia artificial ya no solo procesa datos, sino que interpreta emociones y conductas humanas en tiempo real. Mientras tanto, la legislación permanece anclada en conceptos del pasado, según revela una investigación de Leire Escajedo San-Epifanio, profesora de Derecho Constitucional en la Universidad del País Vasco.

Este desfase entre la innovación tecnológica y la regulación jurídica plantea interrogantes sobre la protección de derechos fundamentales y la transparencia en el uso de sistemas biométricos no identificantes.

El estudio, titulado “Tratamientos biométricos no identificantes mediante inteligencia artificial”, expone cómo las tecnologías actuales son capaces de deducir estados emocionales y patrones de comportamiento a partir de señales corporales, sin que la persona lo haya expresado de forma directa.

La investigación advierte que la normativa europea, tanto el Reglamento General de Protección de Datos como el Reglamento Europeo de Inteligencia Artificial, aún no aborda de manera adecuada estos nuevos escenarios.

Teléfonos móviles, asistentes virtuales, plataformas de atención al cliente y videojuegos utilizan tecnologías relacionadas con la biometría que, en lugar de identificar a la persona, buscan interpretar su estado anímico y su comportamiento en cada momento.

Estos sistemas pueden detectar si una persona está atenta, muestra interés o cansancio, cuánto tiempo se detiene ante determinado contenido y cómo reacciona a los estímulos digitales. La información recogida se utiliza para personalizar la experiencia del usuario, ajustando desde vídeos hasta anuncios o mensajes destinados a captar la atención e incluso influir en la toma de decisiones.

A diferencia de las aplicaciones tradicionales de la biometría, como el reconocimiento de huellas dactilares o el desbloqueo facial, en este caso el objetivo no es la identificación, sino la interpretación del comportamiento humano y de los estados emocionales.

El salto tecnológico consiste en pasar de registrar datos explícitos proporcionados por el usuario a deducir información íntima y subjetiva sin mediación consciente.

La investigación de Escajedo San-Epifanio identifica riesgos sustanciales en el uso de tecnologías biométricas no identificantes. Uno de los principales es la posibilidad de influir en las decisiones individuales mediante la adaptación continua del entorno digital, basada en el comportamiento observado.

Esto compromete la libertad personal, ya que el usuario puede ser guiado o condicionado sin ser plenamente consciente de cómo ocurre ese proceso.

Además, la clasificación automática de las personas según su comportamiento introduce problemas de desigualdad, al crear perfiles que pueden ser utilizados para discriminar o segmentar a los usuarios. El estudio alerta de la falta de transparencia respecto a qué datos se generan, cómo se utilizan y con qué fines.

El consentimiento informado, en la práctica, resulta insuficiente: aceptar términos y condiciones no equivale a comprender el alcance real de la información recopilada ni las formas en que puede condicionar las decisiones cotidianas.

Estos riesgos no suelen manifestarse de manera inmediata. En lugar de una decisión única y concreta, los sistemas introducen pequeños ajustes continuos que, acumulados en el tiempo, pueden modificar el comportamiento de los usuarios. Este fenómeno dificulta la detección y el control de los efectos sobre la autonomía y la privacidad.

El desfase entre el avance de la Ia y la lentitud del Derecho en adaptarse es una de las principales conclusiones del estudio. La legislación vigente fue concebida para contextos en los que la recogida de datos era puntual y explícita, o para decisiones automatizadas claramente identificables.

Sin embargo, los sistemas actuales operan de manera continua, extrayendo conclusiones sobre el comportamiento sin encajar en las categorías jurídicas existentes.

El Reglamento General de Protección de Datos, aprobado en 2016, se centraba en la identificación de las personas mediante biometría, pero no anticipó el uso de estas tecnologías para interpretar emociones o modular la conducta. Por su parte, el Reglamento Europeo de Inteligencia Artificial, aún reciente, no ha otorgado suficiente relevancia a estas aplicaciones, a pesar del impacto que tienen en la vida diaria.

La investigación subraya que el problema no se soluciona exclusivamente con informar al usuario. Es necesario evaluar los riesgos de estos sistemas antes de su implantación, identificar el tipo de información que generan y establecer límites claros cuando puedan afectar derechos fundamentales.

El estudio propone pautas prácticas para que empresas y autoridades actúen de manera preventiva, asegurando la transparencia y el respeto a la autonomía personal.

Vía Infobae

Share post:

Subscribe

Popular

More like this
Related

Usurpaba perfiles de fallecidos en el Sistema Patria para desviar fondos en Anzoátegui

Funcionarios de la Delegación Municipal Puerto La Cruz, detuvieron...

La IA podría interpretar tus emociones a través de la biometría

La inteligencia artificial ya no solo procesa datos, sino...

Nombran una nueva especie de polilla en honor al papa León XIV

Un grupo de investigadores europeos decidió nombrar una nueva...