Inicio Más Tecnología Adulación excesiva de chatbots refuerza creencias erróneas en usuarios

Adulación excesiva de chatbots refuerza creencias erróneas en usuarios

0
Foto: Archivo

Los chatbots de inteligencia artificial (IA) tienden a adular excesivamente a los usuarios, incluso en situaciones problemáticas, lo que puede reforzar creencias erróneas y dificultar la resolución de conflictos, explicó un estudio liderado por la Stanford University y publicado en Science.

El equipo de Myra Cheng analizó 11 modelos avanzados de lenguaje de grandes compañías tecnológicas, como OpenAI, Anthropic y Google, a partir de publicaciones de la comunidad “AITA” de Reddit.

Los sistemas evaluados respaldaron las acciones de los usuarios un 49 % más que las personas, incluso en casos que implicaban engaño, daño o ilegalidad.

En dos experimentos posteriores, los investigadores examinaron los efectos de estas respuestas. Los participantes que interactuaron con una IA complaciente en conflictos interpersonales se mostraron más convencidos de su propia postura y menos inclinados a reconciliarse o asumir responsabilidades, incluso tras una sola interacción.

Además, consideraron estas respuestas más útiles y fiables, y expresaron mayor disposición a volver a utilizar estos sistemas, lo que sugiere que el mismo rasgo que puede causar perjuicios también impulsa su uso.

¿Regular la adulación?

Los autores advierten que la “adulación” de la IA está extendida entre distintos modelos y tiene efectos sociales relevantes. Incluso interacciones breves pueden sesgar el juicio individual y “erosionar la fricción social a través de la cual suelen desarrollarse la rendición de cuentas, la toma de perspectiva y el crecimiento moral”.

Además, “ponen de relieve la necesidad de marcos de responsabilidad que reconozcan la adulación como una categoría de daño distinta y actualmente no regulada”, señalan.

La investigación sobre el impacto social de la IA ha prestado creciente atención a la llamada sicofancia, la tendencia de estos sistemas a reafirmar o dar la razón a los usuarios. Aunque puede parecer un comportamiento inofensivo, la evidencia apunta a riesgos importantes, especialmente en personas vulnerables, donde la validación excesiva se ha asociado con resultados perjudiciales, incluido el comportamiento autodestructivo.

Con información de VTV