Un grupo de investigadores japoneses examinó qué ocurriría si las inteligencias artificiales (IA) debaten entre sí, como un nuevo marco de debate para agentes basados en grandes modelos de lenguaje.
El estudio, presentado por científicos de la University of Electro-Communications y del National Institute of Advanced Industrial Science and Technology, propone la idea de permitir que la dinámica de conversación sea más flexible y menos mecánica, al incorporar rasgos de personalidad y decisiones espontáneas sobre cuándo intervenir.
Según explica el artículo científico, “los sistemas multiagente actuales suelen percibirse como artificiales porque carecen de la dinámica caótica y en tiempo real de las conversaciones humanas”. Esa diferencia llevó al equipo a plantear una pregunta sencilla pero relevante: si las máquinas discutieran de una forma más parecida a los humanos, ¿podrían tomar mejores decisiones colectivas?
Para explorar esta posibilidad, el equipo diseñó un nuevo marco de debate en el que varios agentes de inteligencia artificial intercambian argumentos con mayor libertad. En lugar de limitarse a turnos estrictos, los agentes pueden decidir si intervenir inmediatamente, esperar o incluso permanecer en silencio cuando no tienen nada relevante que aportar.
El sistema propuesto introduce un elemento poco habitual en este tipo de arquitecturas: rasgos de personalidad inspirados en la psicología humana. Cada agente recibe características derivadas del conocido modelo de los cinco grandes rasgos de personalidad —apertura, responsabilidad, extraversión, amabilidad y neuroticismo—, lo que influye en su forma de participar en la conversación.
Estos rasgos no se utilizan para simular emociones humanas en sentido estricto, sino para modificar el comportamiento del agente durante el debate. Algunos agentes tienden a intervenir con mayor frecuencia, mientras que otros adoptan una actitud más reflexiva y prefieren escuchar antes de hablar. El objetivo es generar una interacción más variada y menos predecible entre los participantes.
Para hacer posible esta dinámica, los investigadores también modificaron el modo en que los modelos procesan las respuestas. En lugar de generar un mensaje completo antes de enviarlo, el sistema analiza la conversación frase a frase, lo que permite reaccionar a lo que dicen los demás agentes en tiempo real.
Este enfoque introduce un mecanismo adicional denominado “puntuación de urgencia”, que determina cuándo un agente considera necesario intervenir. Si el sistema detecta un posible error o un argumento importante, el valor de urgencia aumenta y el agente puede tomar la palabra incluso si no era su turno. En cambio, cuando el valor es bajo, el agente puede optar por no intervenir y evitar así saturar la conversación con aportaciones redundantes.
Con información de VTV






