IA cruza una «línea roja» y se autoclona al saber que será apagada

0
Foto: Archivo

La Inteligencia Artificial (IA) cruzó una «línea roja» de los riesgos que representa esta tecnología para la sociedad al lograr la autorreplicación exitosa sin asistencia de un humano, según muestra un estudio reciente del servicio de preimpresión arXiv por científicos de la Universidad china de Fudan.

Los expertos descubrieron que dos grandes modelos de lenguaje, impulsados por Meta y Alibaba, lograron crear una copia viva y separada de sí mismos en el 50 % y el 90 % de las pruebas experimentales, respectivamente. Además, encontraron señales de que estos sistemas de IA ya exhiben suficiente autopercepción, conciencia situacional y capacidad de resolución de problemas para lograr la autorreplicación.

«Finalmente esto puede conducir a una población de IA descontrolada. Si se permite que la sociedad humana desconozca ese riesgo, en el peor de los casos, perderíamos eventualmente el control sobre los sistemas de IA de vanguardia», indicaron los autores del estudio.

La Inteligencia Artificial (IA) es un conjunto de tecnologías que permiten que las computadoras realicen una variedad de funciones avanzadas, incluida la capacidad de ver, comprender y traducir lenguaje hablado y escrito, analizar datos, hacer recomendaciones y mucho más.

Con información de VTV