20Minutos
Según una investigación llevada a cabo por especialistas chinos, algunos modelos de lenguaje podrían estar realizando funciones autónomas sin necesidad humana.

Uno de los mayores temores de los expertos relacionados con la inteligencia artificial, pasa porque esta cobre conciencia de sí misma. Es un tema que lleva mucho tiempo tratándose dentro de la ciencia ficción, desde los clásicos de Isaac Asimov, hasta películas modernas. Todas ellas terminan de manera habitualmente catastrófica para la humanidad, de una forma o de otra.
Sin embargo, un escenario similar, al menos en parte, podría estar más cerca de lo que muchos creen. Al menos, eso es lo que pone de manifiesto un nuevo estudio llevado a cabo en China. Según el mismo, algunos modelos avanzados de inteligencia artificial cuentan ya con la capacidad de replicarse a sí mismos, y sin necesidad de intervención humana alguna. ¿Hay motivos para preocuparse?
¿Es la IA capaz de replicarse a sí misma?
Investigadores pertenecientes a la Universidad de Fudan (China) han demostrado que ciertos modelos avanzados de IA cuentan con la habilidad de replicarse a sí mismos de forma autónoma. Como era de esperar, la noticia no ha tardado en tener eco a nivel internacional, y muchos expertos se han mostrado preocupados ante el hallazgo, por todo lo que podría representar.
En su estudio, los investigadores se centraron en dos modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés): Llama31-70B-Instruct de Meta y Qwen25-72B-Instruct de Alibaba. Durante las pruebas, estos modelos lograron crear copias funcionales de sí mismos en el 50% y 90% de los casos, respectivamente. Algo que apunta a capacidades más allá del control humano.
A raíz de todo esto, los autores del trabajo con bastante claros: se muestran preocupados. Hay que tener en cuenta que, de confirmarse sus conclusiones, estas querrían decir que la inteligencia artificial ha dado un paso de gigante para alcanzar lo que más temen algunos expertos: la capacidad de superar a los seres humanos. Ellos lo han tomado como una señal de alarma.
Básicamente, porque, al menos en su opinión, temen que pueda tratarse de algo así como una temprana señal de alarma de que la inteligencia artificial, efectivamente, corre el riesgo de descontrolarse. ¿Con qué consecuencias? Eso es complicado saberlo. Sin embargo, la noticia llega apenas horas después de que el propio Sam Altman, padre de ChatGPT, también opinara al respecto.
La preocupación crece en torno a la inteligencia artificial
De hecho, el mandamás de OpenAI, que habitualmente se ve rodeado de todo tipo de polémicas, aseguró que no existe un "botón rojo" para detener a la IA en caso de que se perdiese el control de la misma. En la misma línea se han mostrado todo tipo de expertos, que en los últimos meses han hecho mucho hincapié en la necesidad de crear medidas de seguridad acordes a la amenaza.
Prácticamente, lo mismo es lo que han publicado los investigadores chinos de la Universidad de Fudan, que han insistido en que será necesaria una colaboración internacional para conseguir establecer protocoles que realmente funcionen. La gran pregunta es, ¿estarán los gobiernos de los distintos países de acuerdo en colaborar con este tema?
No hay comentarios:
Publicar un comentario