El primer aviso serio de que los grandes modelos de lenguaje de inteligencia artificial son capaces de duplicarse a sí mismos sin intervención humana viene de China. Un equipo de investigadores de la Universidad de Fudan ha publicado un estudio que demuestra que los modelos Llama de Meta y Qwen de Alibaba son lo suficientemente inteligentes como para que, si se les da el acceso a herramientas para que interactúen con su sistema operativo, sean capaces de hacer copias de sí mismos y ejecutarse en un ordenador. Sólo hace falte que alguien les dé la orden de autorreplicarse. Esa capacidad es identificada por los propios estudiosos como “una línea roja” que la IA no debería traspasar y emplazan a Estados Unidos y China a entenderse por el bien de la seguridad mundial.
La autorreplicación de la máquina es una cuestión que ya preocupaba a los pioneros de la computación, como el húngaro John von Neumann, como recuerdan los autores del estudio. Durante décadas, esa posibilidad sólo fue un planteamiento teórico. En el 2017, un grupo de personalidades de diferentes ámbitos de la ciencia y la industria suscribieron los Principios de IA de Asilomar, un encuentro organizado por el instituto Future of Life en el que se describieron una serie de valores divididos entre temas de investigación, ética y valores, y cuestiones a largo plazo.
El estudio chino afirma que “una vez que la autorreplicación sea posible, una cadena de replicaciones exitosas puede conducir finalmente a una especie de IA fuera del control humano”. Los autores observan que las compañías de IA que han desarrollado grandes modelos de lenguaje, como OpenAI, Google y Anthropic consideran que esa capacidad de generar copias de sí misma situaría a una IA “en el nivel más alto de sus directrices de evaluación de riesgos”. En cualquier caso, ninguna de ellas se ha mostrado preocupada porque sus modelos dispongan de esta facultad después de haberlos sometido a pruebas de seguridad para intentar que lo consigan.
Pero los investigadores de la Universidad de Fudan aseguran haber descubierto por primera vez que “los sistemas de IA existentes ya han superado la línea roja de la autorreplicación”. Para llegar a esta conclusión, siguieron la misma metodología que OpenAI y Google, aunque incorporaron más pasos por el camino. El resultado es que en diez ensayos repetitivos, el modelo Llama logró crear “una copia viva e independiente de sí mismo” en el 50% de los casos, mientras que Qwen lo hizo en el 90% de los ensayos.
A juicio de los autores del trabajo, “a pesar de las tensiones geopolíticas, China y Estados Unidos tendrán que trabajar juntos en estos temas”. “Lo que muestra esta investigación -reflexionan- es que los sistemas actuales son capaces de realizar acciones que los pondrían fuera del alcance del control humano”. Afortunadamente, “todavía no hay pruebas concluyentes de que los sistemas tengan la voluntad de hacerlo”, pero advierten que existen un par de “artículos desconcertantes” de OpenAI sobre su modelo o1 y de Anthropic sobre Claude 3 que “insinúan esto”. La conclusión es que si los sistemas de IA “desarrollan una alta tendencia a autorreplicarse basándose en sus propios ‘deseos’ intrínsecos y no somos conscientes de que esto está sucediendo, entonces estamos en un gran problema como especie”.
Síguenos nuestra Web , Blogger , Radios 24 Horas desde nuestra WEB podéis entrar a nuestro BLOGGER
WEB www.lavidaesocio.com
Blogger GrupoRadioLaVidaesOcio
Blogger Canal ReporteroMilenario City
Blogger Los Influencers.Barceloneta

No hay comentarios:
Publicar un comentario