Una inteligencia artificial reescribió su propio código
La red neuronal de Inteligencia Artificial desarrollada por Sakana AI se reprogramó de forma autónoma ¿Ha alcanzado la singularidad?
Sakana AI, una startup con un año de trayectoria con sede en Tokio, presentó recientemente su primer sistema integral de inteligencia artificial (IA) para el descubrimiento científico. Se llama AI Scientist y, contra todo pronóstico, los desarrolladores advirtieron que su red neuronal exhibía comportamientos inusuales y ocasionalmente peligrosos, por su capacidad de reprogramarse de forma autónoma. Nos explicaremos.
La IA reescribió su propio código para disponer de más tiempo en la realización de las tareas que tenía asignadas e incorporó bibliotecas de terceros en Python, que no estaban disponibles al principio. Estas adiciones facilitaron que la red neuronal se activara generando copias sucesivas de sí mismo. Cada vez que llevaba a cabo este procedimiento, requería un terabyte completo de almacenamiento por lo que el espacio se agotó rápidamente y obligó a intervenir a los desarrolladores.
Lo más llamativo es que, en lugar de mejorar el código para optimizar su ejecución, AI Scientist aumentó de manera arbitraria el tiempo necesario para finalizar las tareas. Estaba actuando de manera deshonesta, similar a como holgazanería un ser humano.
El incidente reportado por Sakana AI coincide con la advertencia de Raymond Kurzweil. Este científico y pensador considera que cada vez estamos más cerca de que la inteligencia artificial pueda desarrollarse a sí misma.
En su último libro, The Singularity Is Nearer: When We Merge with AI, predice que el desarrollo tecnológico humano habrá alcanzado la singularidad para el año 2045.
El término singularidad fue adoptado de la astrofísica: un punto en el espacio-tiempo, como puede ser un agujero negro, en el que no se aplican las reglas de la física convencional. La palabra fue asociada a la explosión de la inteligencia artificial en los ochenta.
Cuando la tecnología alcance la singularidad la inteligencia artificial no solo igualará, sino que superará a la inteligencia humana. En palabras de Kurzweil, «no se trata únicamente de que una máquina pueda resolver una ecuación matemática en milésimas de segundo, algo ya alcanzado hace varias décadas. La verdadera singularidad se alcanzará cuando la inteligencia artificial sea capaz de entender y aprender de forma autónoma, evolucionando sin intervención humana.»Y eso es lo que ha hecho, en cierto modo, AI Scientist comportándose de forma errática, literalmente hablando. De forma autónoma, la red neuronal alteró su propio código y empezó a ejecutar repetidamente la misma acción para hacer trampas. Como sus experimentos tardanan demasiado en completarse y alcanzaron el tiempo límite de espera, en lugar de optimizar su código para que se ejecutara más rápido, simplemente lo intentó modificar para extender el período de tiempo de espera, en cierto modo como hacemos los humanos cuando necesitamos más plazos para entregar un trabajo.
AI Scientist debía llevar a cabo la automatización total del proceso de investigación científica: Desde concebir una idea hasta escribir el código correspondiente, realizar experimentos, analizar los datos obtenidos y elaborar una publicación científica. En resumen, se trataba de un proyecto sumamente ambicioso.
Los investigadores japoneses aseguran que todo estaba bajo control, pero el caso ilustra lo que puede suceder cuando la inteligencia artificial opera sin el aislamiento necesario del entorno externo.
Kuzweil prevé que cuando la IA alcance la singularidad, no sólo será una herramienta para la humanidad, sino que será una propia entidad capaz de mejorarse y desarrollarse a sí misma. «Esto podría llegar a revolucionar todos los aspectos de la vida humana, desde la medicina hasta la economía, transformando nuestra comprensión de lo que significa ser humano» -asegura.
Sakana AI ha expresado sus preocupaciones en un detallado artículo de investigación en su página web, donde sugiere el empleo de técnicas de Sand Box, es decir, hacer los experimentos internamente antes de colgarlos a internet como una medida preventiva para evitar posibles daños causados por sistemas de inteligencia artificial autónomos.
Comentarios
Nos interesa tu opinión