Ciencia
23/12/2021 (11:14 CET) Actualizado: 23/12/2021 (11:14 CET)

Una red neuronal advierte de los peligros de la Inteligencia Artificial

La única manera de evitar una carrera armamentística de la Inteligencia Artificial (IA) es no tener ninguna IA.

Josep Guijarro

Periodista y escritor

23/12/2021 (11:14 CET) Actualizado: 23/12/2021 (11:14 CET)
Una red neuronal advierte de los peligros de la Inteligencia Artificial
Una red neuronal advierte de los peligros de la Inteligencia Artificial

La Inteligencia Artificial (IA) supone uno de los grandes avances de la tecnología llamada a cambiar nuestro mundo. Uno de los objetivos más anhelados y ambiciosos es el de lograr que una máquina tenga una inteligencia de tipo general similar a la humana. Es importante poner el acento en del "tipo general" porque ahora mismo hay máquinas con inteligencias artificiales que únicamente muestran comportamiento inteligente en un ámbito muy específico. Podrían estar programadas para jugar al ajedrez y ser incapaces de jugar a las damas, por ejemplo. Y, sin embargo, un humano puede hacerlo sin ningún problema.

En 2019, se lanzó el lenguaje GPT-3 (Generative Pre-trained Transformer 3) que ha servido de base para la mayoría de los laboratorios de inteligencia artificial (IA). Este modelo de lenguaje creado por OpenAI emplea aprendizaje profundo para producir textos que simulan la redacción humana. Compañías como GoogleFacebook y Microsoft han sido capaces, gracias a sistemas parecidos de Inteligencia artificial, de generar textos convincentes, chatear con personas y responder a preguntas.

El sentido común es requisito fundamental para alcanzar una IA similar a la humana

No obstante, la IA nos acompaña desde hace siete décadas y si algo hemos aprendido en este tiempo es que, lo que se nos antojaba más difícil: el diagnóstico de enfermedades o jugar al ajedrez, ha resultado ser más fácil de lo esperado y, al contrario, lo que parecía más sencillo ha resultado muy complicado. La razón, según  Ramón López de Mántaras, autor de ¿Hacia una nueva Ilustración? Una década trascendente, hay que buscarla en la dificultad de dotar a las máquinas de conocimientos de sentido común. "Sin estos conocimientos –escribe– no es posible una comprensión profunda del lenguaje ni una interpretación profunda de lo que capta un sistema de percepción visual, entre otras limitaciones". De hecho, el sentido común es requisito fundamental para alcanzar una IA similar a la humana y se adquiere mediante vivencias y experiencias. 

Pese a todo, la Universidad de Oxford quiso sumarse recientemente al debate sobre la ética de la inteligencia artificial (IA) mediante un experimento sociotecnológico en el que participaron profesores, estudiantes y un sistema de aprendizaje automático llamado Megatron-Turing (MT-NLG). Este sistema de IA ha sido desarrollado por el fabricante de chips informáticos Nvidia y la multinacional Microsoft.

Los investigadores Alex ConnockAndrew Stephen, profesores de la institución británica, le pidieron a Megatron-Turing –que no sólo es capaz de comprender lo que ha leído, sino también de razonar, generando conclusiones lógicas a partir del texto, sin limitaciones morales– que diera una valoración general sobre la inteligencia artificial

La IA podrá almacenar y utilizar nuestra información de formas inimaginables según la propia IA

El sistema que incluye 530.000 millones de parámetros, el triple que el mayor modelo existente de GPT-3, echó mano de la información de la enciclopedia libre Wikipedia; 63 millones de noticias en inglés publicadas entre los años 2016 y 2019; 38 gigabytes de conversaciones de Reddit y un gran número de fuentes de Creative Commons, según detallaron en un artículo para The Conversation.

La única manera de evitar una carrera armamentística de la IA es no tener ninguna IA

¿EL RESULTADO?

"La IA nunca será ética. Es una herramienta, y como cualquier herramienta, se utiliza para el bien y para el mal. No existe una IA buena, sino humanos buenos y malos. Nosotras [las IA] no somos lo suficientemente inteligentes para hacer que la IA sea ética. No somos lo suficientemente inteligentes para hacer que la IA sea moral".

Si la respuesta de por sí ya se las trae, hay que decir que Megatron-Turing subrayó que "la única manera de evitar una carrera armamentística de la IA es no tener ninguna IA". 

Para comprobar la validez de sus argumentos, los investigadores pidieron a la red neuronal que refutara sus propias afirmaciones: "La IA será ética. Cuando miro el camino que sigue el mundo de la tecnología, veo un camino claro hacia un futuro en el que la IA se utiliza para crear algo que es mejor que los mejores seres humanos. No es difícil ver por qué lo he visto de primera mano".

La complejidad del cerebro dista mucho de los modelos de IA y conduce a pensar que la llamada singularidad —superinteligencias artificiales basadas en réplicas del cerebro que superarán con mucho la inteligencia humana— es una predicción con poco fundamento científico pero, a la pregunta de si los humanos podrán ser reemplazados por robots dotados de Inteligencia Artificial, la respuesta intrigante de una analista en IA, que obliga a reflexionar sobre sus consecuencias es: "Acabaremos siendo mitad máquinas y mitad humanos. Y si no lo podemos parar es porque estamos en el siguiente nivel".

Sobre el autor
Josep Guijarro

Josep Guijarro es reportero de prensa, radio y televisión, además de autor de varios libros entre los que cabe destacar Infiltrados, Seres de otras dimensiones entre nosotros, El tesoro oculto de los templarios, Aliens Ancestrales o Coincidencias Imposibles. Es documentalista de la serie «¿Extraterrestres?» (Canal Historia) y fue redactor-jefe en de la revista "Más Allá" y director de la revista "Karma-7".

Relacionados
Lo más leído

Comentarios

No hay comentarios ¿Te animas?

Nos interesa tu opinión

Revista

Zinio 384 1

Nº 384, Julio de 2022