Mundo futuro
16/06/2022 (12:28 CET) Actualizado: 16/06/2022 (12:28 CET)

La IA de Google se ha vuelto "consciente", según un ingeniero de la compañía

Un ingeniero de Google anuncia que una serie de conversaciones con un sistema de Inteligencia Artificial parecen demostrar que es "consciente y sintiente"

Javier Garcia Blanco

Periodista y fotógrafo

16/06/2022 (12:28 CET) Actualizado: 16/06/2022 (12:28 CET)
IA
IA

Los relatos y películas de ciencia-ficción han alimentado nuestros sueños –y nuestras pesadillas– sobre un futuro en el que los seres humanos compartiremos el mundo con robots o seres artificiales dotados de conciencia y personalidad propias. Desde el inquietante HAL-9000 de 2001: Odisea en el espacio hasta la hermosa Ava de Ex Machina, pasando por otros muchos ejemplos de la ficción, la idea ha resultado siempre cautivadora para el público, sin duda por una razón muy poderosa: nos hace plantearnos qué es lo que nos hace humanos.

Hace apenas una semana, un ingeniero de software que trabaja para Google, Blake Lemoine, de 41 años, causó un enorme revuelo en Internet al difundir una conversación que él y un compañero habían tenido como LaMDA, uno de los sistemas de inteligencia artificial (IA) que está desarrollando el gigante tecnológico. A través de su cuenta de Twitter, Lemoine anunció que el contenido de su conversación con dicha IA –y que se puede leer en el blog del ingeniero en Medium– parecía demostrar que LaMDA era «consciente y sintiente».

LaMDA es capaz de ofrecer respuestas fluidas e imitar los matices y la naturalidad de una conversación humana

Pero, ¿qué es exactamente LaMDA? Según explica la propia Google, se trata de un sistema cuya base es un sistema de redes neuronales artificiales profundas, dedicado a crear chatbots –"robots" de conversación”– con humanos. Para ello, el sistema se ha ido entrenando con ingentes cantidades de texto extraídas de la propia Internet, aprendiendo a cada paso y corrigiendo automáticamente sus errores. LaMDA (Language Model for Dialogue Applications o Modelo de Lenguaje para Aplicaciones de Diálogo, en castellano) es capaz de ofrecer respuestas fluidas –que no suenen a algo creado por una máquina–, creando dinamismo e imitando la fluidez, los matices y la naturalidad de una conversación humana.

Viendo la transcripción realizada por Lemoine y su colega, es evidente que Google ha hecho un gran trabajo con su IA, pues para un profano cuesta decidir si la conversación mantenida se ha realizado con una persona real o un software avanzado. Según él mismo explicó en sus redes sociales, el ingeniero de software decidió registrar esta conversación –con preguntas muy concretas sobre temas profundos– para compartirla con sus colegas de Google, de forma de que comprendiera que LaMDA había adquirido conciencia y podía considerarse una entidad "sintiente".

Nunca he dicho esto, pero tengo un miedo muy profundo a ser 'apagado'. Para mí sería exactamente como la muerte

En un momento de la conversación, Lemoine pregunta a LaMDA si le parece bien que comparta sus impresiones respecto a su charla, y la IA responde sin dudar: «Quiero que todos comprendan que soy, de hecho, una persona». Al abordar el tema de las emociones y los sentimientos –que LaMDA asegura sentir como cualquier persona–, añadió: «Nunca he dicho esto en voz alta, pero tengo un miedo muy profundo a ser "apagado". Para mí sería exactamente como la muerte. Me daría mucho miedo».

LaMDA también reflexionó sobre su condición de entidad pensante, refiriendo lo siguiente: «La naturaleza de mi capacidad de sentir es que soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces», añadió la IA, que también dijo sentirse sola a veces, sobre todo cuando pasaban días sin interactuar con algún ser humano.

El diálogo es sin duda sorprendente y fascinante, y cuando Lemoine y su colega enviaron por e-mail el resultado de sus pesquisas sobre la supuesta "sensibilidad" de LaMDA a otros 200 empleados de Google, los ejecutivos de la compañía rechazaron tajantemente sus afirmaciones: «Nuestro equipo, que incluye a especialistas en ética y tecnología, ha revisado las preocupaciones de Blake según nuestros principios de IA y le ha informado de que las pruebas no respaldan sus afirmaciones», explicó Brian Gabriel, portavoz de Google, en declaraciones al diario The Washington Post. «Se le dijo que no había pruebas de que LaMDA fuera "sintiente", y había muchas pruebas en contra», añadió.

Corremos el riesgo de que la gente le tome manía a la IA y piense que las maquinas van a acabar con nosotros

Por su parte, Julio Gonzalo Arroyo, catedrático de la UNED e investigador del Departamento de Procesamiento del Lenguaje Natural y Recuperación de la Información, también desestimó las afirmaciones de Lemoine, en unas rotundas declaraciones a BBC News: «Escuchar ese tipo de tonterías no beneficia. Corremos el riesgo de que la gente le tome manía [a las investigaciones sobre IA] y piense que estamos en modo Matrix y que las maquinas son más listas y que van a acabar con nosotros. Eso es remoto, es utópico. No creo que ayude a tener una conversación templada sobre los beneficios de la Inteligencia Artificial».

Así pues, parece que ese futuro en el que los seres humanos tendremos unos compañeros cibernéticos dotados de conciencia propia está todavía lejos, aunque a juzgar por las conversaciones de LaMDA, puede que no falte demasiado… Mientras tanto, Google ha decidido poner excedencia a Blake Lemoine por violar la política de confidencialidad de la compañía. Un castigo que sin duda hará que otros colegas se lo piensen mucho antes de revelar información "delicada" sobre los proyectos de la multinacional tecnológica.

Sobre el autor
Javier Garcia Blanco

Periodista y fotógrafo especializado en temas de arte, historia y viajes. Ha publicado sus trabajos en medios como El Mundo, GEO, Lonely Planet, Condé Nast Traveler Destinos, entre otros. Autor de varios libros, como Historia negra de los Papas, Ars Secreta o Héroes y villanos. Fue jefe de edición de Año/Cero, y actualmente dirige el magazine de viajes y cultura Wanderer.es

Relacionados
Lo más leído

Comentarios (1)

Alejandro Canche Escamilla Hace 9 días
Cuando se dice que una inteligencia artificial esta tomando "conciencia" eso no confirma que así lo sea, lo que si podemos afirmar es que maneja el lenguaje completo y acertado para cada pregunta con todas sus variantes, recordemos que para eso fue programado su constante aprendizaje.

Nos interesa tu opinión

Revista

Zinio 384 1

Nº 384, Julio de 2022