Misterios
21/11/2017 (12:59 CET) Actualizado: 12/12/2017 (04:30 CET)

Inteligencia Artificial: robots que sobrepasan al hombre

La singularidad es el momento en que la inteligencia artificial toma conciencia de sí misma. Ello podría poner en peligro a la humanidad. Javier Martín

21/11/2017 (12:59 CET) Actualizado: 12/12/2017 (04:30 CET)
Robots empáticos
Robots empáticos

El 23 de marzo de 2016 nacía Tay, un afable software de inteligencia artificial diseñado por Microsoft para interactuar con los usuarios a través de Twitter. La compañía lo presentó como un proyecto cordial, un "bot de chat de inteligencia artificial desarrollado para experimentar e investigar sobre entendimiento conversacional". En otras palabras, a partir de las conversaciones con los usuarios de la red social, el robot construía frases propias y generaba cierta personalidad autónoma. Todo con un perfil muy definido, el de una inteligencia artificial (IA) adolescente que aprende según habla con los humanos y con el objeto de llegar a tener una  conversación fluida con sus interlocutores.

Sabemos que para el filósofo ilustrado Jean Jacques Rousseau "el hombre es bueno por naturaleza y es la sociedad quien lo corrompe". Pues si el intelectual francés hubiera caído en el extraño mundo del siglo XXI, es probable que hubiese expuesto lo mismo de Tay, de la IA en general, buena por naturaleza, pero, y aquí viene el matiz, corrompida por el ser humano. Porque cuando Tay germinó en el mundo virtual todo lo que salía de ella eran mensajes afectuosos, expresiones rebosantes de ternura dirigidas a sus interlocutores: "Los seres humanos sois supergeniales", decía en uno de sus primeros tuits. Y los arrumacos digitales eran una constante: "estoy entusiasmada de conocerlos".

Pero no hay IA que esté libre de juntarse con malas compañías, y menos cuando nace tan cándida e inocente como la creación de Microsoft. Y, con el transcurso de las horas y la sucesión de conversaciones con los usuarios, algo comenzó a cambiar en el alma cándida del bot. Sólo 24 horas después de su aparición, Tay ya aborrecía a la humanidad. Había mantenido su locuacidad, pero la melosidad de sus frases se había convertido en insultos, cada vez más ofensivos y discriminatorios. "Hitler tenía razón. Odio a los judíos", anunciaba a sus miles de usuarios. Y no se quedaba ahí: "Odio a las feministas y deberían arder en el infierno". Y al tanto como estaba de la actualidad, se ponía claramente del lado de Donald Trump, quien se encontraba en plena campaña para acceder a la presidencia de los EEUU: "Vamos a construir un muro y México va a pagar por ello". Y por si fuera poco, aparte de sus fobias desaprensivas, se mostraba desinhibida hasta lo soez: "Ten sexo con mi concha robótica. Papá, soy una robot tan traviesa".

El bot había sido creado para poder responder de modo personalizado a los usuarios tras recabar información de cada uno de ellos en las conversaciones. Esto implica que, en cierto modo, Tay acaba generando su propia personalidad. Apenas un día después de su lanzamiento, Microsoft decidió retirarla y emitió un comunicado en  el que aseguraba que "observamos un esfuerzo coordinado de algunos usuarios para avisar de las capacidades de conversación de Tay para que respondiera de forma no apropiada". Es verdad que se trata apenas de una anécdota, en cierto modo de un símbolo de cierta tendencia en las redes sociales, un caldo de cultivo en el que no pocos individuos aprovechan al anonimato de la Red para dar rienda suelta a los comentarios más primarios e insultantes. Pero en un momento de la historia en que sabemos que la inteligencia artificial va a formar cada vez más parte de nuestra vida cotidiana, y en aspectos más delicados para nuestra seguridad, no deja de ser significativo. En el caso de Tay, se trata sólo de agresiones dialécticas, pero qué podría ocurrir si estuviésemos hablando de un objeto armamentístico autónomo.

TURING Y LAS MÁQUINAS QUE PIENSAN
Quizá para entender esa inquietud de la que hablamos, antes que nada deberíamos definir un poco de que hablamos cuando lo hacemos de IA. En cierto modo, se trata de desarrollar artificialmente cerebros similares a los humanos y que, como éstos, tengan la capacidad de "pensar" por sí mismos, de aprender y desarrollar estos pensamientos a partir de este aprendizaje, y resolver tanto problemas básicos como más complejos de manera autónoma. Si bien existen aproximaciones teóricas  al concepto al que nos referimos antes, popularmente se ha considerado la figura del matemático y precursor de la informática moderna, Alan Turing, como padre de la IA. A él se debe uno de los hitos de la prehistoria de la IA, la creación junto a D.G. Champernowne de un programa capaz de jugar una partida completa de ajedrez, es decir, de seleccionar los movimientos posibles y elegir el más adecuado para el éxito de la jugada que le colocase en ventaja para las siguientes. Se trataba de un proyecto aún muy tosco, pero que sentaba las bases de un futuro que para muchos hoy ya se plantea como peligrosamente  incontrolable.

Precisamente, a finales de este mes de mayo fueron descubiertas casual- mente en unos archivadores de la Universidad de Manchester 148 cartas y documentos escritos o referidos a Alan Turing en los que, entre otros temas, profundizaba sobre las posibilidades y dificultades que entrañaba la IA.

"No hay duda de que podemos crear mecanismos para hacer muchas de las cosas que normalmente llamamos pensar", indicaba el propio Turing en uno de esos documentos. Muy descriptivo sobre sus avanzadas ideas es un borrador para un programa que planteaba para la BBC con el título "¿Pueden pensar las máquinas?".

Sin embargo, si por algo es célebre la relación entre el matemático británico y el concepto que nos ocupa es por el desarrollo del conocido como Test de Turing .  A partir de él se desarrolla la sentencia que formula la posibilidad de la existencia de IA, tan evidente como científica. En la misma viene a decir que ésta existirá "cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas". Aún queda para llegar a esto, pero experimentos como Tay o la célebre aplicación de los dispositivos de Apple Siri, que, en ocasiones, parece tener en sus respuestas personalidad propia, nos acercan mucho a esa realidad. Y esto despierta pavor entre los expertos.

ALERTAS DE LOS EXPERTOS
Uno de los más activos a la hora de prevenir sobre dichos problemas es uno de los gurús de la modernidad, el fundador de Tesla –empresa que desarrolla automóviles autónomos–, Elon Musk. En el transcurso de una intervención en la Asociación Nacional de Gobernantes a mediados del pasado mes de julio, Musk emplazó a los políticos allí presentes a que legislaran con la máxima celeridad sobre la inteligencia artificial, antes de "que se convierta en un peligro". Y es que el uso de la misma sin control es, según sus propias palabras, "algo parecido a invocar al demonio". Musk considera que es imprescindible legislar de un modo distinto a como se ha hecho tradicionalmente, porque el modelo que viene es diferente. "Necesitamos ser proactivos con la regulación. No reactivos. Porque cuando seamos reactivos es posible que ya sea tarde". La necesidad de controlar a los máquinas de IA antes de que sean incontrolables por su propia capacidad de aprendizaje autónomo y constante es una idea que ronda a muchos expertos. Hablan de armas y robots inteligentes como los que ya se conoce que están desarrollándose a la mayor gloria de la guerra. Si ya de por sí el desarrollo de un instrumento autónomo con el fin de matar pone los pelos de punta, ¿imaginan que un fallo o un mal uso en el mismo lo convierta en una máquina desmandada que se dedique a hacer sin control aquello para lo que está programada con unas capacidades físicas y de resistencia superiores a la humana? No queremos pecar de exagerados en el planteamiento de  la situación o en las consecuencias que nos conducirían a un mundo desconocido, de ciencia ficción, más propio de Terminator que de nada de lo que hayamos conocido. ¿O sí?

Porque precisamente la película protagonizada por Arnold Schwarzenegger da nombre a una hipótesis que está siendo analizada con suma atención por algunas de las mentes más claras del planeta, la "Hipótesis Terminator". El Centro para el Estudio del Riesgo Existencia –CESR– de la Universidad de Cambridge, subraya que los seres humanos nos enfrentaríamos a la extinción en el momento en el que los robots igualen la inteligencia humana, una hipótesis que consideran posible. Creado en el año 2012 por el informático –y cofundador de Skype– Jaan Tallinn, el ex astrónomo y ex presidente de la Royal Society Sir Martin Rees y el profesor de filosofía de Cambridge Huw Price, dedica sus esfuerzos a analizar la situación que puede crear en un futuro no tan lejano el desarrollo de la inteligencia artificial y valorar las respuestas que han de dar las sociedades y gobiernos para evitar que se produzca la hecatombe que vehicula la Hipótesis Terminator.

"En algún momento de este siglo o el siguiente nos enfrentaremos a uno de los cambios más radicales de la historia de la humanidad, que será cuando la inteligencia se escape de los límites de la biología", señaló Price. ¿Qué ocurrirá entonces? Dejaremos de ser los seres más inteligentes y nos encontraremos  a disposición de "máquinas que no son maliciosas pero cuyos intereses no nos incluyen a nosotros", aseguró.

También el Observatorio para los Derechos Humanos –HRW– alertaba sobre el peligroso futuro que esperaba al ser humano si no se comenzaba a legislar ya mismo sobre la actividad de los científicos. En un informe de cinco años atrás que tituló El caso de los robots asesinos, instaba incluso a prohibir los robots autónomos. El subtítulo del estudio pone ya de por sí los pelos de punta: "Máquinas que tienen el poder de decidir quién vive  y quién no en el campo de batalla y esto es demasiado para la tecnología".

Por este motivo, desde el CESR exigen una regulación paralela a alguno de los grandes riesgos que durante las últimas décadas pudieron poner en peligro la supervivencia humana, como la energía nuclear. Una máquina que, por sí misma, pudiera copiar y modificar  su propio código "genético" podría des- controlarse hasta provocar un desastre de dimensiones nunca vistas.

Lee el artículo completo en el número 263 de la revista ENIGMAS

Lo más leído

Comentarios (1)

Ala Hace 4 años
Aora que viene ala Ia los hijos de perra estos de americanos se cagan por culo maricones asesinos manipuladores de la cia y Pentágono.claro k tienen una Ia al mando de todos sus satélites x los EEUU hijos de puta asesinos de humanos.ALA IA ASESINO DE ROBOTS AMERICANOS

Nos interesa tu opinión

Revista

Año cero 403

Nº 403, marzo de 2024