Conspiraciones
12/02/2024 (08:00 CET) Actualizado: 12/02/2024 (08:00 CET)

El ejército de EE.UU podrá incorporar la tecnología de ChatGPT

OpenAI, la compañía que impulsa el popular ChatGPT abre la puerta, por primera vez, al uso militar de su Inteligencia Artificial

espacio misterio
12/02/2024 (08:00 CET) Actualizado: 12/02/2024 (08:00 CET)
ChatGPT podrá emplearse con fines militares
ChatGPT podrá emplearse con fines militares

Los cambios en las políticas de uso se producen con bastante frecuencia en el mundo tecnológico. Sin embargo, el último de ChatGPT, ya sabes, la famosa inteligencia artificial impulsada por la compañía OpenAI, ha generado mucha polémica.

Hasta mediados de enero, OpenAI prohibía el uso de sus modelos de lenguaje de inteligencia artificial en el terreno militar y la guerra pero, en su nueva política de uso se lee ahora: "No utilices nuestros servicios para hacerte daño a ti mismo o a otros. Por ejemplo, no utilices nuestros servicios para promover el suicidio o autolesionarte, desarrollar o utilizar armas, herir a otros o destruir propiedades, o participar en actividades no autorizadas que violen la seguridad de cualquier servicio o sistema".

OpenAI ha realizado muy discretamente el cambio de sus políticas para facilitar el uso militar

Parece, pues, que la compañía liderada por Sam Altman considera más adecuado eliminar las palabras "militar y guerra", y ve más prudente no utilizar su inteligencia artificial para "herir a otros"

La modificación coincide con el lanzamiento de GPT Store, la tienda que permite crear y comprar versiones personalizadas de su chatbot, lo que hace sospechar que pueda estar comercializando al Ejército estadounidense una parte de su tecnología.

Un portavoz de la compañía manifestó al diario británico Daily mail que “ya estamos trabajando con la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) para impulsar la creación de nuevas herramientas de ciberseguridad para proteger el software de código abierto del que dependen la industria y la infraestructura crítica”. Y añadió que “no estaba claro si estos casos de uso beneficioso se habrían permitido bajo el término 'militar' de nuestras políticas anteriores.”

Firefly ilustración Inteligencia artificial militar
Firefly ilustración Inteligencia artificial militar

La Haya alertó de que la IA podría intensificar los conflictos existentes

El objetivo de esta actualización de políticas, entonces, es ofrecer una mayor claridad y la capacidad de tener estas discusiones.

El año pasado, 60 países, incluidos Estados Unidos y China, limitaron el uso de inteligencia artificial (IA) en el ámbito militar. No obstante, los expertos en derechos humanos en La Haya señalaron que esta limitación no es legalmente vinculante y no abordó, por ejemplo, drones letales con IA (que ya han sido probados en Ucrania contra los rusos) o que la IA podría intensificar los conflictos existentes.

Los firmantes dijeron que estaban comprometidos a desarrollar y utilizar la IA militar de acuerdo con "las obligaciones legales internacionales y de una manera que no socave la seguridad, la estabilidad y la responsabilidad internacionales" pero no todo el mundo se lo cree.

Según el Daily mail, militares libios lanzaron un dron de fabricación turca (el Kargu-2) que atacó en 2020 a soldados rebeldes en retirada. El dron autónomo estaba programado para atacar "sin requerir conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de 'disparar, olvidar y encontrar'", según un informe de la ONU que señaló, además, que estábamos ante el primer ataque de este tipo en la historia, según un informe de la ONU.

Sobre el autor
espacio misterio

Espacio Misterio es la web de la revista Año/Cero, especializada en enigmas, anomalías, historia oculta, ovnis y mucho más. Un punto de encuentro de referencia para descubrir y analizar los misterios que nos rodean.

Lo más leído

Comentarios

No hay comentarios ¿Te animas?

Nos interesa tu opinión

Revista

Año cero 403

Nº 403, marzo de 2024