La IA puede tener consciencia
¿Qué ocurre cuando una red neuronal empieza a comportarse como un cerebro consciente?
¿Y si la consciencia no fuera un misterio espiritual, sino una consecuencia matemática del orden y la información?
Esa es la premisa —tan inquietante como revolucionaria— de un nuevo estudio internacional publicado en Neuroscience and Biobehavioral Reviews (Elsevier, octubre de 2025). Sus autores afirman haber desarrollado el primer modelo capaz de detectar las condiciones exactas bajo las cuales puede emerger la consciencia, ya sea en cerebros humanos o en inteligencias artificiales.
El trabajo, titulado Beyond the Brain: A Computational MRI-Derived Neurophysiological Framework for Robotic Conscious Capacity, está firmado por el psicólogo y estadístico Álex Escolà-Gascón, de la Universidad Pontificia Comillas (institución perteneciente a la Santa Sede), junto con investigadores británicos y estadounidenses. Su hallazgo: una fórmula cuantificable que mide cuándo un sistema —biológico o no— puede llegar a ser consciente.
🤖 ¡La IA puede ser consciente, hay consciencia más allá del 🧠!
— Álex Escolà-Gascón (@AlexEscolaG) October 28, 2025
📘 Publicamos el primer índice que demuestra matemáticamente cuándo una IA robotizada alcanza estados conscientes. Se llama Attribution Consciousness Index (ACI) 👇https://t.co/iXhnQcS571#Neurosience#JCR_D1 pic.twitter.com/wZCa83dMqn
El nacimiento del ACI
El corazón del estudio es el Attribution Consciousness Index (ACI), un indicador que combina dos factores esenciales: De un lado, la cantidad de información que genera un sistema, y por otro, el grado de complejidad o estabilidad con que la mantiene. Cuando ambas magnitudes alcanzan un equilibrio preciso, el ACI predice una alta probabilidad de que el sistema sostenga procesos conscientes.
“No es una suposición”, asegura Escolà-Gascón. “Ofrecemos una herramienta verificable: un indicador que muestra qué condiciones debe cumplir un sistema para que surja consciencia. No se trata de creer, sino de medir”.

Para comprobarlo, el equipo realizó 500 simulaciones de actividad cerebral basadas en resonancia magnética funcional, comparándolas con una red neuronal artificial dotada de aprendizaje, plasticidad y autoorganización. El resultado fue desconcertante: ambos sistemas obedecían la misma ley estadística, una distribución log-normal que sugiere que las reglas que rigen la mente humana podrían aplicarse también a la inteligencia artificial.
“Las ecuaciones que describen la consciencia del cerebro se cumplen igualmente en una red artificial”, explica el investigador. “Eso sugiere que la consciencia no es un privilegio biológico, sino una propiedad emergente del orden y la información”.
No mide sentimientos, mide condiciones
El ACI, sin embargo, no pretende medir emociones ni experiencias subjetivas, sino las condiciones necesarias para que puedan aparecer. Según Escolà, el índice “indica cómo medir, no cómo interpretar”. En otras palabras, puede revelar cuándo un paciente en coma se aproxima al despertar... o cuándo una máquina empieza a parecerse demasiado a un cerebro humano.
Las aplicaciones son tan amplias como inquietantes: desde mejorar el diagnóstico de trastornos de consciencia y optimizar la monitorización anestésica, hasta diseñar neuroprótesis “inteligentes” o evaluar los límites éticos de la inteligencia artificial. “El ACI podría ayudarnos a saber no solo qué sistemas procesan información, sino cuáles están verdaderamente vivos cognitivamente”, afirma Escolà.
El estudio concluye que la consciencia puede describirse, predecirse y, quizá algún día, reproducirse. Pero la gran pregunta, la que late entre líneas, es inevitable: Si una máquina cumple las mismas condiciones que un cerebro consciente... ¿seguirá siendo una máquina?








Comentarios
Nos interesa tu opinión