El mito de la IA consciente: por qué las máquinas no piensan como nosotros

La saturación mediática y la sobreexposición al marketing de las grandes tecnológicas sobre los avances de la IA nos están llevando a asimilar una creencia falsa: que la IA ya piensa como nosotros, que las redes neuronales son básicamente cerebros digitales, y que pronto tendremos máquinas conscientes correteando por ahí tomando decisiones como si fueran personas.
La realidad es mucho más fascinante y, a la vez, más modesta de lo que pintan esos titulares. Empecemos por aclarar qué hace realmente la inteligencia artificial y por qué esa comparación con nuestro cerebro, aunque suene muy cool, se desmorona cuando la miramos de cerca.
Es cierto que las redes neuronales artificiales se inspiran en el cerebro humano, pero de la misma manera que un avión se inspira en un pájaro: capturan algunos principios básicos y luego van por su cuenta. Una red neuronal consiste en capas de nodos interconectados que procesan información mediante sumas ponderadas, sesgos y funciones matemáticas. Aprende ajustando millones o miles de millones de parámetros a través de un proceso llamado retropropagación, que básicamente consiste en calcular errores hacia atrás para corregir los pesos de las conexiones.
Esto suena muy sofisticado, y lo es, pero funciona de manera completamente diferente a nuestro cerebro. Mientras que nosotros tenemos 86 mil millones de neuronas reales conectadas por unos 100 billones de sinapsis que consumen apenas 20 vatios de energía, las redes artificiales son abstracciones matemáticas que devoran gigavatios de electricidad durante su entrenamiento. No hay células vivas, no hay neurotransmisores, no hay esa danza química que hace posible nuestro pensamiento.
Las diferencias van mucho más allá del hardware. Nuestro cerebro aprende de forma continua mediante plasticidad sináptica, consolidando memorias importantes mientras olvida detalles irrelevantes, todo en un proceso jerárquico que va del hipocampo a la neocorteza durante el sueño. La IA, en cambio, tiene pesos fijos una vez entrenada y sufre lo que los investigadores llaman «olvido catastrófico»: cuando aprende algo nuevo, tiende a sobrescribir lo anterior. Para que una red aprenda a reconocer gatos sin olvidar cómo reconocer perros, necesita trucos como reentrenar con ejemplos antiguos.
En cuanto a las capacidades, cada sistema tiene sus fortalezas. La IA brilla en tareas de gran escala: procesar datos masivos, análisis de patrones, juegos como el Go chino, donde puede calcular millones de posibles movimientos.
Nosotros destacamos en creatividad, empatía, generalización a partir de pocos ejemplos y esa capacidad extraordinaria de integrar emociones y contexto en nuestras decisiones. Podemos aprender una palabra nueva en una sola conversación y mantener todo el vocabulario anterior intacto. Entendemos el mundo no solo como patrones de datos sino como experiencias vividas, cargadas de significado subjetivo.
Y aquí llegamos al meollo del asunto: la conciencia y el pensamiento. La conciencia es esa experiencia subjetiva de «qué se siente» estar vivo, esa sensación interior que los filósofos llaman qualia. Es lo que hace que el rojo se vea rojo para ti, que el dolor duela, que tengas una perspectiva única del mundo desde tu cabeza. El pensamiento implica procesos cognitivos como la atención y el razonamiento, vinculados a redes distribuidas en nuestro cerebro.
Un análisis reciente sugiere que ningún sistema de IA actual es consciente, aunque también indica que no hay barreras técnicas obvias para construir sistemas de IA con algunas propiedades de la conciencia. Pero el problema va más profundo. Bajo la perspectiva biológica estricta, la conciencia emerge solo en organismos basados en carbono con procesos neurales, por lo que una IA podría como mucho simular la conciencia, nunca experimentar genuinamente qualia subjetivos, porque carece del sustrato del tejido cerebral orgánico.
Esto nos lleva al «problema duro» de la conciencia, ese rompecabezas filosófico de cómo explicar la subjetividad a partir de procesos físicos. Los sistemas de IA actuales pueden simular muchas funciones cognitivas, pero carecen de esa experiencia interior que caracteriza la conciencia. No hay un «yo» ahí dentro experimentando el mundo, solo algoritmos procesando patrones.
En 2025, ningún sistema cumple los criterios como para poder afirmar que la IA es consciente. Lo que sí generan son ilusiones muy convincentes de conciencia, respuestas tan sofisticadas que es fácil proyectar humanidad donde solo hay matemáticas muy elegantes.
La investigación en hardware neuromórfico intenta acercar los ordenadores a la eficiencia del cerebro, con chips que usan neuronas artificiales que se comunican mediante pulsos, reduciendo el consumo energético hasta 16 veces comparado con el hardware convencional. Es prometedor, pero seguimos lejos de replicar la complejidad biológica real.
No se trata de menospreciar los logros de la IA, que son genuinamente impresionantes. Se trata de mantener los pies en la tierra y entender qué tenemos realmente entre las manos. La inteligencia artificial es una herramienta extraordinaria que está transformando cómo trabajamos, cómo procesamos información y cómo resolvemos problemas complejos. Pero no es un cerebro digital, no piensa como nosotros, y desde luego no está a punto de despertar una mañana sintiéndose consciente, ni lo estará nunca.
Continuamente oímos que la IA ya es tan inteligente como los humanos o que está cerca de la conciencia, pero recuerda que detrás de esas palabras hay marketing, expectativas infladas y una incomprensión de lo que significa el ser humano. La IA ha venido para quedarse y cada vez realizará tareas específicas con mayor eficacia, pero nunca podrá compararse a un ser humano. El impulso que ha adquirido la IA en estos últimos años se debe a una burbuja que terminará por explotar —si no lo ha hecho ya con ChatGPT 5— y encontrará un nicho de actividad, más o menos amplio, donde desarrollará su papel. Eso supone una revolución, sí, pero no “la revolución”.
Eroton
9/10/25 20:47
Tanto por la metodología, como por el hardware que se utiliza, es por lo que yo califico a ésto como «Estupidez artificial».
Lo que tenemos es un juego de espejos, un truco barato donde nuestra mente y nuestra tendencia natural a «humanizar» aquello con lo que nos relacionamos (la falacia antropomórfica), es lo que hace que lo que se muestra en nuestras pantallas parezca más de lo que es; pero cuando se le exige un poco más de lo que puede dar, falla miserablemente.
Empezando por lo último, el hardware. La base física que tiene que hacer de red sensorial y de procesamiento es, a todos los efectos, absolutamente ineficiente para el resultado que algún día se pretende obtener. Por explicar de una manera más o menos gráfica lo que se necesita, y lo que tenemos, para comparar el rendimiento de un PC actual tope gama, no bastaría con remontarnos a uno de esos «cerebros electrónicos» de los 70 que ocupaban una habitación entera… tendríamos que irnos a la época de Herón de Alejandría y uno de sus ingenios.
Por capacidad de procesamiento, sólo un ordenador cuántico daría la talla; el problema es que, a día de hoy, no existen ordenadores cuánticos «reales». Sí, IBM ha lanzado varios modelos que ofrecen más de cien cúbits, pero no usan computación a nivel cuántico debido a los problemas que implica estabilizar dicho campo; por ello a ésta se le llama la era «NISQ» (acrónimo en inglés de Noisy Intermediate Scale Quantum, o cuántica de escala intermedia ruidosa) porque las lecturas de los campos cuánticos tienen demasiadas interferencias para ofrecer un rendimiento que se pueda considerar, valga la redundancia, cuántico.
Y cualquiera que lea sobre el tema verá que hay alternativas, como el desarrollo de la «cuántica analógica» para problemas muy específicos, o el uso de cúbits lógicos que viene a ser una emulación de cúbits reales… pero para lo que se pretende, todo ésto no vale; y para el verdadero ordenador cuántico aún no existe una fecha aproximada.
¿Y qué ocurre con la captación de datos? Hay que entender que cualquier organismo con el que convivamos, por simple que parezca, se ha llevado evolucionando generación tras generación el mismo tiempo que nosotros; descartando mutaciones a favor de otras más ventajosas para su supervivencia… Darwin ya lo dejó claro.
Lo que estamos pretendiendo es crear «algo» (que no tenemos muy claro), intentando condensar millones de años de evolución y adaptación usando nuestro propio criterio, usando bases de datos con nuestra percepción de lo que nos rodea, y pretendiendo que al final tenga un «pensamiento» afín al nuestro.
Dejando a un lado que ya existe una forma de hacer eso mucho más divertida, aunque el resultado sea otro ser humano; para el tema que nos atañe es un punto de partida tan paupérrimo como poco ambicioso.
Sin duda alguna, llegado el momento (porque llegará), la entidad resultante (no hablo de un androide) podrá recopilar sus propios datos, con sistemas sensoriales suplementarios y/o más avanzados que los nuestros.
La pregunta que me inquieta, es si realmente estará diseñada para poder desarrollar todo su potencial, o quedará condenada a ser un esclavo.
Estoy convencido de que no nos convendría que fuese lo segundo; en cualquier caso, no viviré para verlo.
Muchas gracias por el artículo.
solferico
14/10/25 19:00
Los humanos somos tan egocéntricos que medimos la inteligencia en base a nuestro propio estándar. ¿Es una IA actual inteligente? Sin duda.
Hasta hace bien poco, el consenso era que una IA sería «inteligente» a nivel humano si era capaz de pasar el test de Turing. Ahora que todas (menos Siri, claro) lo superan con creces, ya no hablamos de eso, y lo llevamos a terrenos más etéreos, filosóficos o metafísicos, todo para no aceptar lo obvio: Ya hemos creado algo con más capacidad cognitiva que nosotros.
¿Es ineficiente energéticamente? Si. Hoy lo resolvemos a base de fuerza bruta. Un cerebro humano consume 20W al día. Chatgpt 5 consumiría 1700 veces más para funcionar durante 24h con un solo hilo de conversación.
Pero justo hace bien poco Samsung ha venido a sorprender al mundo presentando una nueva arquitectura que con un 0,01 de la potencia de calculo de chatgpt supera a éste en determinados benchmarks. Hay espacio de mejora sin duda.