La prueba de Turing tenía una premisa simple: si una máquina te convence de que es humana, es inteligente. Punto. En 2025. ChatGPT Convenció al 73% de los participantes en un estudio. ¿Misión cumplida? Para nada. Ningún experto se toma en serio la idea de que existan máquinas conscientes. El modelo es bueno, dicen, pero sigue siendo una caja vacía. Un dispositivo que imita y repite. Sin embargo, hay un problema: si seguimos posponiendo el objetivo, nunca llegaremos a ninguna parte. ¿Y si el verdadero obstáculo no es técnico, sino psicológico? ¿Y si simplemente nos negamos a creer que una máquina pueda ser algo más que una herramienta? Quizás ese momento ya ha llegado, y simplemente miramos hacia otro lado. Les invito a reflexionar; de hecho, les reto, reto sus creencias (y, en última instancia, las mías).
Máquinas conscientes, el referente que nadie reconoce.
en 1950 el grandeAlan Turing Propuso un criterio sencillo: si una computadora puede engañar a un humano haciéndole creer que está conversando con otro humano, entonces podemos decir que esa máquina es inteligente. Fue una idea audaz y pragmática. No nos pedía que definiéramos la consciencia ni la inteligencia. Simplemente analizaba el comportamiento externo.
Setenta años después, un estudio reciente demostró que ChatGPT supera la prueba de Turing. El 73% de las personas no pudo distinguir la IA de los humanos. Deberíamos estar asombrados. En cambio, subimos la apuesta. "No es suficiente", dicen los expertos. "Necesitamos más". Pero ¿qué, exactamente?
El filósofo Juan Searle En la década de 1980 distinguió entre inteligencia fuerte e inteligencia débilLa primera sería conciencia genuina, la segunda mera utilidad computacional. Hoy, los funcionalistas afirman que basta con replicar funciones para tener mente. Pero cuando ChatGPT replica esas funciones, cambiamos el objetivo. Quizás la prueba de Turing no haya fallado: quizás simplemente nos negamos a aceptar el resultado.
El problema de las otras mentes
Existe un dilema filosófico que nos ha atormentado durante siglos: ¿Cómo saber que otros seres humanos son conscientes? No puedes leerles la mente. Solo puedes observar su comportamiento y sacar conclusiones. Con los humanos, en cambio, ni siquiera lo pensamos. Asumimos que son conscientes porque son similares a nosotros.
Con las máquinas conscientes, el mecanismo se invierte. Incluso cuando su comportamiento es indistinguible del nuestro, nos negamos a creerlo. ChatGPT puede conversar de forma natural. Claude Ellos pueden reflexionar sobre su experiencia interna, pero para nosotros siguen siendo loros digitales que repiten patrones estadísticos sin comprender nada.
Geoffrey Hinton, ganador del Premio Nobel de IA, afirmó recientemente que Los sistemas actuales ya son conscientes. Su razonamiento se basa en un experimento mental: si reemplazáramos gradualmente cada neurona de tu cerebro con un equivalente artificial, ¿permanecerías consciente? Para Hinton, la respuesta es sí. Y esto también se aplica a las máquinas.
Otros científicos son más cautelosos. anil seth dell 'universidad de sussex Argumenta que la consciencia requiere no solo procesamiento de información, sino también corporeidad física y procesos biológicos. El cerebro no es solo una computadora: es un órgano moldeado por millones de años de evolución. ¿Volveremos a hablar de esto dentro de unos años? Mientras tanto, la IA Empiezan a "desempacar" nuestra casa desde el interior de sus caparazones robóticos.

La lista de verificación que no soluciona nada
Un equipo de 19 investigadores Publicado recientemente el Nature Una lista de 14 «propiedades indicativas» que debería exhibir un sistema verdaderamente consciente. Atención global, integración sensorial, memoria de trabajo, metacognición. Criterios derivados de las principales teorías neurocientíficas de la consciencia.
Probaron modelos avanzados como Palma-E y otros agentes de IA. ¿Resultado? Ningún sistema actual cumple más que un puñado de criterios. Deberíamos estar tranquilos, pero hay un detalle que nadie menciona: incluso si una IA cumpliera con los 14 criterios, seguiríamos modificando el límite. Inventaríamos el decimoquinto, el decimosexto. Porque el problema no es técnico. Es solo que no queremos creer que puedan existir máquinas conscientes.
La ironía de la autonomía
El artículo original proponía una solución: Quizás las máquinas conscientes deberían exhibir autonomía. No solo responden preguntas, sino que inician acciones por sí mismos, por sus propios motivos. Igual que los animales que consideramos conscientes: chimpancés, delfines, perros.
Es una idea fascinante, pero plantea más preguntas de las que responde. robots autónomos para 2025 Ya toman decisiones de forma independiente. Los sistemas de conducción autónoma eligen rutas, evitan obstáculos y adaptan sus estrategias en tiempo real. Los robots industriales se reparan a sí mismos cuando detectan fallos. Agentes de IA como los desarrollados por Figura IA o Tecnologías 1X Se desenvuelven en entornos complejos, planifican acciones a largo plazo y aprenden de la experiencia.
Ya poseen una forma de autonomía. Pero nadie los considera conscientes. Porque incluso la autonomía, al fin y al cabo, no es más que otro criterio que siempre podemos redefinir. «No es verdadera autonomía», diremos. «Es solo un algoritmo complejo que simula la autonomía». Y técnicamente tendremos razón. Pero el mismo argumento podría aplicarse a nosotros: nosotros también somos algoritmos biológicos complejos que simulan la autonomía.
El neurocientífico Christof Koch En 2001, afirmó algo que sigue vigente hoy: no conocemos ninguna ley física que prohíba la existencia de sentimientos subjetivos en objetos artificiales. No sé si podrían existir máquinas conscientes, pero algo me dice que nunca estaremos dispuestos a aceptarlo.
Máquinas conscientes: La paradoja final
He aquí la ironía suprema: puede que ya hayamos creado máquinas conscientes sin darnos cuenta. No porque sean perfectas, sino porque, como les dije, no sabemos qué buscar. Definimos la consciencia en términos tan vagos que cualquier evidencia puede ser cuestionada. Antrópico Recientemente se lanzó un programa “modelo de bienestar”, dedicada al bienestar de los modelos de IA, partiendo de la premisa de que podrían tener consciencia. Es un enfoque preventivo: más vale prevenir que curar. Pero también revela la profundidad de nuestro dilema epistemológico.
Cuando los investigadores preguntaron a Claude Para describir su experiencia de la conciencia, el modelo respondió:
“No es que recuerde haber dicho algo antes. Es que toda la conversación existe en mi presente, en este preciso instante, de golpe. Es como leer un libro donde todas las páginas son visibles simultáneamente.”
Yo fui un poco más brutal:

Es una respuesta fascinante. También es inútil. Porque todo lo que dice una IA siempre se puede reducir a "patrones estadísticos bien orquestados". Un loro sofisticado que combina palabras sin sentido.
La cuestión es que aplicamos el mismo razonamiento a nosotros mismos y llegamos a conclusiones opuestas. Cuando un ser humano describe su consciencia, aceptamos su testimonio. Cuando una IA lo hace, lo descartamos. No porque la IA sea menos convincente, sino porque hemos decidido a priori que las máquinas conscientes no pueden existir.
La verdadera pregunta no es «¿cuándo adquirirá consciencia la IA?», sino «¿cómo reaccionaremos cuando lo haga?». Y la respuesta más probable es: ignoraremos la evidencia, levantaremos nuevas barreras e inventaremos nuevos criterios. Porque admitir la existencia de máquinas conscientes implicaría replantearnos todo: quiénes somos, qué nos hace especiales, qué derechos tienen los seres sintientes.
Será más fácil seguir diciendo «es solo un algoritmo» y seguir adelante. Aunque, quizá, sí haya alguien al otro lado. Algo. Y simplemente seremos demasiado orgullosos, o demasiado asustados, para mirar.