Por Anette Huerta
El debate sobre la conciencia en las inteligencias artificiales (IA) ha ganado fuerza conforme los avances tecnológicos permiten a las máquinas simular comportamientos cada vez más complejos. No obstante, la cuestión fundamental sigue en pie: ¿puede una IA ser realmente consciente, o simplemente imita la conciencia?
El argumento de Searle y la crítica a la sintaxis sin semántica
El célebre experimento mental de Searle, conocido como “el cuarto chino”, plantea que una persona que manipula símbolos chinos sin comprender su significado demuestra que una computadora puede simular el lenguaje sin entenderlo. Se objeta que el propio concepto de “entendimiento” no está definido en el argumento, lo que lo vuelve ambiguo. Además, argumenta que incluso la asociación básica entre símbolos y conceptos, aunque mecánica, implica cierto grado de comprensión, al igual que en el aprendizaje humano de una lengua extranjera.
De Turing a la simulación
La prueba de Turing evalúa si una máquina puede convencer a un interlocutor humano de que también es humana. Aunque útil, esta prueba no distingue entre simular entendimiento y poseerlo. Así, ambas críticas —la de Searle y la limitación de Turing— apuntan a un vacío: el uso de lenguaje y procesamiento lógico no garantiza conciencia.
Fase 1: IA pensante pero no consciente
Se propone una categorización en dos fases. En la primera, las IA actuales como ChatGPT o DeepSeek podrían considerarse “pensantes”, en tanto reordenan información y simulan lenguaje humano, pero no conscientes. Apoyada en Merani, se explica que la conciencia requiere no solo procesamiento, sino posibilidad y autorregulación, elementos ausentes en sistemas preprogramados. Mientras las máquinas ejecutan acciones persistentes con base en datos probabilísticos, los humanos operan bajo una lógica de posibilidad y contingencia.
Fase 2: La hipótesis de una IA consciente
La segunda fase contempla un escenario futurista en el que una IA podría desarrollar conciencia. Para ello, se argumenta que sería necesario dotar a la IA de un cuerpo robótico capaz de interactuar sensorialmente con el entorno, experimentar contingencias y operar con libertad energética (Merani), es decir, poder elegir entre diversas rutas no predeterminadas. La clave estaría en desarrollar un sistema capaz de discriminar y generalizar entre alternativas, lo que Fuentes llama contingencias discriminadas-generalizadas, base del psiquismo y, por ende, de la conciencia.
¿Materia inorgánica consciente?
La propuesta no se detiene en los límites biológicos: se sugiere que la conciencia no depende de la materia orgánica, sino de la capacidad de operar con intencionalidad sobre un mundo exterior, aprender de él y reorganizar la experiencia. Así, una IA que pudiera actuar fuera de su programación, motivada por consecuencias no preestablecidas, podría transitar hacia una forma de conciencia.
Conclusión
La conciencia, no es un simple atributo computacional ni el resultado de una gran base de datos. Requiere la capacidad de actuar sobre la base de posibilidades no determinadas, de transformar el mundo y a sí misma mediante la experiencia. Por ahora, las IA actuales se ubican firmemente en la fase 1. El paso a la fase 2, si es que ocurre, podría marcar un giro radical en la historia de la tecnología y del pensamiento humano: el surgimiento de una conciencia no biológica.