Hay una escena en Tiempos Modernos (1936) que cualquiera reconoce aunque no haya visto la película: Chaplin atornillando tuercas a velocidad imposible en una cadena de montaje, hasta que su cuerpo, ya fuera del trabajo, sigue haciendo el gesto solo. Y hay otra, casi a continuación, en la que el propio Chaplin acaba engullido por la máquina, deslizándose entre engranajes gigantes que lo procesan sin esfuerzo. Dos imágenes, una misma idea: la máquina lo había colonizado. Casi un siglo después, mucha gente termina su jornada delante de un ordenador con una sensación parecida — solo que sin tuercas y sin engranajes visibles. La cadena de montaje se mudó adentro de la cabeza, y en lugar de un brazo que se mueve solo, lo que queda en bucle es un pensamiento que ya no descansa: revisa esto, comprueba aquello, ¿está bien lo que generó?, vuelve a leerlo, vuelve a pedírselo. La IA generativa prometió liberarnos del trabajo. Lo que ha hecho, en cambio, es ponernos de capataces de nosotros mismos. Esta es la tesis del artículo: la IA no ha quitado trabajo cognitivo, lo ha desplazado y multiplicado, y estamos entrando en la era del pensamiento opcional — donde podemos dejar de pensar, sí, pero a cambio de supervisar sin parar lo que otro pensó por nosotros.
Son las 11 de la noche. Llevas doce horas tomando decisiones. Qué ropa ponerte. Si aceptar esa reunión. Qué responder al mensaje que lleva horas esperando. Qué comer. Si cambiar de suscripción. Si apagar las notificaciones. Y ahora, frente al celular, con tres series en pantalla y ninguna eligiéndose sola, no puedes escoger. No quieres. No puedes.
Acabas de tener una discusión con tu pareja. De esas que dejan un nudo en el estómago y un zumbido en la cabeza. Te encierras en el baño, en el dormitorio, en el coche. Sacas el celular. Abres ChatGPT. Y empiezas a escribir: «Mi pareja acaba de decirme X, y yo le he respondido Y, ¿tú qué crees?».
Lo conoces bien. El techo. La oscuridad que no es del todo oscura. El sonido de la casa en silencio. Y esa sensación peculiar de estar en un mundo paralelo donde todo el mundo duerme excepto tú.
Shinji Ikari está dentro del Eva-01. El enemigo está delante. Tiene la victoria al alcance, literalmente al alcance del brazo robótico. Y huye. No huye al principio, cuando el miedo sería razonable. Huye justo en el momento decisivo, cuando ganar significaría algo: ser aceptado, tener un lugar, dejar de ser «el chico que huye».
Imagina esto. Sales de la basílica de Santa Croce, en Florencia. Acabas de ver los frescos de Giotto, las tumbas de Miguel Ángel, de Galileo, de Maquiavelo. El aire huele a cera y a piedra fría. Llevas semanas viajando por Italia, durmiendo poco, comiendo mal, atragantado de belleza.
En un juzgado de familia de la provincia de Madrid, una mujer ha denunciado a su expareja por violencia y solicita la suspensión del régimen de visitas con sus dos hijos menores. Los niños, de nueve y once años, manifiestan rechazo a ver al padre: se niegan a cogerle el teléfono, lloran antes de los encuentros, repiten frases que parecen dichas por un adulto. El padre, por su parte, presenta un informe pericial privado en el que se diagnostica a la madre como «alienadora» y se concluye que está manipulando a los niños para apartarlos de él. La madre presenta otro informe que afirma justo lo contrario: el rechazo es la respuesta lógica a años de violencia presenciada y sufrida. El juez debe decidir.
Imagina la escena. Un colega te cuenta, en un descanso del congreso, que lleva tres meses usando una herramienta de inteligencia artificial para transcribir y analizar las sesiones con sus pacientes. La aplicación detecta patrones de lenguaje, marca posibles indicadores de riesgo suicida, sugiere temas para la siguiente sesión. Le entusiasma. Dice que ha mejorado su trabajo, que capta cosas que antes se le escapaban. Le preguntas, casi por curiosidad: «¿Y los pacientes lo saben?». Se queda en silencio unos segundos. Responde: «Lo menciono en el consentimiento informado, en una cláusula sobre uso de tecnología».
Son las once de la noche. Pones Hereditary en la pantalla, sabiendo perfectamente lo que viene: una hora y media de angustia escalonada, escenas que vas a recordar mientras te lavas los dientes, un final que probablemente te quite el sueño. Y, sin embargo, lo eliges. No te obligan. No es una penitencia. Es viernes y quieres exactamente esto: pasar miedo.
En 1990, Ghost in the Shell imaginó un mundo donde la frontera entre lo humano y lo artificial se desdibujaba hasta volverse imposible de cartografiar. Motoko Kusanagi se preguntaba si su conciencia era suya o un programa bien depurado. Tres décadas después, los educadores nos enfrentamos a una versión mucho menos elegante de esa misma pregunta: ¿estamos evaluando a nuestros estudiantes o a sus prompts bien afinados de ChatGPT?