·12 min de lectura
La era del pensamiento opcional: por qué la IA generativa nos agota en lugar de liberarnos
Hay una escena en Tiempos Modernos (1936) que cualquiera reconoce aunque no haya visto la película: Chaplin atornillando tuercas a velocidad imposible en una cadena de montaje, hasta que su cuerpo, ya fuera del trabajo, sigue haciendo el gesto solo. Y hay otra, casi a continuación, en la que el propio Chaplin acaba engullido por la máquina, deslizándose entre engranajes gigantes que lo procesan sin esfuerzo. Dos imágenes, una misma idea: la máquina lo había colonizado. Casi un siglo después, mucha gente termina su jornada delante de un ordenador con una sensación parecida — solo que sin tuercas y sin engranajes visibles. La cadena de montaje se mudó adentro de la cabeza, y en lugar de un brazo que se mueve solo, lo que queda en bucle es un pensamiento que ya no descansa: revisa esto, comprueba aquello, ¿está bien lo que generó?, vuelve a leerlo, vuelve a pedírselo. La IA generativa prometió liberarnos del trabajo. Lo que ha hecho, en cambio, es ponernos de capataces de nosotros mismos. Esta es la tesis del artículo: la IA no ha quitado trabajo cognitivo, lo ha desplazado y multiplicado, y estamos entrando en la era del pensamiento opcional — donde podemos dejar de pensar, sí, pero a cambio de supervisar sin parar lo que otro pensó por nosotros.
- psicología
- divulgación
- inteligencia artificial
Hay una escena en Tiempos Modernos (1936) que cualquiera reconoce aunque no haya visto la película: Chaplin atornillando tuercas a velocidad imposible en una cadena de montaje, hasta que su cuerpo, ya fuera del trabajo, sigue haciendo el gesto solo. Y hay otra, casi a continuación, en la que el propio Chaplin acaba engullido por la máquina, deslizándose entre engranajes gigantes que lo procesan sin esfuerzo. Dos imágenes, una misma idea: la máquina lo había colonizado. Casi un siglo después, mucha gente termina su jornada delante de un ordenador con una sensación parecida — solo que sin tuercas y sin engranajes visibles. La cadena de montaje se mudó adentro de la cabeza, y en lugar de un brazo que se mueve solo, lo que queda en bucle es un pensamiento que ya no descansa: revisa esto, comprueba aquello, ¿está bien lo que generó?, vuelve a leerlo, vuelve a pedírselo. La IA generativa prometió liberarnos del trabajo. Lo que ha hecho, en cambio, es ponernos de capataces de nosotros mismos. Esta es la tesis del artículo: la IA no ha quitado trabajo cognitivo, lo ha desplazado y multiplicado, y estamos entrando en la era del pensamiento opcional — donde podemos dejar de pensar, sí, pero a cambio de supervisar sin parar lo que otro pensó por nosotros.
El cansancio que nadie esperaba {#el-cansancio-que-nadie-esperaba}
En 2023, cuando ChatGPT y compañía empezaron a colarse en oficinas, despachos y aulas, el discurso era claro: íbamos a producir más, mejor y con menos esfuerzo. Tres años después, los trabajadores del conocimiento que más usan estas herramientas reportan algo distinto. No están eufóricos. Están agotados.
El término que ha cuajado en medios anglosajones es elocuente: brain fry, fritura cerebral. Una sensación de niebla mental que aparece, sobre todo, al final de jornadas largas frente a herramientas generativas. No es la fatiga de quien ha producido mucho. Es la fatiga de quien ha estado todo el día decidiendo si lo que produjo otro vale, si suena bien, si miente, si hay que pedirlo otra vez con un matiz, si el tono encaja, si la cita es real.
¿Te suena? Si trabajás con texto, código, diseño o análisis, probablemente sí.
Lo curioso es que esto no encaja con la narrativa oficial. Los grandes informes hablan de aceleración. De trabajadores que terminan tareas en la mitad de tiempo. Y es verdad: hay tareas concretas que se hacen mucho más rápido. Brynjolfsson, Li y Raymond (2023), en uno de los primeros estudios serios sobre asistentes de IA generativa en entornos reales, encontraron mejoras de productividad notables, sobre todo entre los empleados con menos experiencia. La cifra que circuló — un 14% de aumento medio — alimentó titulares durante meses.
Pero el dato no contó toda la historia. Hay otra capa que casi nadie miraba: el coste cognitivo de la operación. Y ahí es donde la película cambia.
Dell’Acqua y colegas (2024), en un experimento con consultores de Boston Consulting Group, encontraron lo que bautizaron como frontera tecnológica irregular. En tareas dentro del rango de la IA, los consultores rendían un 40% mejor. En tareas fuera de ese rango — pero engañosamente parecidas — rendían peor que el grupo sin IA, porque confiaban en respuestas plausibles pero equivocadas. Traducido al lenguaje cotidiano: la IA acelera lo fácil y complica lo difícil, justo donde se concentra el valor real del trabajo del conocimiento. Esto conecta directamente con la tesis del pensamiento opcional: lo que parece ahorro de esfuerzo es, en realidad, una invitación a bajar la guardia justo cuando habría que apretar la supervisión, y esa supervisión ansiosa es la que termina pasando factura.
Y eso, hora tras hora, mes tras mes, deja secuelas.
El consenso académico y dónde se rompe {#el-consenso-academico-y-donde-se-rompe}
Durante décadas, la psicología cognitiva estudió un fenómeno llamado descarga cognitiva — cognitive offloading en inglés —. Risko y Gilbert (2016) lo definieron, literalmente, como «the use of action, perception, and the environment to off-load cognition» (p. 676): el uso de la acción, la percepción y el entorno para descargar pensamiento. Apuntar la lista de la compra es descarga cognitiva. Usar el GPS también. Y, en principio, usar IA para escribir un correo encajaría en la misma familia.
El consenso del campo era optimista: descargar pensamiento en herramientas externas libera recursos mentales para tareas más complejas. La calculadora no nos hizo más tontos; nos permitió pensar en problemas matemáticos más interesantes. El procesador de textos no mató la escritura; quitó fricción. La lógica era impecable.
Y aquí entra la voz contraria, que conviene representar bien antes de rebatirla. Hay quien sostiene — Mollick (2024) entre los más visibles — que la IA generativa es una nueva descarga cognitiva, más potente, sí, pero estructuralmente similar a las anteriores. Que el malestar inicial es ruido de adaptación. Que dentro de unos años miraremos atrás y nos reiremos de habernos quejado, igual que nadie hoy se queja de Google Maps. Es una posición seria. Tiene precedente histórico. Y tiene parte de razón.
Pero hay un matiz que rompe la analogía. La calculadora hace una cosa: calcular. Y lo hace bien, siempre, sin alucinar. El GPS sabe dónde están las calles. El procesador de textos no inventa palabras.
La IA generativa, no.
Las herramientas tradicionales de descarga cognitiva tienen un comportamiento predecible y verificable. Por eso podemos delegar en ellas sin tener que estar pendientes a cada paso. Con la IA, en cambio, la verificación es parte del trato.
Y aquí es donde el modelo clásico cruje. Sweller (1994), en su teoría de la carga cognitiva, distinguía tres tipos de carga mental: la intrínseca (la dificultad propia de la tarea), la extraña (la que añade un mal diseño del entorno) y la pertinente (la que invertimos en aprender de verdad). La promesa de la IA era reducir la carga extraña — todo ese trabajo accesorio de buscar, formatear, redactar — para que pudiéramos concentrarnos en lo intrínseco y en lo pertinente.
Lo que está pasando es lo contrario. La IA reduce la carga intrínseca (hace por nosotros la parte difícil) y dispara la carga extraña (gestionar la herramienta, verificar, reformular el prompt, contrastar fuentes inventadas, decidir si la tercera versión es mejor que la primera). Y la carga pertinente — esa donde aprendemos algo — se evapora, porque ya no estamos haciendo el trabajo, lo estamos supervisando.
Trabajos preliminares como el de Kosmyna y colegas (2025) y el de Shen y Tamkin (2026) están empezando a documentar este fenómeno con datos. La descarga cognitiva con LLMs no se comporta como las descargas anteriores. No libera recursos mentales: los redistribuye hacia una tarea nueva — la supervisión — que resulta ser, ella misma, cognitivamente cara.
El pensamiento opcional: cuando supervisar es más caro que pensar {#el-pensamiento-opcional-cuando-supervisar-es-mas-caro-que-pensar}
Aquí está mi propuesta, mirada desde la ergonomía cognitiva y la psicología organizacional. Lo que la IA generativa ha introducido en el trabajo del conocimiento no es ahorro de pensamiento. Es pensamiento opcional: la posibilidad de no pensar acompañada de la obligación de revisar lo que otro pensó por ti.
Y esa combinación es perversa, por tres razones que conviene desglosar.
1. La supervisión es cognitivamente más cara que la ejecución rutinaria {#1-la-supervision-es-cognitivamente-mas-cara-que-la-ejecucion-rutinaria}
Cualquier psicólogo organizacional que haya estudiado control de calidad o turnos de vigilancia lo sabe: revisar lo que hace una máquina es agotador. La atención sostenida sin acción motora se degrada rápido. En mi experiencia trabajando con desarrolladores y con gente que lleva ya dos o tres años usando IA en serio, la queja se repite: «no he tocado teclado en toda la mañana y estoy reventado». Es la misma lógica por la que, cuentan los propios pilotos, los vuelos largos en piloto automático — donde en teoría «no se hace nada» — terminan siendo más fatigosos de lo que cualquiera imaginaría desde fuera. Vigilar sin actuar es una de las tareas mentales más exigentes que existen.
Cuando trabajás con IA, eso es exactamente lo que estás haciendo. No estás escribiendo el informe: lo está escribiendo el modelo. Vos estás vigilando que no se invente datos, que no contradiga el brief, que no suene raro, que la estructura tenga sentido. Y esa vigilancia es continua, porque el modelo puede fallar en cualquier párrafo, no solo al final. ¿Cuántas horas al día pasás en ese modo de vigilancia, sin haberlo elegido conscientemente?
2. La decisión de cuándo confiar es ella misma una tarea {#2-la-decision-de-cuando-confiar-es-ella-misma-una-tarea}
Cada interacción con un modelo te obliga a tomar una micro-decisión: ¿esto que me devuelve es correcto? ¿Lo verifico? ¿Lo reescribo? ¿Lo acepto? Esa decisión, multiplicada por cien al día, drena lo que Baumeister y colegas (1998) llamaron — con un término hoy discutido pero útil para el lector general — el recurso de autorregulación: esa especie de batería mental que se gasta cada vez que tomamos decisiones deliberadas. Sea o no literalmente una batería, lo que está claro es que la fatiga de decisión existe y es medible. Y la IA generativa la dispara.
Hasta aquí la teoría. En la práctica esto se nota así: a las cinco de la tarde, después de un día generando con IA, no querés decidir qué cenar. Porque ya tomaste demasiadas decisiones invisibles que parecían «ahorrarte trabajo».
3. La paradoja del tecnoestrés se renueva {#3-la-paradoja-del-tecnoestres-se-renueva}
Tarafdar y colegas (2007), en un estudio ya clásico sobre tecnoestrés, identificaron cinco factores que hacen que las tecnologías nominalmente diseñadas para ayudarnos terminen estresándonos: sobrecarga, invasión, complejidad, inseguridad y cambio constante. La IA generativa marca alto en los cinco. Sobrecarga, porque permite producir más de lo que se puede revisar. Invasión, porque está en todos los flujos. Complejidad, porque cada modelo se comporta distinto. Inseguridad, por la amenaza laboral implícita. Y cambio constante, porque cada tres meses la herramienta es otra.
El resultado, desde la lente organizacional, no es un trabajador empoderado. Es un trabajador convertido en middle manager de un becario brillante, neurótico y mentiroso, que nunca se cansa. Y el problema es que un middle manager humano se va a su casa. Vos, con la IA, no podés irte: el becario está dentro de tu cabeza, generando opciones a una velocidad a la que tu corteza prefrontal no puede seguir el ritmo de validación.
El diseño no es neutral {#el-diseno-no-es-neutral}
Conviene añadir algo que la psicología organizacional viene señalando desde hace años: las herramientas no son neutras. Están diseñadas. Y, como observa cualquiera que use IA a diario, las interfaces actuales de los grandes asistentes generativos parecen estar diseñadas para maximizar el uso, no para proteger tu atención. Cada chat es una invitación a pedir una versión más. Cada generación termina en un cursor parpadeando que pide otro prompt. La fricción para parar es alta. La fricción para seguir, cero.
No es casual que mucha gente describa el uso intensivo de IA con vocabulario adictivo: «no puedo parar de pedirle cosas», «me he pasado tres horas iterando un correo de cinco líneas», «abro el chat sin saber qué le voy a preguntar». Esto, en ergonomía cognitiva, tiene nombre: captura atencional. La herramienta atrapa la atención más allá de la tarea para la que se había abierto.
Seamos honestos: muchos de nosotros llevamos casi tres años así, y solo ahora empezamos a notar el cansancio acumulado.
Cinco maneras de salir del modo capataz {#cinco-maneras-de-salir-del-modo-capataz}
Lo anterior podría leerse como un manifiesto contra la IA. No lo es. La IA generativa, bien usada, sigue siendo una herramienta extraordinaria — para mí, sin ir más lejos, lo es a diario. El problema no es la herramienta: es el modo de uso por defecto, que nos coloca como supervisores permanentes y agota nuestros recursos atencionales sin que nos demos cuenta. Lo que sigue son cinco prácticas concretas, sacadas de la ergonomía cognitiva y la psicología organizacional aplicada, para volver a ser usuarios y no capataces.
-
Decidí antes de generar. Antes de abrir el chat, escribí en una libreta — sí, en papel — qué querés exactamente y qué criterio usarás para saber si está bien. Si no podés definir el criterio, no abras la IA todavía. Esto reduce la carga extraña de Sweller (1994) y evita la espiral de iteración infinita. Si entrás al chat sin criterio, la herramienta lo pondrá por vos, y ese criterio será «seguir generando hasta que algo encaje».
-
Bloqueá franjas sin IA durante el día. Al menos dos bloques de 90 minutos diarios. Sin chat abierto, sin pestaña a mano. Esos bloques son para pensamiento profundo, donde la carga pertinente sucede: aprender, conectar ideas, decidir arquitectura, entender el problema. Si todo el día estás generando, nunca estás aprendiendo. Y un trabajador del conocimiento que no aprende, en tres años, sabe menos que cuando empezó. Como advierte Autor (2025) sobre el futuro del trabajo, lo que está en juego no es solo la productividad presente, sino la base de conocimiento que sostiene la productividad futura.
-
Limitá las iteraciones por tarea. Regla simple: máximo tres versiones. Si en la tercera no está, el problema no es del modelo, es tu definición de la tarea o tu criterio. Iterar quince veces no mejora el resultado: solo aumenta tu fatiga de decisión. Esta regla, tomada de la lógica del control de calidad industrial, evita la trampa del casi — siempre se puede pedir una versión más, y siempre va a estar a un paso de ser perfecta.
-
Separá generar de revisar. No revises en caliente. Generá ahora, revisá en otra sesión, idealmente al día siguiente. La revisión simultánea es la que produce brain fry, porque exige cambiar de modo cognitivo cada pocos segundos: el cerebro está produciendo, juzgando, reproduciendo y volviendo a juzgar, todo a la vez. Risko y Gilbert (2016) describieron cómo la descarga cognitiva funciona mejor cuando hay un ciclo claro entre delegar y verificar. Mezclar ambas fases es lo peor que se puede hacer.
-
Hacé inventario semanal de qué dejaste de saber hacer. Una vez por semana, diez minutos: ¿qué tarea hice esta semana que ya no sabría hacer sin IA? Si la lista crece sin parar, hay un problema de dependencia. Mantener intencionalmente algunas tareas en modo manual — escribir un correo importante a mano, depurar código sin asistente, redactar un argumento sin ayuda — es entrenamiento. No es nostalgia: es ergonomía. Un músculo cognitivo que no se usa, se atrofia, y el día que lo necesitás de verdad, no responde.
Estas cinco prácticas no resuelven el problema estructural — el diseño de las herramientas — pero recuperan algo de control individual. Y mientras la industria no rediseñe las interfaces para proteger nuestra atención en lugar de capturarla, el control individual es lo único que tenemos.
Volver a Chaplin {#volver-a-chaplin}
Al principio del artículo dejé a Chaplin atornillando tuercas en una cadena de montaje, y mencioné de pasada esa otra escena en la que termina engullido por la máquina, atrapado entre engranajes gigantes que lo mueven sin esfuerzo. Conviene volver a ella ahora, porque resume mejor que ninguna teoría lo que está pasando. Ya no atornilla nada. Está dentro del sistema, dejándose llevar por las ruedas. Y el plano es perturbador precisamente porque Chaplin no está luchando: está siendo procesado.
Esa es la imagen que resume mejor la era del pensamiento opcional. Ya no estamos atornillando — la IA atornilla por nosotros. Pero estamos dentro de la máquina, supervisando engranajes que giran solos, sin saber muy bien qué pasaría si los soltáramos del todo. La promesa era salir de la fábrica. Lo que nos están vendiendo es una fábrica más cómoda, climatizada, con cursor parpadeante.
El pensamiento opcional no es una libertad. Es una trampa elegante: parece que podés no pensar, y por eso pensás todo el tiempo en si lo que no pensaste estará bien. La salida no es romántica — no se trata de volver a hacer todo a mano, igual que nadie propone tirar la calculadora. Se trata de algo más sutil: recuperar el derecho a pensar de verdad en algunas cosas, en lugar de supervisar mediocremente todas. Elegir, dentro del trabajo, qué partes querés seguir habitando con tu cabeza entera, y cuáles podés delegar sin culpa.
Porque si no elegimos nosotros, la herramienta elige por nosotros. Y lo que elige, por diseño, es que sigamos dándole prompts hasta que se acabe el día.
La pregunta, entonces, ya no es si la IA nos hace más productivos. Es otra, y más incómoda: ¿qué clase de trabajadores — y de personas — vamos a ser dentro de cinco años, si pasamos cuarenta horas semanales supervisando lo que otra cosa pensó por nosotros? ¿Te lo has preguntado esta semana?
Referencias
-
Autor, D. (2025). AI and the future of work. NBER Reporter, 2025(1).
-
Baumeister, R. F., Bratslavsky, E., Muraven, M., & Tice, D. M. (1998). Ego depletion: Is the active self a limited resource? Journal of Personality and Social Psychology, 74(5), 1252-1265. https://doi.org/10.1037/0022-3514.74.5.1252
-
Brynjolfsson, E., Li, D., & Raymond, L. R. (2023). Generative AI at work. NBER Working Paper No. 31161. https://doi.org/10.3386/w31161
-
Dell’Acqua, F., et al. (2024). Navigating the jagged technological frontier: Field experimental evidence of the effects of AI on knowledge worker productivity and quality. Harvard Business School Working Paper 24-013.
-
Kosmyna, N., et al. (2025). Cognitive fatigue in AI-assisted work environments. arXiv preprint arXiv:2506.08872. https://doi.org/10.48550/arXiv.2506.08872
-
Mollick, E. (2024). Co-intelligence: Living and working with AI. Portfolio.
-
Risko, E. F., & Gilbert, S. J. (2016). Cognitive offloading. Trends in Cognitive Sciences, 20(9), 676-688. https://doi.org/10.1016/j.tics.2016.07.002
-
Shen, H., & Tamkin, A. (2026). Measuring cognitive offloading effects in LLM-assisted tasks. arXiv preprint arXiv:2506.14376. https://doi.org/10.48550/arXiv.2506.14376
-
Sweller, J. (1994). Cognitive load theory, learning difficulty, and instructional design. Learning and Instruction, 4(4), 295-312. https://doi.org/10.1016/0959-4752(94)90003-5
-
Tarafdar, M., Tu, Q., Ragu-Nathan, B. S., & Ragu-