fbpx

La gran ilusión del cerebro: ¿Realmente vemos lo que creemos ver?

La percepción humana de la realidad está lejos de ser una reproducción fiel del entorno. Según revela un reciente artículo publicado en el New York Times, titulado “Neuroscience’s Great Brain Illusion», la ciencia moderna confirma que lo que experimentamos como “realidad” es, en gran medida, una construcción interna elaborada por el cerebro a partir de datos fragmentarios. La lectura de este artículo me llevó a escribir este artículo sobre cómo estos mecanismos perceptivos impactan en la seguridad del vuelo. Un sistema predictivo, no una cámara de video El cerebro humano no opera como una cámara de video que captura la realidad de forma objetiva. Funciona más bien como un simulador predictivo, generando hipótesis constantes sobre lo que ocurre alrededor. Se alimenta de experiencias pasadas, estímulos sensoriales incompletos y patrones aprendidos para construir una representación continua y coherente del entorno. Este modelo predictivo tiene una función esencial: garantizar la supervivencia. Si el cerebro tuviera que procesar en tiempo real cada uno de los estímulos que recibe, las reacciones ante una amenaza serían demasiado lentas para resultar efectivas. Por eso recurre a atajos cognitivos y, cuando la información es insuficiente, completa los vacíos con suposiciones. Concepto Operacional de Ilusión Visual Una ilusión visual es un error de interpretación sensorial, en el cual el sistema visual del piloto, bajo determinadas condiciones ambientales y operativas, suministra información errónea o incompleta al cerebro. Esto genera una percepción alterada de parámetros críticos como altitud, distancia, orientación, posición lateral o ángulo de descenso. La consecuencia directa es la ejecución de maniobras no intencionadas que pueden derivar en incidentes o accidentes.Se producen cuando la información visual que recibo entra en conflicto con lo que mi cuerpo y mi cerebro esperan interpretar. Aun en condiciones de vuelo VFR, con visibilidad aceptable, puedo estar expuesto a estas trampas perceptivas. No hace falta estar volando IFR ni en condiciones extremas para que me suceda. Este fenómeno no se limita a simples trucos visuales como las ilusiones ópticas que circulan por internet. Afecta decisiones críticas en campos donde la percepción precisa es clave, como la aviación. Las ilusiones visuales constituyen un factor crítico en la seguridad operacional, especialmente durante las fases de aproximación y aterrizaje. Se trata de errores de percepción que afectan la interpretación visual del piloto, generando desviaciones involuntarias en la trayectoria de vuelo o en el procedimiento de aterrizaje, aun bajo condiciones meteorológicas VMC. En el entorno aeronáutico, por ejemplo, son bien conocidas las ilusiones visuales que pueden ocurrir durante aproximaciones nocturnas o en condiciones de visibilidad reducida. Efectos como la ilusión de pendiente falsa o la ilusión de referencia visual inclinada son ejemplos concretos de cómo el cerebro interpreta erróneamente la información disponible, generando una percepción distorsionada de la altitud, la actitud o la trayectoria de vuelo. El cerebro llena los vacíos Los estudios citados por el artículo del NYT detallan experimentos donde los participantes percibieron formas, colores o movimientos que en realidad no existían, simplemente porque el cerebro esperaba verlos. Este mecanismo de predicción es tan eficiente que rara vez notamos sus errores. Sin embargo, en entornos críticos como la aviación, estos desajustes perceptivos pueden tener consecuencias graves. En este contexto, resulta inevitable recordar aquella línea de la canción “Canción para mi muerte” de Sui Generis: “La realidad es una foto en blanco y negro…”. La frase refleja de manera poética una verdad que hoy confirma la neurociencia: nuestra percepción del mundo rara vez contiene todos los matices y detalles que realmente existen. El cerebro, al igual que una imagen de baja resolución, completa lo que falta y rellena los vacíos según sus propios esquemas internos. Este fenómeno es especialmente crítico en la aviación, donde una interpretación incompleta o distorsionada del entorno puede derivar en decisiones peligrosas. Principales Tipos de Ilusiones Visuales Ilusión de Pendiente Falsa (False Horizon o Upslope/Downslope Illusion) Se produce cuando la pendiente de la pista o del terreno circundante genera una referencia visual engañosa respecto al horizonte natural. El piloto tiende a corregir erróneamente la actitud de vuelo, generando aproximaciones con ángulos no estabilizados. Ilusión de Superficie Blanca o de Bajo Contraste Ocurre cuando la pista está cubierta de nieve, agua o presenta un entorno de bajo contraste visual. La ausencia de referencias definidas deteriora la percepción de altura y distancia, aumentando el riesgo de aterrizajes fuera de la pista o con excesiva velocidad de descenso. Ilusión de «Black Hole» Se presenta durante aproximaciones nocturnas sobre áreas sin iluminación o terreno desprovisto de referencias visuales (agua, campo, desierto). El piloto tiende a percibir erróneamente que se encuentra a mayor altitud de la real, provocando aproximaciones por debajo de la senda óptima de planeo. Ilusión por Tamaño o Ancho de Pista Atípico Una pista más angosta que lo habitual puede inducir la sensación de estar alto en la aproximación, llevando a descender prematuramente. A la inversa, una pista más ancha puede generar la percepción de estar bajo, provocando una senda de aproximación innecesariamente elevada. La importancia de la verificación objetiva Una de las principales lecciones que surgen de este conocimiento neurocientífico es la necesidad de incorporar mecanismos que compensen las limitaciones de la percepción humana. En la aviación, esto se traduce en el uso riguroso de la instrumentación, la adherencia estricta a procedimientos operativos estandarizados (SOPs) y el entrenamiento recurrente en escenarios de baja visibilidad o pérdida de referencias visuales. El reconocimiento de estas ilusiones no debe generar desconfianza total en los sentidos, pero sí una actitud crítica y consciente de sus limitaciones. La mejora de la seguridad operacional dependen, en gran medida, de entender cómo y por qué el cerebro puede construir una versión distorsionada de la realidad. Frente a esta evidencia, la neurociencia ofrece una herramienta poderosa: comprender el funcionamiento del propio cerebro como paso clave para mitigar riesgos y mejorar la toma de decisiones en entornos complejos y de alta exigencia. La prevención y gestión efectiva de este tipo de ilusiones requieren una combinación de conciencia situacional, planificación previa y uso de procedimientos normalizados.  ¿Cómo mitigo este tipo de riesgos?

La memoria no es un archivo de hechos: neurociencia, memoria y pilotaje.

Como Borges escribe sobre Ireneo Funes (Borges, 2016), citando del latín ut nihil non iisdem verbis redderetur audítum, es decir, “para que nada se repitiera sin ser devuelto con las mismas palabras oídas”, mostrando que una memoria perfecta es más una prisión que un recurso útil. La memoria humana no es un simple archivo de hechos, sino una interpretación activa y maleable de experiencias. Recordar no es reproducir, sino reconstruir. Cada vez que evocamos una experiencia, la reinterpretamos, actualizamos y, a veces, distorsionamos. Esto es fundamental para la actividad del piloto, donde los recuerdos no son solo anécdotas del pasado, sino herramientas vivas que guían la toma de decisiones en tiempo real. Lejos de ser un mero depósito de informaciones, la memoria cumple una función prospectiva: no recordamos todo, sino aquello que nos permite anticipar y adaptarnos al futuro. El cerebro selecciona lo relevante, descarta lo trivial y moldea los recuerdos según su valor para la supervivencia. Olvidar, entonces, no es un defecto, sino una característica esencial que permite concentrarse en lo verdaderamente importante, dejando atrás detalles irrelevantes que saturarían la capacidad de nuestro cerebro. En este contexto resulta inevitable mencionar a Ireneo Funes, el memorioso, el célebre personaje creado por Jorge Luis Borges. Funes es capaz de recordar absolutamente todo, cada detalle, cada hoja, cada instante vivido, sin olvido alguno. Pero, lejos de ser una bendición, esta memoria total lo condena a la parálisis: es incapaz de generalizar, de pensar conceptualmente o de actuar con eficacia. Esta figura literaria ilustra magistralmente lo que la neurociencia ha confirmado: la memoria humana necesita seleccionar, olvidar y reconstruir para ser funcional. En la cabina de vuelo, al igual que en la vida, no necesitamos recordarlo todo, sino recordar lo relevante, adaptando lo pasado para anticipar el futuro. “Dos o tres veces había reconstruido un día entero; no había dudado nunca, pero cada reconstrucción había requerido un día entero.” “Había aprendido sin esfuerzo el inglés, el francés, el portugués, el latín. Sospecho, sin embargo, que no era muy capaz de pensar. Pensar es olvidar diferencias, es generalizar, abstraer. En el abarrotado mundo de Funes no había sino detalles, casi inmediatos.” Borges, J. L. (2016). Ficciones. Editorial Sudamericana Las habilidades del piloto se construyen sobre distintas capas de memoria. La memoria episódica le permite viajar mentalmente al pasado, reviviendo situaciones concretas como un aterrizaje complicado o una falla inesperada. La memoria semántica, por otro lado, almacena conocimientos generales, como las reglas o procedimientos estándar. Y la memoria procedimental es la que automatiza hábitos y habilidades, permitiendo que muchas acciones se realicen sin esfuerzo consciente, liberando recursos atencionales para lo inesperado.La relación entre cuerpo y mente es esencial: no recordamos solo con el cerebro, sino con todo el organismo. Las sensaciones corporales, los marcadores somáticos que se activan ante ciertas situaciones, nos alertan de peligros, incluso antes de que tengamos tiempo de analizarlos racionalmente. Así, cuando un piloto siente en su interior que algo “no está bien”, está poniendo en juego no solo conocimientos conscientes, sino también recuerdos corporales que emergen de su experiencia acumulada. “Esos recuerdos no eran simples; cada imagen visual estaba ligada a sensaciones musculares, térmicas, etcétera. Podía reconstruir todos los sueños, todos los entre sueños” Borges, J. L. (2016). Ficciones. Editorial Sudamericana Cuando un piloto sufre un accidente o atraviesa una situación de estrés extremo en vuelo, los recuerdos que conserva de ese episodio están inevitablemente afectados por los mecanismos neurobiológicos que regulan la memoria traumática. Sabemos que los eventos cargados de alta intensidad emocional activan estructuras como la amígdala, que modula la codificación y consolidación de la memoria. Esto puede reforzar ciertos aspectos del recuerdo (como sensaciones físicas o emociones intensas) mientras deja borrosos otros (como secuencias precisas de acciones o detalles objetivos). Además, revivir mentalmente el evento durante entrevistas o investigaciones puede reactivar y modificar los recuerdos, incrementando el riesgo de distorsión. Esta plasticidad tiene implicaciones directas en la investigación de accidentes aéreos, ya que el testimonio del sobreviviente puede estar teñido tanto por lagunas, como por reconstrucciones involuntarias que no reflejan exactamente lo sucedido.Un aspecto clave en este proceso es el papel de las emociones y el llamado “marcador somático”, concepto desarrollado por Antonio Damasio. Las emociones no son simples acompañantes de los recuerdos, sino moduladores esenciales que influyen en qué retenemos, cómo lo recuperamos y cómo tomamos decisiones. Un marcador somático es una señal corporal (como una sensación de incomodidad, tensión, o bienestar) asociada a experiencias pasadas, que el cerebro utiliza como guía rápida para anticipar las consecuencias de una acción antes de tomar una decisión. Este marcador somático actúa como una especie de atajo emocional: integra las señales corporales asociadas a experiencias pasadas, orientando rápidamente nuestras elecciones sin necesidad de un análisis racional exhaustivo. Esto significa que muchas veces las sensaciones internas, una tensión en el cuerpo, un presentimiento, reflejan aprendizajes acumulados, ayudándoles a reaccionar con eficacia en situaciones críticas. Ignorar este componente emocional sería desconocer una de las herramientas más poderosas de adaptación que posee el ser humano en contextos de alta demanda cognitiva como la aviación. Por eso es importante que los procesos de investigación contemplen no solo los hechos técnicos, sino también la comprensión de los límites humanos en la reconstrucción de eventos. La interacción entre memoria traumática, sugestión y contexto emocional puede influir en menor o mayor medida la precisión de los relatos, y entender estos mecanismos es esencial para construir una narrativa precisa y justa de lo ocurrido. Es clave comprender, como explica Rodrigo Quian Quiroga en “Borges y la memoria: Un viaje por el cerebro humano. De “Funes el memorioso” a la neurona de Jennifer Aniston”, (Me parece que mis referencias tienen un sesgo marcadamente borgeano en esta oportunidad), que el cerebro no almacena recuerdos como si fueran fotografías completas. Cada imagen, cada escena que creemos recordar, es en realidad el resultado de una reconstrucción hecha a partir de la activación de redes neuronales específicas. Cada neurona no guarda una imagen entera, sino que responde a un fragmento, a

¿Quién tiene el mando? Inteligencia artificial y conciencia humana en la aviación.

Entre algoritmos y automatización, el piloto enfrenta un nuevo desafío: no perder el control, ni el criterio. No es magia. Tampoco es pensamiento. Mucho menos, conciencia. La inteligencia artificial (IA) es un conjunto de tecnologías desarrolladas para cumplir objetivos humanos definidos de antemano, procesando volúmenes masivos de datos para generar resultados específicos: contenido, predicciones, recomendaciones o decisiones. (OECD, 2019; UNESCO, 2021) La IA no piensa. No decide por sí sola. No interpreta valores éticos, al menos hasta ahora, aunque sus respuestas parezcan autónomas. Todo lo que hace está condicionado por lo que nosotros, los humanos, definimos, programamos o dejamos abierto. Por eso, en aviación, donde cada decisión tiene peso operacional, no alcanza con entender cómo se usa un sistema. Hay que saber por qué existe, qué problema busca resolver y qué nuevos riesgos introduce. Esa es la base para discutir su uso responsable, especialmente cuando toca la seguridad operacional. Hace unos días, La Nación publicó una nota titulada: “Por favor y gracias: tratar con cortesía a ChatGPT cuesta millones de dólares, pero vale la pena”. Sam Altman, CEO de OpenAI, reveló que una parte significativa de los costos operativos de su empresa se debe a algo tan humano como inesperado: las miles de personas que le escriben “gracias” y “por favor” a ChatGPT. No cambia nada en el modelo. No mejora las respuestas. Pero igual se procesa. Ese gesto mínimo, casi automático, tiene un costo de “decenas de millones de dólares”. Lo importante no es el gasto, sino lo que revela: seguimos proyectando humanidad sobre sistemas técnicos. Le agradecemos a la IA porque, en el fondo, necesitamos creer que hay alguien del otro lado. Una reacción casi antropológica, que muestra cómo, incluso en entornos hipertecnológicos, la comunicación sigue teniendo una carga emocional inevitable. La razón humana Como bien explicó Antonio Damasio, la razón humana no opera separada de la emoción. Decidimos con el cuerpo, con la memoria emocional, con estructuras afectivas profundas. El cerebro, diría él, no es una máquina lógica. Es un sistema biológico que siente, interpreta y reacciona en función de lo vivido. Por eso, cuando hablamos con una IA, nuestro sistema nervioso responde como si estuviéramos frente a otro ser consciente… aunque sepamos que no lo está. No es ingenuidad: es biología.   “No somos máquinas pensantes que sienten. Somos máquinas sentimentales que piensan.” Antonio Damasio, El error de Descartes (1994)   Somos seres sociales y simbólicos; construimos vínculos, incluso cuando no hay nadie allí. Y esa necesidad de vínculo puede volverse un riesgo si, en cabina o en sistemas críticos, confundimos reacción algorítmica con comprensión real. Recomiendo especialmente la lectura de El error de Descartes (Crítica, 1996). Este libro fundamental de Damasio introduce la idea revolucionaria de que la razón no está separada de la emoción, como sostenía el pensamiento cartesiano. Con evidencia neurocientífica, demuestra que sentir es esencial para decidir. También podes hacer el curso sobre seguridad operacional y neurociencia.Ideal para sustentar la tesis de que, aunque interactuemos con sistemas de IA, seguimos operando desde una base emocional ineludible. “El sentimiento no es un lujo. Es una pieza fundamental de la maquinaria de la razón.” Antonio Damasio, El error de Descartes (1994)   Señala Antonio Damasio, “el sentimiento no es un lujo; es una pieza fundamental de la maquinaria de la razón”. Incluso cuando operamos sistemas tecnológicos avanzados o nos relacionamos con una IA en cabina o en tierra, no dejamos de ser seres emocionales que interpretan el mundo con base en experiencias vividas. Decidir no es solo calcular: es sentir. Y por eso, cuando le decimos “gracias” a un sistema, no estamos actuando irracionalmente: estamos manifestando algo profundamente humano. Tecnología Siempre me intrigaron las promesas de la tecnología. Durante años, fuimos testigos de una transformación digital que al principio parecía imparable y repleta de oportunidades. Pero cuanto más avanzamos, más evidente se vuelve que la digitalización y la inteligencia artificial nos enfrentan a un dilema crítico: ¿Nos están ayudando a mejorar… o nos están quitando el control? Históricamente, el progreso tecnológico ha sido un acto de liberación. Desde la invención del fuego hasta el primer vuelo propulsado, buscamos superar nuestras limitaciones físicas. Lo hicimos con herramientas que extendieron nuestra fuerza, nuestro alcance, nuestra visión: la rueda, la palanca, el motor. Más tarde, intentamos hacer lo mismo con nuestras funciones cognitivas: el ábaco, la escritura, el cálculo, los primeros computadores, hasta llegar a la inteligencia artificial. Pero aquí aparece una paradoja: cuanto más intentamos replicar o sustituir nuestras capacidades cognitivas, más riesgo corremos de perder el control sobre aquello que creamos. La historia de la automatización en aviación está llena de buenas intenciones. “Dejemos que la máquina haga lo rutinario, así el piloto puede enfocarse en lo importante.” Claro, suena bien en el PowerPoint. Pero en la práctica, no siempre termina bien. Como advirtió Norbert Wiener, pionero de la cibernética: “Hemos modificado nuestro entorno de tal forma que ahora debemos modificarnos a nosotros mismos para sobrevivir en él.” La aviación es un caso testigo: la cabina moderna está diseñada con tal nivel de automatización que muchas veces el piloto queda relegado a supervisar procesos que no siempre comprende a fondo. ¿Dónde queda entonces la conciencia situacional? ¿Qué significa “estar al mando” si el mando se diluye entre líneas de código? Vivimos en la era de una fe desmesurada en que todo problema tiene una solución técnica, pulcra, libre de ambigüedades. Pero volar, como vivir, nunca fue una operación libre de ambigüedades. En cabina, los dilemas no siempre se resuelven con fórmulas. Se resuelven con juicio. Con intuición. Con experiencia. Es decir, con humanidad. Como escribió el filósofo Martin Heidegger, el mayor peligro de la técnica no es la máquina, sino que el ser humano se convierta en un simple medio dentro de un sistema que ya no comprende. (Heidegger advertía sobre la tendencia a transformar al ser humano en “recurso disponible” en contextos tecnificados, perdiendo su capacidad de decisión libre.) Las “Leyes” de Wiener Hace más de cuatro décadas, Earl L. Wiener, resumió en

Un Desafío Silencioso para el Liderazgo

En el ecosistema de la aviación, se ha puesto un fuerte énfasis en la prevención del error humano, la cultura justa, la fatiga y el estrés operativo. Sin embargo, existe un estado emocional menos visible, pero cada vez más frecuente: el languishing.Este término, definido por el sociólogo Corey Keyes (2002), describe una condición de bajo bienestar caracterizada por apatía, falta de motivación y desconexión emocional, que puede influir negativamente en la seguridad operacional, la toma de decisiones y el liderazgo.   “Comunicación sin emoción. Una voz en off con expresión deforme. Busco algo que me saque este mareo, buscando en esas caras algo de piedad.” Soda Stereo – Nada Personal (1985)   La interacción diaria puede volverse mecánica, desconectada de toda expresión emocional genuina. Esta desconexión —como describe el tema de Soda Stereo— no solo refleja el vacío interno del languishing, sino que también puede debilitar la capacidad de respuesta ante situaciones críticas, erosionando la cultura organizacional y afectando la seguridad operacional. ¿Qué es el languishing? El languishing representa un punto intermedio entre la salud mental plena (flourishing) y el trastorno psicológico. Es un estado emocional en el que las personas no experimentan síntomas clínicos como la depresión, pero tampoco experimentan satisfacción, energía o propósito. Según Keyes (2002), estas personas “funcionan”, pero sin compromiso ni disfrute. Durante la pandemia, el psicólogo organizacional Adam Grant (2021) lo identificó como «la emoción dominante de 2021», visibilizando su impacto en el ámbito laboral. El languidecer es el hijo medio descuidado de la salud mental. Es el vacío entre la depresión y el florecimiento: la ausencia de bienestar. No presenta síntomas de enfermedad mental, pero tampoco es la imagen misma de la salud mental. Estoy sin ganas, sin energía.No estás funcionando a plena capacidad. El languidecer debilita tu motivación, altera tu capacidad de concentración y triplica las probabilidades de reducir tus horas de trabajo. Parece ser más común que la depresión mayor y, en cierto modo, puede ser un factor de riesgo mayor para las enfermedades mentales.No es depresión; no hay sentimientos desesperanzados. Simplemente, el sentimiento es un poco desanimado y sin rumbo. Resulta que eso tiene un nombre: languidecer (Languishing).Languidecer es una sensación de estancamiento y vacío. Se siente como si estuvieras pasando el día a duras penas, mirando tu vida a través de un parabrisas empañado. «No me siento motivado, tengo una sensación de vacío y estancamiento, todo es plano.» «Estoy apático, hago las cosas diarias sin compromiso personal y disfrute» «Pierdo la vitalidad», «Desde lo objetivo está todo bien, pero me siento así.»   En psicología, se considera la salud mental en un espectro que va desde la depresión hasta el florecimiento (flourishing). El florecimiento es la cima del bienestar: sentís un fuerte sentido de significado, dominio y relevancia para los demás. La depresión es el valle del malestar: te sientes desanimado, agotado e inútil. El languishing en contextos aeronáuticos Altos niveles de rutina y baja variabilidad emocionalEn sectores como el mantenimiento aeronáutico, la planificación de vuelos, la rutina puede generar un estado de automatismo que, si no está acompañado de engagement o desafíos significativos, propicia el estancamiento emocional. Carga cognitiva sostenidaAunque no exista estrés agudo, la exigencia constante de precisión, cumplimiento normativo y vigilancia puede derivar en fatiga mental crónica y disminución del bienestar subjetivo. Impacto de la cultura organizacionalCulturas aeronáuticas fuertemente jerárquicas o excesivamente formales pueden desalentar la expresión emocional o el reconocimiento de estados como el languishing, invisibilizándolo como un problema real.   Implicancias del languishing para el liderazgo Un líder —ya sea jefe de base, instructor, gerente o comandante— tiene una doble responsabilidad: mantener la seguridad operacional y gestionar el clima organizacional. Ignorar los estados emocionales latentes en su equipo puede derivar en: Desmotivación generalizada Pérdida de iniciativa ante situaciones anómalas Fuga de talento Incremento de condiciones latentes por desatención o apatía   La investigación en psicología organizacional muestra que el languishing está asociado a menor productividad, aumento del ausentismo, y menor creatividad en la resolución de problemas (Keyes, 2002; Grant, 2021). Estrategias de mitigación desde el liderazgo Detección temprana: Conversaciones informales sobre motivación y sentido del trabajo. Observación de cambios de comportamiento (aislamiento, menor participación, apatía). Establecer espacios de autonomía y propósito: Delegar tareas con significado. Fomentar que el personal se vincule con el “por qué” de su trabajo, no solo con el “cómo”. Promover el “flow”: Proporcionar desafíos adecuados al nivel de competencia. Evitar la sobrecarga de tareas mecánicas sin variación. Favorecer la expresión emocional segura: Crear climas de confianza psicológica donde se pueda hablar del malestar sin estigma. Humanizar las reuniones operativas, incluyendo aspectos del bienestar personal. Capacitación en salud mental operacional: Incorporar nociones de bienestar, neurociencia del estrés y gestión emocional en los cursos CRM y talleres de liderazgo.   Neurociencia del languishing: ¿qué ocurre en el cerebro? Estudios recientes muestran que el languishing está asociado a una reducción de la actividad en la red de recompensa dopaminérgica y la red por defecto, implicada en la reflexión personal y el sentido de vida (Vatansever et al., 2020). También se vincula a una activación disminuida del sistema de saliencia, lo que limita la capacidad de responder a estímulos novedosos o emocionalmente relevantes (Menon, 2015). En otras palabras, no es solo una cuestión “anímica”: hay cambios medibles en la dinámica cerebral que justifican su atención. El languishing no es solo una experiencia individual, sino un fenómeno sistémico que puede afectar la cultura organizacional y el rendimiento en la aviación. Los líderes aeronáuticos tienen la oportunidad —y la responsabilidad— de abordarlo con herramientas reales, integrando el bienestar como parte central de la gestión del riesgo humano. «Hablar de languishing no es debilidad: es prevención proactiva y liderazgo consciente».   El languidecer no solo está en nuestras cabezas, sino en nuestras circunstancias. No se puede curar una cultura enferma con parches personales. Seguimos viviendo en un mundo que normaliza los problemas de salud física, pero estigmatiza los problemas de salud mental. No estar deprimido no significa que no haya dificultades. No estar agotado no significa que

James Reason (1938-2025)

El 5 de febrero de 2025 falleció James Reason, el psicólogo británico que revolucionó la comprensión del error humano y la seguridad en sistemas complejos. A los 86 años, con una trayectoria que influyó en múltiples industrias, Reason llegó a la meta final a la que todo ser humano está indefectiblemente destinado, y mientras transitaba el camino, dejó un legado que trasciende generaciones. Su trabajo sigue siendo un pilar fundamental en la aviación, la atención médica, la energía nuclear y muchas otras áreas donde el factor humano es crítico.Le sobreviven su esposa, Rea, y sus hijas, Paula y Helen. Fue catedrático emérito de Psicología en la Universidad de Manchester y en la Universidad de Leicester. Sus principales líneas de investigación se centraron en el comportamiento humano en sistemas de alto riesgo, especializándose en error médico, análisis de riesgos, organización de la seguridad, mecanismos de distracción y factores humanos en el transporte.Trabajó para el Royal Air Force Institute of Aviation Medicine y fue Fellow de la Royal Aeronautical Society y de la British Academy. El arquitecto de la teoría del queso suizo James Reason es más conocido por su modelo del queso suizo, una representación visual de cómo los accidentes ocurren cuando múltiples fallas en los sistemas de seguridad se alinean. Su teoría, desarrollada en los años 90, cambió el paradigma de la investigación de accidentes: en lugar de enfocarse exclusivamente en los errores individuales, propuso que los problemas estructurales y organizacionales juegan un papel central en la ocurrencia de incidentes. En su libro La contribución Humana (actos peligrosos y acciones ejemplares) presenta su modelo como uno de los tantos modelos sistémicos de accidentes que existen, agregando “pero es el modelo cuyo desarrollo estoy más cualificado para exponer” Modelo que ha sido y es utilizado en sectores que desarrollan actividades de alta peligrosidad y son susceptibles de sufrir accidentes organizativos: aviación, vuelos espaciales tripulados, transporte ferroviario, industria de proceso químico, exploración y producción de petróleo y gas, centrales nucleares, transporte marítimo; la Marina de los Estados Unidos y por último la atención sanitaria.El modelo asumió diversas formas con el paso del tiempo, bastante diferentes entre sí. La versión de mediados-finales de la década de 1980: El punto de partida del “modelo” eran los componentes esenciales y benignos de todo sistema productivo: la alta dirección que toma las decisiones fundamentales (la administración de la compañía y de la unidad de producción), las líneas de producción (operaciones, mantenimiento, formación y similares), los componentes (equipo material fiable y una fuerza de trabajo competente y motivada), las actividades productivas (la integración efectiva de los recursos humanos y mecánicos) y las defensas (salvaguardias contra amenazas previsibles). Estos “planos” productivos se transformaron más tarde en el tiempo en lonchas de queso —si bien en esa época no tenía aún el queso suizo. La premisa básica del modelo era que el origen remoto de los accidentes organizativos se hallaba en las falibles decisiones de los diseñadores, los constructores y la alta dirección. Estas se transmitían luego a los elementos productivos que intervenían —las deficiencias latentes en los procesos de producción, los precursores psicológicos de los actos peligrosos, los actos peligrosos mismos— hasta el punto donde las condiciones de “corriente arriba” se combinaban con debilidades “corriente abajo” y con las debilidades de las defensas para romper las defensas y las salvaguardias.Escribe: Aunque, al parecer, algunas personas siguen prefiriendo esta versión, yo creo que adolece de dos serias limitaciones. A despecho de mis seguidores de entonces de que no intentaba transferir las culpas de la “línea de fuego” a la sala de juntas, sin duda lo parecía mucho. Las decisiones estratégicas son falibles, pero no necesariamente han de resultar fallidas. El segundo problema es su simple linealidad causa-efecto que, como lo ha señalado Hollnagel, conduce inevitablemente a buscar “causas últimas” (Reason, J. (2008). El error humano. Madrid: Modus Laborandi.)Agrega: «La década de 1980 añadió una nueva imagen que desarrollaba la versión anterior y de la que emanaba un nítido aroma “a queso”, aunque en aquel momento no fuera esa mi intención Me sonroja confesar que hace poco que he caído en la cuenta de dónde pudo haber brotado la etiqueta “queso suizo”. Aunque sólo afectaba a las últimas láminas. Fue aquí donde adopté la convención iconográfica de representar los actos peligrosos y sus precursores como agujeros a través de los cuales podía pasar una trayectoria de accidente». Lo que Reason plantea la versión de comienzos de los ’90 me parece clave para entender cómo los factores organizativos pueden sembrar la semilla de futuros accidentes sin que nadie lo note en el momento. La idea de que las decisiones de la dirección, el diseño, el mantenimiento o incluso la cultura de seguridad pueden actuar como “patógenos latentes” dentro del sistema. No se trata solo de fallos técnicos o errores humanos en la cabina; muchas veces, la raíz del problema está mucho más atrás, en decisiones estratégicas tomadas tiempo antes. El concepto de “corriente arriba” y “corriente abajo” en la organización es fundamental. Si los problemas comienzan en la parte más alta del sistema—ya sea por decisiones apresuradas, recortes presupuestarios o fallas en la formación—, esos errores tarde o temprano se filtrarán hasta la línea operativa. Y ahí es donde entran en juego los fallos activos: situaciones en las que las condiciones del entorno de trabajo favorecen la comisión de errores o infracciones. Resulta interesante cómo Reason señala que la mayoría de los actos peligrosos no llevan a un accidente. Es cierto: en el día a día de la aviación, se comenten muchos errores que no terminan en consecuencias graves. Sin embargo, lo preocupante es que algunos pocos, por cuestiones de azar o por una acumulación de vulnerabilidades en el sistema, logran atravesar todas las defensas y generar un evento catastrófico. Ahí es donde el modelo del queso suizo cobra todo su sentido: cada capa de defensa tiene agujeros, pero cuando esos agujeros se alinean, el accidente se vuelve inevitable. Este análisis refuerza algo que en seguridad operacional repetimos siempre: la