James Reason (1938-2025)

El 5 de febrero de 2025 falleció James Reason, el psicólogo británico que revolucionó la comprensión del error humano y la seguridad en sistemas complejos. A los 86 años, con una trayectoria que influyó en múltiples industrias, Reason llegó a la meta final a la que todo ser humano está indefectiblemente destinado, y mientras transitaba el camino, dejó un legado que trasciende generaciones. Su trabajo sigue siendo un pilar fundamental en la aviación, la atención médica, la energía nuclear y muchas otras áreas donde el factor humano es crítico.Le sobreviven su esposa, Rea, y sus hijas, Paula y Helen. Fue catedrático emérito de Psicología en la Universidad de Manchester y en la Universidad de Leicester. Sus principales líneas de investigación se centraron en el comportamiento humano en sistemas de alto riesgo, especializándose en error médico, análisis de riesgos, organización de la seguridad, mecanismos de distracción y factores humanos en el transporte.Trabajó para el Royal Air Force Institute of Aviation Medicine y fue Fellow de la Royal Aeronautical Society y de la British Academy. El arquitecto de la teoría del queso suizo James Reason es más conocido por su modelo del queso suizo, una representación visual de cómo los accidentes ocurren cuando múltiples fallas en los sistemas de seguridad se alinean. Su teoría, desarrollada en los años 90, cambió el paradigma de la investigación de accidentes: en lugar de enfocarse exclusivamente en los errores individuales, propuso que los problemas estructurales y organizacionales juegan un papel central en la ocurrencia de incidentes. En su libro La contribución Humana (actos peligrosos y acciones ejemplares) presenta su modelo como uno de los tantos modelos sistémicos de accidentes que existen, agregando “pero es el modelo cuyo desarrollo estoy más cualificado para exponer” Modelo que ha sido y es utilizado en sectores que desarrollan actividades de alta peligrosidad y son susceptibles de sufrir accidentes organizativos: aviación, vuelos espaciales tripulados, transporte ferroviario, industria de proceso químico, exploración y producción de petróleo y gas, centrales nucleares, transporte marítimo; la Marina de los Estados Unidos y por último la atención sanitaria.El modelo asumió diversas formas con el paso del tiempo, bastante diferentes entre sí. La versión de mediados-finales de la década de 1980: El punto de partida del “modelo” eran los componentes esenciales y benignos de todo sistema productivo: la alta dirección que toma las decisiones fundamentales (la administración de la compañía y de la unidad de producción), las líneas de producción (operaciones, mantenimiento, formación y similares), los componentes (equipo material fiable y una fuerza de trabajo competente y motivada), las actividades productivas (la integración efectiva de los recursos humanos y mecánicos) y las defensas (salvaguardias contra amenazas previsibles). Estos “planos” productivos se transformaron más tarde en el tiempo en lonchas de queso —si bien en esa época no tenía aún el queso suizo. La premisa básica del modelo era que el origen remoto de los accidentes organizativos se hallaba en las falibles decisiones de los diseñadores, los constructores y la alta dirección. Estas se transmitían luego a los elementos productivos que intervenían —las deficiencias latentes en los procesos de producción, los precursores psicológicos de los actos peligrosos, los actos peligrosos mismos— hasta el punto donde las condiciones de “corriente arriba” se combinaban con debilidades “corriente abajo” y con las debilidades de las defensas para romper las defensas y las salvaguardias.Escribe: Aunque, al parecer, algunas personas siguen prefiriendo esta versión, yo creo que adolece de dos serias limitaciones. A despecho de mis seguidores de entonces de que no intentaba transferir las culpas de la “línea de fuego” a la sala de juntas, sin duda lo parecía mucho. Las decisiones estratégicas son falibles, pero no necesariamente han de resultar fallidas. El segundo problema es su simple linealidad causa-efecto que, como lo ha señalado Hollnagel, conduce inevitablemente a buscar “causas últimas” (Reason, J. (2008). El error humano. Madrid: Modus Laborandi.)Agrega: «La década de 1980 añadió una nueva imagen que desarrollaba la versión anterior y de la que emanaba un nítido aroma “a queso”, aunque en aquel momento no fuera esa mi intención Me sonroja confesar que hace poco que he caído en la cuenta de dónde pudo haber brotado la etiqueta “queso suizo”. Aunque sólo afectaba a las últimas láminas. Fue aquí donde adopté la convención iconográfica de representar los actos peligrosos y sus precursores como agujeros a través de los cuales podía pasar una trayectoria de accidente». Lo que Reason plantea la versión de comienzos de los ’90 me parece clave para entender cómo los factores organizativos pueden sembrar la semilla de futuros accidentes sin que nadie lo note en el momento. La idea de que las decisiones de la dirección, el diseño, el mantenimiento o incluso la cultura de seguridad pueden actuar como “patógenos latentes” dentro del sistema. No se trata solo de fallos técnicos o errores humanos en la cabina; muchas veces, la raíz del problema está mucho más atrás, en decisiones estratégicas tomadas tiempo antes. El concepto de “corriente arriba” y “corriente abajo” en la organización es fundamental. Si los problemas comienzan en la parte más alta del sistema—ya sea por decisiones apresuradas, recortes presupuestarios o fallas en la formación—, esos errores tarde o temprano se filtrarán hasta la línea operativa. Y ahí es donde entran en juego los fallos activos: situaciones en las que las condiciones del entorno de trabajo favorecen la comisión de errores o infracciones. Resulta interesante cómo Reason señala que la mayoría de los actos peligrosos no llevan a un accidente. Es cierto: en el día a día de la aviación, se comenten muchos errores que no terminan en consecuencias graves. Sin embargo, lo preocupante es que algunos pocos, por cuestiones de azar o por una acumulación de vulnerabilidades en el sistema, logran atravesar todas las defensas y generar un evento catastrófico. Ahí es donde el modelo del queso suizo cobra todo su sentido: cada capa de defensa tiene agujeros, pero cuando esos agujeros se alinean, el accidente se vuelve inevitable. Este análisis refuerza algo que en seguridad operacional repetimos siempre: la
El taburete de una sola pata como Metáfora de la Vigilancia Operacional.

La nitroglicerina fue descubierta en 1847 por el químico italiano Ascanio Sobrero mientras trabajaba en el laboratorio del profesor Théophile-Jules Pelouze en París. Sobrero logró sintetizarla al hacer reaccionar glicerina con una mezcla de ácido nítrico y ácido sulfúrico (una mezcla conocida como “ácidos nitrantes”). Es un líquido traicionero con un temperamento explosivo, representaba un desafío monumental en los albores de la industria química. Sin embargo, aunque el producto final era más seguro de manipular, el proceso de fabricación seguía siendo un campo minado de peligros. Fue Alfred Nobel quien logró domesticar este peligroso compuesto; al mezclarlo con diatomita, creó la dinamita. Para producir explosivos a escala, Nobel eligió Ardeer, en Ayreshire, en el suroeste de Escocia, Reino Unido. Esta fábrica, conocida como Ardeer Factory, fue establecida en 1873 por la Nobel’s Explosives Company. El sitio fue elegido por estar relativamente aislado, ya que estaba rodeado por agua y tenía un acceso limitado, lo que reducía los riesgos en caso de explosiones accidentales. Manipular la nitroglicerina seguía siendo peligroso: un fallo mínimo y todo volaría por los aires. En la fábrica de Alfred Nobel, donde la nitroglicerina era la sustancia peligrosa de la producción, los trabajadores vivían en un equilibrio constante entre la precisión y el riesgo. Uno de sus mayores desafíos era vigilar la temperatura de los tanques donde se manipulaba el compuesto explosivo. Si el termómetro marcaba más de 22 °C, el operador debía actuar con rapidez: abrir las compuertas para dejar entrar más aire fresco y cerrar la entrada de nitroglicerina. Pero si la temperatura seguía subiendo, llegaba el momento crítico de abrir la válvula de emergencia, una última línea de defensa contra la catástrofe. ¿Y cómo asegurarse de que nadie bajara la guardia? Aquí entra en juego uno de los detalles más curiosos de la fábrica: los trabajadores se sentaban en taburetes de una sola pata. Sí, una sola pata. Si querían mantenerse erguidos y no terminar de cara al suelo, necesitaban estar en constante equilibrio, alerta, atentos a cada detalle de su entorno. Este simple, pero ingenioso, truco garantizaba que los operarios no se relajaran más de la cuenta, convirtiéndose en una peculiar barrera de defensa dentro de la gestión de riesgos de la época. Quizá no había simulacros ni manuales extensos como hoy, pero el ingenio y las medidas prácticas como este “taburete de equilibrio” demostraban que, en el mundo de Nobel, la seguridad era cuestión de mantener tanto la concentración como la postura. El taburete de una pata ha evolucionado adquiriendo diferentes nombres y formas como bucle de retroalimentación, revisión por pares, checklist o procedimiento. La idea es tener mecanismos que nos mantenga alerta para evitar el (auto)engaño. «La ciencia es, de hecho, el taburete de una sola pata del pensamiento humano: un sistema incómodo pero esencial, que hace trastabillar al más brillante de los científicos si se deja llevar por la complacencia o la pereza intelectual». En la aviación, el «taburete de una sola pata» encuentra múltiples expresiones que sostienen la seguridad en una industria donde el margen de error es escaso. Desde los procedimientos operativos estándar hasta las inspecciones cruzadas, el principio subyacente es el mismo: mantener a los profesionales en un estado de alerta. El taburete en la cabina Los pilotos dependen de mecanismos que garantizan el cumplimiento de procedimientos críticos. Un claro ejemplo es la lista de verificación pre-vuelo. Antes de cada despegue, los pilotos recorren una checklist que cubre desde sistemas hidráulicos hasta equipos de comunicación, entre otros ítems. Este proceso, aunque repetitivo, es esencial para evitar omisiones que podrían ser catastróficas. La rutina está diseñada con el mismo espíritu del “taburete de una pata”, llevar a los pilotos a estar concentrados, incluso, en operaciones aparentemente simples. Cuando algo sale mal durante el vuelo, el «taburete» aparece en forma de procedimientos de emergencia. Estos están diseñados para guiar a la tripulación de manera estructurada en situaciones de alta presión, asegurando que no se salten pasos críticos. El taburete en el mantenimiento En tierra, los técnicos de mantenimiento trabajan bajo principios similares. Inspeccionar un avión involucra múltiples capas de revisión: desde observaciones visuales hasta pruebas funcionales de sistemas. Además, el uso de sistemas de verificación por pares asegura que cada decisión crítica pase por una segunda opinión. Este enfoque reduce la probabilidad de que un error individual pase desapercibido, intentando mantener la atención necesaria para garantizar que el trabajo se haga con precisión. Los procedimientos de mantenimiento no solo buscan identificar errores visibles, sino también mitigar condiciones latentes, esas “condiciones que se pueden activar con el tiempo”, meses después. De nuevo, el «taburete» se convierte en una metáfora para mantener a los técnicos atentos y conscientes de que un pequeño desliz podría tener consecuencias graves. El taburete en la cultura organizacional Más allá de las operaciones específicas, en la aviación hemos adoptado sistemas como el Safety Management System (SMS), que, en esencia, se asemeja a un taburete estructural que sostiene a toda la organización. Este sistema incorpora elementos fundamentales como la retroalimentación constante, los reportes voluntarios y el análisis de datos, con el propósito de identificar tendencias de riesgo antes de que se traduzcan en accidentes. La filosofía detrás del SMS busca establecer una cultura donde nadie se sienta demasiado cómodo: cada componente del sistema debe ser cuestionado y revisado de manera continua. Voy finalizando. La metáfora del taburete de una sola pata encapsula una verdad esencial en la aviación: la seguridad no surge de la comodidad, sino de la vigilancia constante. Ya sea un piloto frente a sus instrumentos, un técnico revisando un motor o un analista examinando reportes, el objetivo es evitar el autoengaño y la complacencia. ¿Cuál es tu taburete de una sola pata? Si querés podés escribirme y contarme. Hasta la próxima Roberto J. Gómez rjg@falp152.com
Del Big Bang al Error Humano: La necesidad de explicaciones

Sabemos desde los tiempos de Aristóteles, que los humanos están sedientos de conocimiento, con una necesidad de descubrir cosas. Tanto es así que debido a la interminable búsqueda de conocimiento, la eterna curiosidad que nos lleva a preguntar “qué” y descubrir “por qué” la humanidad ha logrado el nivel actual de desarrollo, aunque algunas partes de ese desarrollo no sean motivo de orgullo. Hay una frase de Erich Fromm, psicólogo americano, (Man for Himself: An Inquiry into the Psychology of Ethics (1947), cap.3) que dice así: La búsqueda de la certidumbre bloquea la búsqueda de significado. La incertidumbre es la verdadera condición para impulsar al hombre a desplegar sus poderes. Con este párrafo, Fromm señala que en muchas ocasiones buscamos la seguridad más que el conocimiento. Queremos saber, no quizás por una pura sed de conocimiento, sino para expulsar los demonios de la incertidumbre. Los humanos, en su mayoría, se encuentran incómodos cuando no saben qué esperar, es decir, cuando las cosas suceden de un modo impredecible. Esto crea la sensación de que hay algo fuera de control, algo que nunca es deseable, (queremos tener la ilusión de que todo está bajo control), puesto que desde una perspectiva evolutiva significa que las posibilidades de supervivencia se ven reducidas. El amigo Nietzsche (1844-1900), filósofo, describió muy bien esta situación: Seguir la pista de algo desconocido hasta algo conocido resulta tranquilizador, gratificante y además aporta un sentimiento de poder. El peligro, el desasosiego, la ansiedad acompaña a lo desconocido – el primer instinto es eliminar estos estados dolorosos — . Primer principio: Cualquier explicación es mejor que ninguna… la causa que crea el instinto está, por tanto, condicionada y estimulada por la sensación de miedo (Nietzsche, El ocaso de los ídolos, Götzen-Dämmerung, 1889) Una de las ideas fundamentales de Nietzsche sobre la psicología humana: la necesidad de interpretar y explicar el mundo para reducir el miedo y la incertidumbre. Ante la incertidumbre, las personas prefieren tener una explicación, aunque sea incorrecta, antes que enfrentarse al desconocimiento. El miedo a lo desconocido motiva al ser humano a inventar narrativas que reduzcan la incertidumbre. Así, las explicaciones no solo tranquilizan, sino que también generan un sentimiento de control o poder sobre el entorno. Como especie humana, tendemos a sentirnos inseguros y aprehensivos respecto a aquello, para lo que no podemos encontrar una explicación. En realidad, no importa de qué tipo de explicación se trate, no importa que sea racional y científica, emocional, irracional, supersticiosa (se cayó un avión, se van a caer dos más porque siempre son tres los que se caen). Se necesita una explicación y una explicación es lo que debemos tener. Ante un accidente, lo primordial es: ¿por qué se cayó? Con la aeronave todavía humeando, oímos en los medios, en personas que desconocen la actividad aeronáutica (es razonable) e incluso en aquellas que sí la conocen (no tan razonable), una fuerte necesidad de descubrir inmediatamente por qué se ha producido. Más concretamente, surge una necesidad de encontrar sus causas y, quizás mejor aún, ¡La Causa! (en singular). Este fenómeno puede aplicarse, en diferentes grados, a incidentes y acontecimientos adversos de menor importancia. A primera vista, podría pensarse que se está buscando significado, en el sentido de una explicación que arroje luz sobre el accidente; sin embargo, lo que realmente se busca es la certeza, materializada en una causa identificable y definitiva. Encontrar una causa aceptable parece ser más importante que descubrir por qué ocurrió realmente el accidente. Esta tendencia refleja la forma en que el pensamiento humano se inclina hacia explicaciones rápidas y sencillas, priorizando aquello que aporte tranquilidad emocional y un sentido de control frente a lo incierto. Nos sentimos satisfechos, por lo general, con explicaciones rápidas, frecuentemente influenciadas por la búsqueda de evidencias que confirmen nuestras ideas preconcebidas. Este sesgo de confirmación, ampliamente discutido en la filosofía de la ciencia, pone en evidencia cómo muchas veces el deseo de certeza prevalece sobre la búsqueda rigurosa y crítica de la verdad. Podemos establecer una distinción breve, pero fundamental, entre encontrar la causa de un accidente y explicar un accidente. Si consideramos que los accidentes tienen causas, tiene sentido intentar identificarlas y actuar sobre ellas una vez descubiertas. Por otro lado, si los accidentes tienen explicaciones, el objetivo debe ser ofrecer un análisis detallado de cómo ocurrió el accidente, considerando las circunstancias y los acontecimientos que lo propiciaron. La respuesta no debería limitarse a buscar y eliminar “la causa”, sino a identificar las condiciones y factores que pudieron contribuir a su ocurrencia, con el propósito de encontrar formas efectivas de gestionarlos y prevenir futuros eventos similares. En la mayoría de los accidentes e incidentes, logramos encontrar explicaciones que no solo disipan la temida incertidumbre, sino que también aportan un conocimiento real, al menos sobre un evento en particular. Estas explicaciones son valiosas porque nos permiten tomar medidas para reducir la probabilidad de que ocurra un evento similar en el futuro o, en su defecto, protegernos de las consecuencias en caso de que vuelva a ocurrir. La industria aeronáutica comprende bien esta dinámica, aunque en ocasiones pueda experimentar lapsus de memoria. El propósito principal al analizar los accidentes y otros eventos adversos es traducir ese entendimiento en acciones concretas: estar mejor preparados, responder eficazmente y mantener el control. Una ventaja adicional de este enfoque es que, como señala Fromm, ayuda a mitigar, aunque sea parcialmente, la incertidumbre inherente que acompaña a estos eventos. Big Bang La búsqueda de causas no se limita al ámbito aeronáutico; es un rasgo profundamente arraigado en el pensamiento occidental. Siempre se intenta encontrar el motivo detrás de un crimen; sin un motivo, la acción parece carecer de sentido, y se asume que esta ausencia de explicación es inusual. De hecho, cuando no podemos identificar una razón que explique lo que alguien hace, solemos calificar a esa persona como psicológicamente perturbada o psicótica. Un ejemplo emblemático de la búsqueda de causas, en otro ámbito, es la teoría del Big Bang en cosmología. Este es quizá el
Modelos Mentales: navegando la complejidad.

En el ámbito de la aviación, la seguridad operacional depende en gran medida de la precisión y flexibilidad de los modelos mentales que los profesionales desarrollan y utilizan en su día a día. Todos llevamos en nuestra mente una representación simplificada del mundo, conocida como modelos mentales, que nos ayudan a comprender la complejidad, prever situaciones y tomar decisiones de manera eficiente. ¿Qué son los modelos mentales? Son representaciones internas, cognitivas y dinámicas que construimos para comprender, razonar y predecir el comportamiento de sistemas, situaciones o conceptos en el mundo real. Estas representaciones no son copias exactas de la realidad, sino estructuras simplificadas que se basan en nuestras experiencias, conocimientos previos y creencias. Estas herramientas cognitivas nos permiten interpretar información, anticipar resultados y actuar con mayor eficacia en entornos complejos. Los modelos mentales poseen las siguientes características principales: Constructivos: Se forman a partir de información sensorial y cognitiva. Adaptativos: Evolucionan con nueva información o experiencias. Contextuales: Su forma y uso dependen del entorno y de las metas que persiga la persona. Simplificación: Los modelos mentales reducen la complejidad del mundo a algo manejable para la mente humana. Uso predictivo: Permiten anticipar resultados y guiar acciones futuras. Flexibilidad: Son modificables o incluso reemplazables cuando fallan en explicar o predecir fenómenos. Interactividad: Moldean cómo percibimos y actuamos, generando ciclos de retroalimentación con el entorno. Impacto crítico: Modelos inadecuados o desactualizados pueden llevar a resultados inesperados, especialmente en entornos de alta exigencia como la aviación, donde las consecuencias pueden ser graves. El impacto de los modelos mentales incorrectos En un entorno tan crítico, operar con modelos mentales incorrectos puede resultar desastroso. Un piloto, por ejemplo, depende de un modelo mental robusto para interpretar los instrumentos de vuelo y responder a cambios en el entorno. Del mismo modo, un técnico de mantenimiento se apoya en su modelo mental para diagnosticar problemas y prevenir fallos. Si estos modelos se basan en suposiciones incorrectas, están desactualizados o influenciados por información imprecisa, aumenta significativamente el riesgo de una toma de decisiones incorrecta. Kahneman y los Modelos Mentales El psicólogo y premio Nobel Daniel Kahneman ha explorado exhaustivamente cómo los modelos mentales erróneos, a menudo moldeados por sesgos cognitivos, afectan la toma de decisiones. En su libro «Pensar rápido, pensar despacio» (2011), describe cómo las personas utilizamos atajos mentales o heurísticas, que si bien son útiles en muchos casos, pueden conducir a errores sistemáticos en el juicio. Entre las heurísticas que Kahneman analiza destacan: Heurística de representatividad: Evaluamos la probabilidad de un evento basándonos en su similitud con una categoría prototípica, ignorando frecuentemente la probabilidad base. Este sesgo puede ser peligroso en situaciones operativas, donde confiar únicamente en patrones familiares puede ser engañoso. Heurística de disponibilidad: Estimamos la probabilidad de eventos basándonos en la facilidad con que los recordamos. Esto puede llevarnos a sobreestimar la frecuencia de eventos dramáticos o recientes simplemente porque están más presentes en nuestra memoria. Origen y Evolución de los Modelos Mentales Los modelos mentales, esenciales en la toma de decisiones, se forman a partir de diversas fuentes y se enfrentan a retos significativos al intentar representar la realidad compleja de los sistemas, particularmente en nuestra industria. Su precisión y flexibilidad determinan, en gran medida, la efectividad operativa y la seguridad en entornos dinámicos. Fuentes de los modelos mentales Experiencia personal: La exposición directa a situaciones reales, como aterrizajes en condiciones adversas o resolución de emergencias, contribuye a desarrollar y ajustar modelos mentales específicos. Estas experiencias prácticas son fundamentales para refinar la percepción y respuesta ante escenarios complejos. Entrenamiento Formal: Los programas de formación estructurados inculcan modelos basados en normas, procedimientos estandarizados y mejores prácticas. Este tipo de formación busca proporcionar un marco uniforme y confiable para interpretar y actuar en diferentes situaciones. Compañeros de trabajo: La interacción con colegas y la transferencia de conocimientos enriquecen los modelos mentales. Sin embargo, esta influencia también puede introducir distorsiones si las experiencias compartidas incluyen prácticas erróneas o sesgos individuales. Cultura organizacional: Los valores, prioridades y sesgos inherentes a la organización moldean los modelos mentales. Por ejemplo, una cultura que prioriza la eficiencia sobre la seguridad puede predisponer a los profesionales a tomar decisiones que ignoren ciertos riesgos. Los Modelos Mentales como simplificaciones del mundo real: Aunque son útiles, los modelos mentales simplifican inherentemente la realidad, lo que puede generar desconexiones críticas con los sistemas que representan. Desafíos en la Representación de Sistemas Reales: Falta de Comprensión de la Dinámica del Sistema. Los modelos mentales rara vez reflejan con precisión las complejidades de los sistemas reales, como: Retrasos: El tiempo que transcurre entre una acción y su efecto no siempre es evidente o comprendido. Retroalimentación: Las acciones generan efectos que influyen nuevamente en el sistema, creando ciclos que pueden ser difíciles de prever. Estructura No Lineal: Cambios pequeños pueden generar impactos desproporcionados, y esta relación no siempre es intuitiva. Resultados No Deseados Una interpretación inadecuada de estos aspectos puede llevar a: Políticas mal diseñadas. Soluciones de corto plazo que empeoran el problema original. Efectos secundarios adversos que aumentan la complejidad del sistema. La importancia del pensamiento sistémico El pensamiento sistémico es una herramienta esencial para abordar las limitaciones de los modelos mentales. Proporciona un marco para visualizar cómo interactúan las partes de un sistema. Refinamiento de Modelos Mentales: Visualizar las interacciones entre los elementos del sistema ayuda a reducir sesgos y errores, promoviendo decisiones más informadas. Prevención de Errores Sistémicos: Un enfoque sistémico minimiza la probabilidad de soluciones parciales y fomenta un entendimiento más holístico de los problemas. Herramientas de Pensamiento Sistémico para el Reajuste de Modelos MentalesEl pensamiento sistémico ofrece un marco para superar las limitaciones inherentes al reajuste incremental. Al considerar las interrelaciones, retroalimentaciones y dinámicas complejas de un sistema, estas herramientas permiten: Analizar problemas de manera integral: Identificando cómo los componentes del sistema interactúan para generar resultados. Explorar escenarios mediante simulaciones: Mapas de sistemas o diagramas causales ayudan a visualizar cómo los modelos mentales influyen en los resultados y cómo pueden ser refinados. Promover una reevaluación profunda a través del pensamiento sistémico
Pensar en sistemas

Las mejores teorías son las que nos ayudan a resolver problemas reales. El pensamiento sistémico, aunque incompleto y sesgado como cualquier otra herramienta, ayuda a navegar el complejo mundo en el que vivimos. La aviación, como sistema socio-técnico, es un entramado complejo de interacciones entre tecnología, personas, procedimientos y el entorno operativo. Descubrís que no hay problemas aislados, que todo es un lío: situaciones interactuando entre ellas de muchas formas diferentes. Lo que el pensamiento sistémico nos enseña, es que cada incidente o problema no es un evento aislado; es el resultado de una red de factores interrelacionados que operan en diferentes niveles. Cuando ocurre un incidente en un sistema tan complejo, la reacción común es buscar un fallo técnico o un error humano como causa principal. Sin embargo, este enfoque es muy simple e ignora la realidad inherente y compleja de la estructura del sistema que lo sostiene. El comportamiento es una manifestación de la profunda, y muchas veces oculta, estructura del sistema. Deberías buscar la relación entre estructura y comportamiento para entender cómo funciona el sistema, qué produce resultados y cómo puedes influir en ellos. Entender un sistema complejo es como ver más allá de la ilusión de la Matrix (película The Matrix – 1999); lo que parece ser una simple cadena de causas y efectos, es en realidad una red interconectada de factores y dinámicas ocultas que determinan el comportamiento del sistema. Solo al ‘despertar’ y ver esta estructura subyacente es posible influir en ella de manera efectiva. Hay resistencia a pensar en sistemas. Nos han enseñado a analizar, a buscar relaciones causa-efecto lineales y a resolverlos controlando cada pieza por separado. Esta forma de pensar nos lleva a asumir que la causa del problema está siempre “ahí fuera”, en un componente específico o en una falla aislada, en lugar de considerar que el origen podría estar “aquí dentro”, en la estructura misma del sistema. Es tentador y muchas veces hasta automático, culpar a una persona, un componente técnico o un factor ambiental específico, lo cual se vuelve evidente cuando leemos los portales de noticias tras un accidente: se busca rápidamente un culpable claro y concreto. Según Reason, los errores humanos no son más que síntomas de problemas subyacentes en el sistema. Es lo que él describe en su modelo, donde los errores y las fallas se alinean a través de múltiples capas del sistema, permitiendo que el accidente ocurra. Por su parte, Perrow, con su teoría de “accidentes normales”, plantea que en sistemas complejos y altamente interactivos como la aviación, algunos accidentes son inevitables debido a la naturaleza misma de sus interacciones y la falta de visibilidad total sobre el funcionamiento del sistema. Comprender la estructura para influir en el comportamiento Un ejemplo claro en la aviación es el enfoque en la gestión de amenazas y errores (TEM), que reconoce que las amenazas siempre estarán presentes en un entorno operativo complejo. No se trata de eliminar las amenazas, sino de entender cómo interactúan con el sistema y cómo las tripulaciones y equipos pueden manejar estas interacciones para mitigar sus efectos. Leveson, con su enfoque de “System-Theoretic Accident Model and Processes” (STAMP), enfatiza que no se trata solo de buscar una causa raíz, sino de comprender cómo la estructura del sistema genera ciertos comportamientos. En la aviación, esto se traduce en analizar cómo las políticas, procedimientos, capacitación, diseño de aeronaves y las interacciones entre equipos de trabajo y tecnología pueden crear condiciones propicias para un incidente. La clave no es simplemente parchear los síntomas visibles, sino modificar las estructuras subyacentes para influir en el comportamiento de manera positiva y sostenible. La resistencia a pensar en sistemas En el mundo de la aviación, la resistencia al pensamiento sistémico es recurrente en muchos casos. La formación tradicional y los sistemas de gestión a menudo se centran en análisis lineales, en los que se buscan relaciones directas de causa-efecto y se intenta controlar cada pieza individualmente. Esto está arraigado en una cultura de “gestión de piezas”, donde se tiende a ver la causa del problema como algo externo: un fallo técnico específico, un error humano, o una condición climática adversa. No obstante, aceptar que la fuente del problema podría residir en el propio sistema pone a prueba nuestras creencias más arraigadas y exige un cambio profundo en la forma en que concebimos y gestionamos la seguridad. En un sistema complejo, las partes no operan de manera aislada; están continuamente influyéndose y retroalimentándose entre sí, creando una red interdependiente de relaciones que puede producir efectos emergentes, a menudo impredecibles. Este tipo de interacción es esencial para comprender cómo se forman y evolucionan los sistemas, así como para gestionar su comportamiento de manera efectiva. Este enfoque requiere valentía y una sabiduría particular para reconocer que no es posible controlar cada elemento de manera aislada y que, en cambio, es imprescindible adoptar una perspectiva integral y holística que abarque todas las interacciones y componentes del sistema. Solo así podremos identificar patrones y dinámicas que influyen en los resultados operacionales, permitiéndonos diseñar estrategias efectivas que fortalezcan la seguridad de manera sostenible y preventiva. El lenguaje como limitación y herramienta en el pensamiento sistémico Una de las mayores limitaciones para adoptar un enfoque sistémico en la aviación es el lenguaje mismo. El análisis y la descripción de sistemas complejos se suelen hacer utilizando un lenguaje lineal y secuencial, lo cual no siempre refleja la realidad de un sistema en el que todo está ocurriendo simultáneamente y en múltiples dimensiones. Por eso, el uso de diagramas, mapas de influencia y modelos visuales se vuelve importante. Estos elementos complementan y enriquecen el pensamiento lineal, permitiéndonos ver de forma más clara las conexiones, bucles de retroalimentación y estructuras que configuran el sistema. El pensamiento sistémico en la aviación no solo es útil, es indispensable. Nos permite ir más allá de los síntomas, explorar las raíces y trabajar en las estructuras que realmente moldean los comportamientos y resultados en la operación aérea. Es un enfoque que, aunque desafiante,