Un día cualquiera hasta que deja de serlo: sistemas complejos en acción.

          Un día cualquiera, una cafetera y un perro que cae del cielo Cuando la vida se “complica sola” Charles Perrow, en su libro Accidentes normales, arranca con una escena tan cotidiana que cualquiera podría reconocerla. Es una mañana importante: no vas al trabajo habitual porque tenés una entrevista clave en el centro de la ciudad. El día ya viene con algo de presión. Cuando vas a prepararte el desayuno, descubrís que tu pareja dejó la cafetera de vidrio sobre la hornalla encendida: el café se evaporó y la jarra estalló. Sin café, mal comienzo. Como sos adicto al café, revolvés la cocina hasta encontrar una vieja cafetera metálica. La ponés al fuego, mirás el reloj cada dos minutos, te tomás el café casi de un trago y salís disparando. Al llegar al auto, te das cuenta de que te olvidaste las llaves… y también las del departamento. Por suerte, tenías un sistema de respaldo: otro juego de llaves escondido bajo el felpudo de la entrada. Redundancia, diríamos en aviación. Sólo que recordás que esa “redundancia” la usaste hace unos días: le dejaste el juego de repuesto a un amigo para que pudiera entrar a tu casa a buscar unos libros mientras vos no estabas. El camino alternativo quedó neutralizado. Esa barrera ya no existe. Vas por el siguiente plan: pedirle el auto al vecino, un señor amable que casi no usa su coche y lo tiene siempre en condiciones. Tocás el timbre y te enterás de que el alternador se rompió la semana pasada y recién hoy a la tarde lo van a buscar para repararlo. Segundo plan de respaldo que falla. Queda el colectivo… pero hay paro. La empresa decretó un cierre patronal y los conductores se niegan a mover unidades que consideran inseguras, de paso reclamando mejoras salariales. Intentás llamar un taxi desde lo de tu vecino, pero el sistema está saturado justamente porque no hay colectivos circulando. Cuando ya estás resignado, llamás a la secretaria de la agencia de empleo: “Me pasó una serie de cosas esta mañana, no voy a llegar. ¿Podemos reprogramar?”. Ella contesta amablemente que no hay problema, pero piensa: “No es confiable. Tanto insistir por la entrevista y ahora esto”. Lo anota en la agenda y probablemente te asigna un horario poco conveniente para la próxima cita. Perrow cierra esta escena con una pregunta tramposa: ¿cuál fue la causa principal de este “desastre”? La cafetera, las llaves, el auto, el paro, los taxis… Ninguna respuesta, tomada sola, hace justicia a lo que pasó. Es un accidente multicausal: lo que importa no es la pieza suelta, sino la configuración del sistema. Y ahí introduce su tesis central: en ciertos sistemas complejos, algunos accidentes no son anomalías, sino “accidentes normales”, resultado esperable de cómo está armado el sistema. De la cocina a Caballito: el día de Cachy Ahora corramos la escena a Buenos Aires, octubre de 1988. Mediodía de primavera sobre la Avenida Rivadavia al 6100, barrio de Caballito. Tránsito denso pero “habitual”: taxis, colectivos parando y arrancando, chicos saliendo del colegio, gente con bolsas de compras, porteros charlando en la vereda. Una vecina de 75 años sale al almacén, pasa por la carnicería, vuelve con las bolsas en la mano. Todo es rutina. En un balcón de un piso 13, un caniche blanco –Cachy– se asoma más de la cuenta. Cae al vacío. La probabilidad de que impacte sobre una persona es baja, pero el tránsito y el flujo de peatones la multiplican. El perro golpea de lleno la cabeza de la mujer. Muerte instantánea para ambos. La escena estalla: gritos, frenadas, gente corriendo, bolsas de compras desparramadas en la vereda. Se forma el clásico círculo de curiosos. Entre ellos, una mujer de 47 años que se acerca a ver “qué pasó”. En medio de bocinazos, maniobras y peatones mal ubicados, el interno 15 de la línea 55 la atropella y la arrastra varios metros. Tercera muerte en el acto: dos humanos y un perro. La esquina de Rivadavia y Morelos no tiene semáforo. Los de las esquinas cercanas no están bien coordinados. El flujo se vuelve errático: algunos autos pasan, otros frenan, las decisiones se toman “a ojo”. Un hombre que presenció las dos escenas comienza a sentirse mal. Cruza la avenida hacia una concesionaria de venta de autos, entra a pedir ayuda, sufre un infarto y muere camino al hospital. Cuatro muertes: Tres humanas y un perro. La lectura espontánea es casi inevitable: “Fue una desgracia absurda. Pura mala suerte”. Cuatro muertes: tres humanas y un perro, una esquina sin semáforo, semáforos vecinos mal sincronizados, tránsito denso, un círculo de curiosos y un infarto. Igual que en la historia de la cafetera, nuestra mente arma una cadena simple: perro que cae → muerte de la vecina → tumulto → atropello → infarto. Eso nos da una sensación de cierre. Pero, desde la mirada de Perrow, esa forma de explicarlo es justamente lo que nos impide aprender. Podríamos consolarnos pensando que historias como la de Cachy o la mañana de la cafetera son tan extrañas que no volverán a ocurrir. Sin embargo, el 29 de agosto de 2025, en Sincelejo (Sucre, Colombia), un pastor alemán llamado “Milán” quedó literalmente colgando del balcón tras perder el equilibrio entre las barandas. Las imágenes se hicieron virales: el perro lucha por sostenerse, ladra, y finalmente su dueña sale, lo rescata y él baja las orejas y mueve la cola al verla. La diferencia entre un video conmovedor y una tragedia como la de Caballito fueron unos centímetros y unos segundos de reacción. Desde una mirada sistémica, estos “casi accidentes” recuerdan algo incómodo: la probabilidad de que ocurra es baja, pero no es cero; si las condiciones se repiten y no cambiamos el sistema (poner redes, rediseñar barandas, crear barreras), el escenario para que el desastre se complete sigue estando ahí. Lo que une a la cafetera y al caniche «Cachy»: sistemas complejos y acoplamientos Perrow propone mirar estas historias no

Explicaciones simples, sistemas complejos

Un nuevo estudio explora por qué las personas suelen preferir explicaciones simples, incluso cuando las explicaciones más complejas podrían ser más precisas. Los investigadores analizaron cómo opera la Navaja de Ockham (también conocida como la ley de parsimonia), el principio que sugiere que: “Pluralitas non est ponenda sine necessitate”, es decir: entre múltiples explicaciones, la más simple suele ser la mejor, dentro del razonamiento humano cotidiano. Era de los más grandes filósofos de la Europa medieval, se llamaba William y como nació en la pequeña aldea de Ockham, en el sur de Inglaterra, pasó a la historia como William de Ockham. Su idea era que los argumentos filosóficos deben mantenerse lo más simples posible, una navaja filosófica es un atajo mental que puede ayudar a llegar a mejores explicaciones de un fenómeno al descartar hipótesis innecesariamente complejas o poco probables. Él mismo practicó severamente con sus teorías y las de sus predecesores: Hitchens, “Aquello que se afirma sin evidencia se puede rechazar sin evidencia”, o la de Hanlon, “Nunca atribuyas a la malicia aquello que puede ser explicado adecuadamente por la estupidez”. Siglos después, cuando ya había sido aplicado por varias mentes brillantes, a esa idea se le daría el nombre de la navaja de Ockham u Occam. Los resultados revelan que la gente prefiere explicaciones simples no solo porque parezcan más probables o más fáciles de entender, sino también porque consideran que estas capturan mejor lo que realmente “importa” en un evento. Esta percepción tiene profundas implicancias para la forma en que razonamos, tomamos decisiones y procesamos la información La historia más simple puede ser cognitivamente eficiente, pero operativamente peligroso. La Simplicidad Contra el Pensamiento Sistémico Durante mucho tiempo, se pensó que la simplicidad servía como un atajo que, aunque no garantiza la verdad, suele acercarse bastante. En otras palabras, al elegir la explicación más simple, aumentaríamos nuestras chances de estar en lo cierto, o al menos de evitar errores graves. Desde esta perspectiva, la simplicidad se justificaría por razones prácticas: reduce la carga cognitiva, mejora la comunicabilidad y suele correlacionar con la verdad. Esta intuición se alinea con la forma en que usamos las explicaciones en la vida diaria: no solo para entender, sino para dar sentido, comunicar, asignar responsabilidad y tomar decisiones. Desde esta mirada, la simplicidad puede verse como una señal de que una explicación está enfocada en los factores causalmente más relevantes, dejando de lado el “ruido”. Siempre se nos enseñó que cuando se trata de explicaciones, menos es más. Pero, ¿por qué tenemos esa intuición? Un nuevo estudio realizado por Thalia Wheatley Vrantsidis (Dartmouth College) y Tania Lombrozo (Princeton University), publicado en la revista Trends in Cognitive Sciences, intenta responder esta pregunta. El trabajo investiga por qué, tanto en la vida cotidiana como en la ciencia, tendemos a preferir explicaciones simples, incluso cuando hay disponibles explicaciones más complejas y, potencialmente, más precisas. Este sesgo, (siempre están), hacia lo simple no es nuevo. Ya en el siglo XIV, el filósofo Guillermo de Ockham propuso lo que hoy conocemos como la Navaja de Ockham: la idea de que, frente a múltiples hipótesis, la más simple suele ser preferible. Pero aunque este principio se utiliza habitualmente en contextos científicos, lo cierto es que también lo aplicamos de manera intuitiva en la vida cotidiana. Lo interesante del estudio de Vrantsidis y Lombrozo es que va más allá de lo obvio. Hasta ahora, se pensaba que preferimos explicaciones simples porque son más fáciles de entender, más probables o cognitivamente menos costosas. Pero esta investigación sugiere algo más profundo, que consideramos que las explicaciones simples son mejores porque creemos que capturan lo esencial de una situación, que nos dicen lo que realmente importa. Desde esta perspectiva, la simplicidad no es solo una cuestión de forma, sino de significado. Qué implica que algo sea “simple” La simplicidad puede presentarse de muchas maneras: menos causas, menos suposiciones, estructuras más limpias. Por ejemplo, si estoy en una casa y escucho un ruido en el techo durante la noche, probablemente voy a asumir que es el viento antes de pensar que se trata de una combinación de viento, algún pájaro y una rama cayendo al mismo tiempo. ¿Por qué? Porque la primera explicación no solo es más fácil de entender, sino que también me parece más adecuada. Pero el estudio revela que esa adecuación no es únicamente una cuestión de probabilidad: la gente cree que la explicación más simple refleja mejor qué fue lo verdaderamente importante para que ocurriera el evento. Un enfoque experimental Para explorar esta intuición, los investigadores diseñaron una serie de experimentos en los que los participantes debían elegir entre explicaciones simples o complejas para distintos eventos. Por ejemplo: ¿por qué un equipo de fútbol ganó un partido? ¿Por qué una persona enfermó? Los resultados mostraron que las personas tienden a elegir la explicación más simple, incluso cuando se les informa que la más compleja es objetivamente más probable. La simplicidad ganaba porque, según los participantes, “iba al grano”, “capturaba la esencia del evento” o “resaltaba la causa más importante”. Simplicidad e intencionalidad Otro hallazgo clave es que solemos asociar las explicaciones simples con una mayor intencionalidad; es decir, tendemos a pensar que alguien o algo hizo que eso ocurriera de forma deliberada. Por ejemplo, si un piloto logra un aterrizaje de emergencia exitoso, la explicación simple podría ser: “porque es un gran piloto”. En cambio, una explicación más compleja tomaría en cuenta múltiples factores, como el entrenamiento, la meteorología, el tipo de aeronave, la coordinación, entre otros. Sin embargo, la primera nos resulta más “satisfactoria”, porque parece resaltar lo central: la habilidad del piloto. El problema aparece cuando el entorno que intentamos explicar no es simple. En aviación, como en cualquier sistema sociotécnico, los eventos no son lineales ni monocausales. Un mismo desenlace puede emerger de la interacción simultánea de factores humanos, tecnológicos, procedimentales y organizacionales. Pero nuestro cerebro, condicionado por años de evolución en entornos de baja complejidad, sigue buscando la causa: Singular.Clara. Simple. Y así, nos encontramos

Seguridad y salud mental

Durante décadas, hablar de salud mental en la aviación fue un tabú en muchos ámbitos, (en otros lo sigue siendo) aunque los datos no dejan lugar a dudas. Hoy ese silencio empieza a desvanecerse: la industria debe saldar una deuda largamente postergada e integrar la salud mental en el corazón de la seguridad operacional. El informe Charting a New Course for Mental Health in Aviation, publicado por la Flight Safety Foundation en noviembre de 2024, documenta que 12,6 % de las y los pilotos de aerolínea presentan síntomas compatibles con depresión clínica y 4,1 % han tenido ideas suicidas. (Cifras que provienen del Harvard T.H. Chan School of Public Health (estudio 2016) citado en el white‑paper FSF). Estos porcentajes no son números fríos: representan a profesionales que toman decisiones críticas a 38.000 pies de altura. Síntoma / Prevalencia Factores de Riesgo Barreras / Soluciones Depresión12,6% • Fatiga crónica• Presión laboral• Estigmatización • Evaluaciones periódicas• Entornos de confianza («safe haven») Ideación suicida4,1% • Aislamiento• Inseguridad laboral• Miedo a perder la habilitación • Programas peer-support• Cultura de cuidado y detección temprana Burnout≈ 40% • Rosters irregulares• Falta de recuperación• Sobrecarga operacional • Rediseño de turnos• Apoyo organizacional sostenido Las causas son múltiples y bien conocidas por quienes habitan el ecosistema aeronáutico: jornadas irregulares, alta responsabilidad, separación familiar, fatiga acumulada, incertidumbre laboral. La pandemia profundizó estas tensiones, dejando una estela de agotamiento emocional que resulta difícil de revertir sin un abordaje sistémico. Uno de los factores más corrosivos para el bienestar psicológico en este entorno es el miedo. Miedo a perder la habilitación por declarar una dolencia emocional. Miedo a que un episodio transitorio derive en una etiqueta definitiva. Miedo a ser estigmatizado por buscar ayuda.   Ese temor, profundamente arraigado en la cultura organizacional, alimenta un silencio que no solo daña al individuo, sino que también compromete la seguridad de las operaciones. Brain Balance (El equilibrio cerebral) En esta línea, es necesario analizar un modelo que nos acerque a un verdadero Brain Balance. Se basa en que la salud y el rendimiento del cerebro son una función de la medida en que el ser humano ejercita la alternancia y el equilibrio entre diez actividades esenciales para el cerebro: dormir y ejercitarse, focalizar y desconectarse, conectar y reflexionar, jugar y tener rutinas, nutrirse y ayunar. Estas actividades actúan como ejes opuestos pero complementarios, y su adecuada integración permite mantener un estado cerebral bueno. Este balance no solo mejora el rendimiento, sino que protege contra el agotamiento mental y emocional crónico, algo muy relevante en entornos de alta exigencia como el nuestro. Sabemos que la salud mental no es un estado abstracto, sino una función concreta del equilibrio entre la activación y la recuperación del cuerpo y del cerebro. No dormir lo suficiente, no moverse, no desconectarse, no reflexionar, no alimentarse bien… todo ello tiene un costo neurofisiológico directo: deteriora la toma de decisiones, el juicio, la atención sostenida y la capacidad de autorregulación emocional. Pero alcanzar este equilibrio no es una tarea sencilla y lleva mucho trabajo personal. La vida cotidiana conspira permanentemente en su contra. Abundan los gurúes que intentan convencernos de que si estamos mal es por nuestra culpa, porque “todo se trata de tener buenos pensamientos, buenas intenciones, abrazar un árbol”… chocolate por la noticia. La verdadera pregunta no es qué hacer, sino cómo hacerlo y sostenerlo en el tiempo.Porque basta con intentar eliminar un pensamiento negativo para que otros aparezcan en cascada. Pensamos que hay algo llamado pensamiento negativo y pensamiento positivo. Queremos eliminar los pensamientos negativos y tener solo pensamientos positivos. Bien, perfecto les pediría que experimenten durante 10 o 15 segundos, a la fuerza deben eliminar un pensamiento de su mente. Por ejemplo: los próximos diez segundos, solo no pienses en un mono. Trata de no pensar en un mono por los próximos 10 segundos. : “No pienses en un mono.”   Listo. Si pensaste en un mono, no estás solo. De hecho, casi todos lo hacemos.El experimento demuestra algo simple, pero poderoso: cuanto más intentamos evitar un pensamiento, más probable es que aparezca. Puedo afirmar, sin mucho margen de error, que el 98 % pensó en un mono. Por no decir el 100 %, lo cual sería presuntuoso. «No pienses en cosas malas». Bueno, desde entonces ha sido un trabajo de tiempo completo. Este simple ejercicio demuestra que cuanto más intentamos evitar un pensamiento no deseado, más fuerza toma. Si intentas suprimir un pensamiento negativo a puro esfuerzo, solo vas a terminar frustrado. No hay tres pedales en la mente como en el auto: embrague, freno y acelerador. Aquí hay solo acelerador, lo que sea que toques solo irás más rápido. No hay restas y divisiones en nuestra mente, solo hay adición y multiplicación. «Solo voy a eliminar pensamientos negativos y voy a tener pensamientos positivos». Te deseo lo mejor. No va a funcionar.  En lugar de luchar contra lo que pensamos, podemos redirigir la atención suavemente, cultivar entornos cerebrales más saludables y adoptar prácticas que (sin buscar un control directo) favorezcan el equilibrio. La meditación (que requiere esfuerzo y constancia), el movimiento, la risa, el juego o incluso un cambio en la rutina alimentaria pueden funcionar como palancas neurobiológicas. Si se sostienen en el tiempo, fortalecen la flexibilidad mental, esa capacidad de ir y venir sin quedar atrapados. Lleva trabajo. Es fundamental comprender que los pensamientos no son el problema en sí. El conflicto aparece cuando nos identificamos con ellos, cuando creemos que somos lo que pensamos. Si entendemos que el pensamiento es simplemente una actividad natural de la mente (como el latido lo es del corazón), dejamos de otorgarle un poder desmedido. En lugar de intentar eliminar los pensamientos incómodos, podemos aprender a observarlos como nubes que cruzan el cielo: no se trata de aferrarse, sino de dejarlos pasar. Esto requiere constancia, sí, pero también un cambio de perspectiva. No se trata de negar lo que ocurre en nuestro mundo interno, sino de relacionarnos con ello de otro modo: desde la presencia, el desapego, y una

El taburete de una sola pata como Metáfora de la Vigilancia Operacional.

La nitroglicerina fue descubierta en 1847 por el químico italiano Ascanio Sobrero mientras trabajaba en el laboratorio del profesor Théophile-Jules Pelouze en París. Sobrero logró sintetizarla al hacer reaccionar glicerina con una mezcla de ácido nítrico y ácido sulfúrico (una mezcla conocida como “ácidos nitrantes”). Es un líquido traicionero con un temperamento explosivo, representaba un desafío monumental en los albores de la industria química. Sin embargo, aunque el producto final era más seguro de manipular, el proceso de fabricación seguía siendo un campo minado de peligros. Fue Alfred Nobel quien logró domesticar este peligroso compuesto; al mezclarlo con diatomita, creó la dinamita. Para producir explosivos a escala, Nobel eligió Ardeer, en Ayreshire, en el suroeste de Escocia, Reino Unido. Esta fábrica, conocida como Ardeer Factory, fue establecida en 1873 por la Nobel’s Explosives Company. El sitio fue elegido por estar relativamente aislado, ya que estaba rodeado por agua y tenía un acceso limitado, lo que reducía los riesgos en caso de explosiones accidentales. Manipular la nitroglicerina seguía siendo peligroso: un fallo mínimo y todo volaría por los aires. En la fábrica de Alfred Nobel, donde la nitroglicerina era la sustancia peligrosa de la producción, los trabajadores vivían en un equilibrio constante entre la precisión y el riesgo. Uno de sus mayores desafíos era vigilar la temperatura de los tanques donde se manipulaba el compuesto explosivo. Si el termómetro marcaba más de 22 °C, el operador debía actuar con rapidez: abrir las compuertas para dejar entrar más aire fresco y cerrar la entrada de nitroglicerina. Pero si la temperatura seguía subiendo, llegaba el momento crítico de abrir la válvula de emergencia, una última línea de defensa contra la catástrofe. ¿Y cómo asegurarse de que nadie bajara la guardia? Aquí entra en juego uno de los detalles más curiosos de la fábrica: los trabajadores se sentaban en taburetes de una sola pata. Sí, una sola pata. Si querían mantenerse erguidos y no terminar de cara al suelo, necesitaban estar en constante equilibrio, alerta, atentos a cada detalle de su entorno. Este simple, pero ingenioso, truco garantizaba que los operarios no se relajaran más de la cuenta, convirtiéndose en una peculiar barrera de defensa dentro de la gestión de riesgos de la época. Quizá no había simulacros ni manuales extensos como hoy, pero el ingenio y las medidas prácticas como este “taburete de equilibrio” demostraban que, en el mundo de Nobel, la seguridad era cuestión de mantener tanto la concentración como la postura. El taburete de una pata ha evolucionado adquiriendo diferentes nombres y formas como bucle de retroalimentación, revisión por pares, checklist o procedimiento. La idea es tener mecanismos que nos mantenga alerta para evitar el (auto)engaño. «La ciencia es, de hecho, el taburete de una sola pata del pensamiento humano: un sistema incómodo pero esencial, que hace trastabillar al más brillante de los científicos si se deja llevar por la complacencia o la pereza intelectual».   En la aviación, el «taburete de una sola pata» encuentra múltiples expresiones que sostienen la seguridad en una industria donde el margen de error es escaso. Desde los procedimientos operativos estándar hasta las inspecciones cruzadas, el principio subyacente es el mismo: mantener a los profesionales en un estado de alerta. El taburete en la cabina Los pilotos dependen de mecanismos que garantizan el cumplimiento de procedimientos críticos. Un claro ejemplo es la lista de verificación pre-vuelo. Antes de cada despegue, los pilotos recorren una checklist que cubre desde sistemas hidráulicos hasta equipos de comunicación, entre otros ítems. Este proceso, aunque repetitivo, es esencial para evitar omisiones que podrían ser catastróficas. La rutina está diseñada con el mismo espíritu del “taburete de una pata”, llevar a los pilotos a estar concentrados, incluso, en operaciones aparentemente simples. Cuando algo sale mal durante el vuelo, el «taburete» aparece en forma de procedimientos de emergencia. Estos están diseñados para guiar a la tripulación de manera estructurada en situaciones de alta presión, asegurando que no se salten pasos críticos. El taburete en el mantenimiento En tierra, los técnicos de mantenimiento trabajan bajo principios similares. Inspeccionar un avión involucra múltiples capas de revisión: desde observaciones visuales hasta pruebas funcionales de sistemas. Además, el uso de sistemas de verificación por pares asegura que cada decisión crítica pase por una segunda opinión. Este enfoque reduce la probabilidad de que un error individual pase desapercibido, intentando mantener la atención necesaria para garantizar que el trabajo se haga con precisión. Los procedimientos de mantenimiento no solo buscan identificar errores visibles, sino también mitigar condiciones latentes, esas “condiciones que se pueden activar con el tiempo”, meses después. De nuevo, el «taburete» se convierte en una metáfora para mantener a los técnicos atentos y conscientes de que un pequeño desliz podría tener consecuencias graves. El taburete en la cultura organizacional Más allá de las operaciones específicas, en la aviación hemos adoptado sistemas como el Safety Management System (SMS), que, en esencia, se asemeja a un taburete estructural que sostiene a toda la organización. Este sistema incorpora elementos fundamentales como la retroalimentación constante, los reportes voluntarios y el análisis de datos, con el propósito de identificar tendencias de riesgo antes de que se traduzcan en accidentes. La filosofía detrás del SMS busca establecer una cultura donde nadie se sienta demasiado cómodo: cada componente del sistema debe ser cuestionado y revisado de manera continua. Voy finalizando. La metáfora del taburete de una sola pata encapsula una verdad esencial en la aviación: la seguridad no surge de la comodidad, sino de la vigilancia constante. Ya sea un piloto frente a sus instrumentos, un técnico revisando un motor o un analista examinando reportes, el objetivo es evitar el autoengaño y la complacencia. ¿Cuál es tu taburete de una sola pata? Si querés podés escribirme y contarme. Hasta la próxima Roberto J. Gómez rjg@falp152.com

Pensar en sistemas

Las mejores teorías son las que nos ayudan a resolver problemas reales. El pensamiento sistémico, aunque incompleto y sesgado como cualquier otra herramienta, ayuda a navegar el complejo mundo en el que vivimos. La aviación, como sistema socio-técnico, es un entramado complejo de interacciones entre tecnología, personas, procedimientos y el entorno operativo. Descubrís que no hay problemas aislados, que todo es un lío: situaciones interactuando entre ellas de muchas formas diferentes. Lo que el pensamiento sistémico nos enseña, es que cada incidente o problema no es un evento aislado; es el resultado de una red de factores interrelacionados que operan en diferentes niveles. Cuando ocurre un incidente en un sistema tan complejo, la reacción común es buscar un fallo técnico o un error humano como causa principal. Sin embargo, este enfoque es muy simple e ignora la realidad inherente y compleja de la estructura del sistema que lo sostiene. El comportamiento es una manifestación de la profunda, y muchas veces oculta, estructura del sistema. Deberías buscar la relación entre estructura y comportamiento para entender cómo funciona el sistema, qué produce resultados y cómo puedes influir en ellos. Entender un sistema complejo es como ver más allá de la ilusión de la Matrix (película The Matrix – 1999); lo que parece ser una simple cadena de causas y efectos, es en realidad una red interconectada de factores y dinámicas ocultas que determinan el comportamiento del sistema. Solo al ‘despertar’ y ver esta estructura subyacente es posible influir en ella de manera efectiva. Hay resistencia a pensar en sistemas. Nos han enseñado a analizar, a buscar relaciones causa-efecto lineales y a resolverlos controlando cada pieza por separado. Esta forma de pensar nos lleva a asumir que la causa del problema está siempre “ahí fuera”, en un componente específico o en una falla aislada, en lugar de considerar que el origen podría estar “aquí dentro”, en la estructura misma del sistema. Es tentador y muchas veces hasta automático, culpar a una persona, un componente técnico o un factor ambiental específico, lo cual se vuelve evidente cuando leemos los portales de noticias tras un accidente: se busca rápidamente un culpable claro y concreto. Según Reason, los errores humanos no son más que síntomas de problemas subyacentes en el sistema. Es lo que él describe en su modelo, donde los errores y las fallas se alinean a través de múltiples capas del sistema, permitiendo que el accidente ocurra. Por su parte, Perrow, con su teoría de “accidentes normales”, plantea que en sistemas complejos y altamente interactivos como la aviación, algunos accidentes son inevitables debido a la naturaleza misma de sus interacciones y la falta de visibilidad total sobre el funcionamiento del sistema. Comprender la estructura para influir en el comportamiento Un ejemplo claro en la aviación es el enfoque en la gestión de amenazas y errores (TEM), que reconoce que las amenazas siempre estarán presentes en un entorno operativo complejo. No se trata de eliminar las amenazas, sino de entender cómo interactúan con el sistema y cómo las tripulaciones y equipos pueden manejar estas interacciones para mitigar sus efectos. Leveson, con su enfoque de “System-Theoretic Accident Model and Processes” (STAMP), enfatiza que no se trata solo de buscar una causa raíz, sino de comprender cómo la estructura del sistema genera ciertos comportamientos. En la aviación, esto se traduce en analizar cómo las políticas, procedimientos, capacitación, diseño de aeronaves y las interacciones entre equipos de trabajo y tecnología pueden crear condiciones propicias para un incidente. La clave no es simplemente parchear los síntomas visibles, sino modificar las estructuras subyacentes para influir en el comportamiento de manera positiva y sostenible. La resistencia a pensar en sistemas En el mundo de la aviación, la resistencia al pensamiento sistémico es recurrente en muchos casos. La formación tradicional y los sistemas de gestión a menudo se centran en análisis lineales, en los que se buscan relaciones directas de causa-efecto y se intenta controlar cada pieza individualmente. Esto está arraigado en una cultura de “gestión de piezas”, donde se tiende a ver la causa del problema como algo externo: un fallo técnico específico, un error humano, o una condición climática adversa. No obstante, aceptar que la fuente del problema podría residir en el propio sistema pone a prueba nuestras creencias más arraigadas y exige un cambio profundo en la forma en que concebimos y gestionamos la seguridad. En un sistema complejo, las partes no operan de manera aislada; están continuamente influyéndose y retroalimentándose entre sí, creando una red interdependiente de relaciones que puede producir efectos emergentes, a menudo impredecibles. Este tipo de interacción es esencial para comprender cómo se forman y evolucionan los sistemas, así como para gestionar su comportamiento de manera efectiva. Este enfoque requiere valentía y una sabiduría particular para reconocer que no es posible controlar cada elemento de manera aislada y que, en cambio, es imprescindible adoptar una perspectiva integral y holística que abarque todas las interacciones y componentes del sistema. Solo así podremos identificar patrones y dinámicas que influyen en los resultados operacionales, permitiéndonos diseñar estrategias efectivas que fortalezcan la seguridad de manera sostenible y preventiva. El lenguaje como limitación y herramienta en el pensamiento sistémico Una de las mayores limitaciones para adoptar un enfoque sistémico en la aviación es el lenguaje mismo. El análisis y la descripción de sistemas complejos se suelen hacer utilizando un lenguaje lineal y secuencial, lo cual no siempre refleja la realidad de un sistema en el que todo está ocurriendo simultáneamente y en múltiples dimensiones. Por eso, el uso de diagramas, mapas de influencia y modelos visuales se vuelve importante. Estos elementos complementan y enriquecen el pensamiento lineal, permitiéndonos ver de forma más clara las conexiones, bucles de retroalimentación y estructuras que configuran el sistema. El pensamiento sistémico en la aviación no solo es útil, es indispensable. Nos permite ir más allá de los síntomas, explorar las raíces y trabajar en las estructuras que realmente moldean los comportamientos y resultados en la operación aérea. Es un enfoque que, aunque desafiante,