fbpx

El taburete de una sola pata como Metáfora de la Vigilancia Operacional.

La nitroglicerina fue descubierta en 1847 por el químico italiano Ascanio Sobrero mientras trabajaba en el laboratorio del profesor Théophile-Jules Pelouze en París. Sobrero logró sintetizarla al hacer reaccionar glicerina con una mezcla de ácido nítrico y ácido sulfúrico (una mezcla conocida como “ácidos nitrantes”). Es un líquido traicionero con un temperamento explosivo, representaba un desafío monumental en los albores de la industria química. Sin embargo, aunque el producto final era más seguro de manipular, el proceso de fabricación seguía siendo un campo minado de peligros. Fue Alfred Nobel quien logró domesticar este peligroso compuesto; al mezclarlo con diatomita, creó la dinamita. Para producir explosivos a escala, Nobel eligió Ardeer, en Ayreshire, en el suroeste de Escocia, Reino Unido. Esta fábrica, conocida como Ardeer Factory, fue establecida en 1873 por la Nobel’s Explosives Company. El sitio fue elegido por estar relativamente aislado, ya que estaba rodeado por agua y tenía un acceso limitado, lo que reducía los riesgos en caso de explosiones accidentales. Manipular la nitroglicerina seguía siendo peligroso: un fallo mínimo y todo volaría por los aires. En la fábrica de Alfred Nobel, donde la nitroglicerina era la sustancia peligrosa de la producción, los trabajadores vivían en un equilibrio constante entre la precisión y el riesgo. Uno de sus mayores desafíos era vigilar la temperatura de los tanques donde se manipulaba el compuesto explosivo. Si el termómetro marcaba más de 22 °C, el operador debía actuar con rapidez: abrir las compuertas para dejar entrar más aire fresco y cerrar la entrada de nitroglicerina. Pero si la temperatura seguía subiendo, llegaba el momento crítico de abrir la válvula de emergencia, una última línea de defensa contra la catástrofe. ¿Y cómo asegurarse de que nadie bajara la guardia? Aquí entra en juego uno de los detalles más curiosos de la fábrica: los trabajadores se sentaban en taburetes de una sola pata. Sí, una sola pata. Si querían mantenerse erguidos y no terminar de cara al suelo, necesitaban estar en constante equilibrio, alerta, atentos a cada detalle de su entorno. Este simple, pero ingenioso, truco garantizaba que los operarios no se relajaran más de la cuenta, convirtiéndose en una peculiar barrera de defensa dentro de la gestión de riesgos de la época. Quizá no había simulacros ni manuales extensos como hoy, pero el ingenio y las medidas prácticas como este “taburete de equilibrio” demostraban que, en el mundo de Nobel, la seguridad era cuestión de mantener tanto la concentración como la postura. El taburete de una pata ha evolucionado adquiriendo diferentes nombres y formas como bucle de retroalimentación, revisión por pares, checklist o procedimiento. La idea es tener mecanismos que nos mantenga alerta para evitar el (auto)engaño. «La ciencia es, de hecho, el taburete de una sola pata del pensamiento humano: un sistema incómodo pero esencial, que hace trastabillar al más brillante de los científicos si se deja llevar por la complacencia o la pereza intelectual».   En la aviación, el «taburete de una sola pata» encuentra múltiples expresiones que sostienen la seguridad en una industria donde el margen de error es escaso. Desde los procedimientos operativos estándar hasta las inspecciones cruzadas, el principio subyacente es el mismo: mantener a los profesionales en un estado de alerta. El taburete en la cabina Los pilotos dependen de mecanismos que garantizan el cumplimiento de procedimientos críticos. Un claro ejemplo es la lista de verificación pre-vuelo. Antes de cada despegue, los pilotos recorren una checklist que cubre desde sistemas hidráulicos hasta equipos de comunicación, entre otros ítems. Este proceso, aunque repetitivo, es esencial para evitar omisiones que podrían ser catastróficas. La rutina está diseñada con el mismo espíritu del “taburete de una pata”, llevar a los pilotos a estar concentrados, incluso, en operaciones aparentemente simples. Cuando algo sale mal durante el vuelo, el «taburete» aparece en forma de procedimientos de emergencia. Estos están diseñados para guiar a la tripulación de manera estructurada en situaciones de alta presión, asegurando que no se salten pasos críticos. El taburete en el mantenimiento En tierra, los técnicos de mantenimiento trabajan bajo principios similares. Inspeccionar un avión involucra múltiples capas de revisión: desde observaciones visuales hasta pruebas funcionales de sistemas. Además, el uso de sistemas de verificación por pares asegura que cada decisión crítica pase por una segunda opinión. Este enfoque reduce la probabilidad de que un error individual pase desapercibido, intentando mantener la atención necesaria para garantizar que el trabajo se haga con precisión. Los procedimientos de mantenimiento no solo buscan identificar errores visibles, sino también mitigar condiciones latentes, esas “condiciones que se pueden activar con el tiempo”, meses después. De nuevo, el «taburete» se convierte en una metáfora para mantener a los técnicos atentos y conscientes de que un pequeño desliz podría tener consecuencias graves. El taburete en la cultura organizacional Más allá de las operaciones específicas, en la aviación hemos adoptado sistemas como el Safety Management System (SMS), que, en esencia, se asemeja a un taburete estructural que sostiene a toda la organización. Este sistema incorpora elementos fundamentales como la retroalimentación constante, los reportes voluntarios y el análisis de datos, con el propósito de identificar tendencias de riesgo antes de que se traduzcan en accidentes. La filosofía detrás del SMS busca establecer una cultura donde nadie se sienta demasiado cómodo: cada componente del sistema debe ser cuestionado y revisado de manera continua. Voy finalizando. La metáfora del taburete de una sola pata encapsula una verdad esencial en la aviación: la seguridad no surge de la comodidad, sino de la vigilancia constante. Ya sea un piloto frente a sus instrumentos, un técnico revisando un motor o un analista examinando reportes, el objetivo es evitar el autoengaño y la complacencia. ¿Cuál es tu taburete de una sola pata? Si querés podés escribirme y contarme. Hasta la próxima Roberto J. Gómez rjg@falp152.com

Pensar en sistemas

Las mejores teorías son las que nos ayudan a resolver problemas reales. El pensamiento sistémico, aunque incompleto y sesgado como cualquier otra herramienta, ayuda a navegar el complejo mundo en el que vivimos. La aviación, como sistema socio-técnico, es un entramado complejo de interacciones entre tecnología, personas, procedimientos y el entorno operativo. Descubrís que no hay problemas aislados, que todo es un lío: situaciones interactuando entre ellas de muchas formas diferentes. Lo que el pensamiento sistémico nos enseña, es que cada incidente o problema no es un evento aislado; es el resultado de una red de factores interrelacionados que operan en diferentes niveles. Cuando ocurre un incidente en un sistema tan complejo, la reacción común es buscar un fallo técnico o un error humano como causa principal. Sin embargo, este enfoque es muy simple e ignora la realidad inherente y compleja de la estructura del sistema que lo sostiene. El comportamiento es una manifestación de la profunda, y muchas veces oculta, estructura del sistema. Deberías buscar la relación entre estructura y comportamiento para entender cómo funciona el sistema, qué produce resultados y cómo puedes influir en ellos. Entender un sistema complejo es como ver más allá de la ilusión de la Matrix (película The Matrix – 1999); lo que parece ser una simple cadena de causas y efectos, es en realidad una red interconectada de factores y dinámicas ocultas que determinan el comportamiento del sistema. Solo al ‘despertar’ y ver esta estructura subyacente es posible influir en ella de manera efectiva. Hay resistencia a pensar en sistemas. Nos han enseñado a analizar, a buscar relaciones causa-efecto lineales y a resolverlos controlando cada pieza por separado. Esta forma de pensar nos lleva a asumir que la causa del problema está siempre “ahí fuera”, en un componente específico o en una falla aislada, en lugar de considerar que el origen podría estar “aquí dentro”, en la estructura misma del sistema. Es tentador y muchas veces hasta automático, culpar a una persona, un componente técnico o un factor ambiental específico, lo cual se vuelve evidente cuando leemos los portales de noticias tras un accidente: se busca rápidamente un culpable claro y concreto. Según Reason, los errores humanos no son más que síntomas de problemas subyacentes en el sistema. Es lo que él describe en su modelo, donde los errores y las fallas se alinean a través de múltiples capas del sistema, permitiendo que el accidente ocurra. Por su parte, Perrow, con su teoría de “accidentes normales”, plantea que en sistemas complejos y altamente interactivos como la aviación, algunos accidentes son inevitables debido a la naturaleza misma de sus interacciones y la falta de visibilidad total sobre el funcionamiento del sistema. Comprender la estructura para influir en el comportamiento Un ejemplo claro en la aviación es el enfoque en la gestión de amenazas y errores (TEM), que reconoce que las amenazas siempre estarán presentes en un entorno operativo complejo. No se trata de eliminar las amenazas, sino de entender cómo interactúan con el sistema y cómo las tripulaciones y equipos pueden manejar estas interacciones para mitigar sus efectos. Leveson, con su enfoque de “System-Theoretic Accident Model and Processes” (STAMP), enfatiza que no se trata solo de buscar una causa raíz, sino de comprender cómo la estructura del sistema genera ciertos comportamientos. En la aviación, esto se traduce en analizar cómo las políticas, procedimientos, capacitación, diseño de aeronaves y las interacciones entre equipos de trabajo y tecnología pueden crear condiciones propicias para un incidente. La clave no es simplemente parchear los síntomas visibles, sino modificar las estructuras subyacentes para influir en el comportamiento de manera positiva y sostenible. La resistencia a pensar en sistemas En el mundo de la aviación, la resistencia al pensamiento sistémico es recurrente en muchos casos. La formación tradicional y los sistemas de gestión a menudo se centran en análisis lineales, en los que se buscan relaciones directas de causa-efecto y se intenta controlar cada pieza individualmente. Esto está arraigado en una cultura de “gestión de piezas”, donde se tiende a ver la causa del problema como algo externo: un fallo técnico específico, un error humano, o una condición climática adversa. No obstante, aceptar que la fuente del problema podría residir en el propio sistema pone a prueba nuestras creencias más arraigadas y exige un cambio profundo en la forma en que concebimos y gestionamos la seguridad. En un sistema complejo, las partes no operan de manera aislada; están continuamente influyéndose y retroalimentándose entre sí, creando una red interdependiente de relaciones que puede producir efectos emergentes, a menudo impredecibles. Este tipo de interacción es esencial para comprender cómo se forman y evolucionan los sistemas, así como para gestionar su comportamiento de manera efectiva. Este enfoque requiere valentía y una sabiduría particular para reconocer que no es posible controlar cada elemento de manera aislada y que, en cambio, es imprescindible adoptar una perspectiva integral y holística que abarque todas las interacciones y componentes del sistema. Solo así podremos identificar patrones y dinámicas que influyen en los resultados operacionales, permitiéndonos diseñar estrategias efectivas que fortalezcan la seguridad de manera sostenible y preventiva. El lenguaje como limitación y herramienta en el pensamiento sistémico Una de las mayores limitaciones para adoptar un enfoque sistémico en la aviación es el lenguaje mismo. El análisis y la descripción de sistemas complejos se suelen hacer utilizando un lenguaje lineal y secuencial, lo cual no siempre refleja la realidad de un sistema en el que todo está ocurriendo simultáneamente y en múltiples dimensiones. Por eso, el uso de diagramas, mapas de influencia y modelos visuales se vuelve importante. Estos elementos complementan y enriquecen el pensamiento lineal, permitiéndonos ver de forma más clara las conexiones, bucles de retroalimentación y estructuras que configuran el sistema. El pensamiento sistémico en la aviación no solo es útil, es indispensable. Nos permite ir más allá de los síntomas, explorar las raíces y trabajar en las estructuras que realmente moldean los comportamientos y resultados en la operación aérea. Es un enfoque que, aunque desafiante,

Evolución en la Gestión de la Seguridad: Del Enfoque en el Error Humano a la Comprensión Sistémica.

El siglo XXI ha transformado radicalmente la gestión de la seguridad en industrias críticas, moviendo el enfoque desde el error humano hacia una perspectiva más amplia que considera los factores sistémicos y organizacionales. Históricamente, la seguridad se centraba en identificar y corregir errores individuales, bajo la suposición de que estos eran la causa principal de los incidentes. Sin embargo, este enfoque resultó ser limitado, ya que no tomaba en cuenta los factores organizacionales subyacentes que facilitaban la ocurrencia de errores. De la culpa individual al análisis sistémico Tradicionalmente, los esfuerzos de seguridad se enfocaban en identificar y corregir los errores humanos, considerando que estos estaban en el núcleo de los eventos adversos. Se pensaba que la acción o inacción de una persona específica era la causa directa de un incidente. Este enfoque se basaba en la creencia de que al corregir el comportamiento del individuo, se evitarían futuros incidentes. Sin embargo, esta perspectiva ha sido ampliamente superada por su simplicidad, ya que no considera los factores sistémicos y organizacionales que pueden contribuir al error. Factores como la cultura organizacional, deficiencias en la comunicación, fallas en la capacitación, distracciones, sesgos o presiones laborales pueden facilitar la ocurrencia de errores humanos. En este sentido, el error humano es más bien un síntoma visible de problemas más profundos y sistémicos, y abordar solo el error individual no resuelve las causas subyacentes que continúan poniendo en riesgo la seguridad operativa. James Reason, con su teoría del «modelo de queso suizo», destacó cómo estos errores no ocurren en el vacío, sino dentro de un sistema con múltiples capas de defensa que pueden fallar. Esta perspectiva ha sido fundamental para entender que la mayoría de los errores resultan de fallos organizacionales subyacentes. Por su parte, Sidney Dekker ha promovido la idea de la «just culture» o «cultura justa», que busca equilibrar la responsabilidad individual con la necesidad de comprender y mejorar los sistemas en los que operan las personas. Este enfoque en la gestión de la seguridad crea un ambiente en el que se fomenta la comunicación abierta sobre los errores, sin temor a represalias injustas, mientras se distingue entre errores genuinos y conductas negligentes o intencionales. En una cultura justa, los errores que ocurren como resultado de decisiones razonables dadas las circunstancias y la información disponible, son tratados como oportunidades para mejorar los sistemas y procesos, en lugar de sancionar a los individuos. Sin embargo, los comportamientos que implican negligencia grave, imprudencia o violaciones deliberadas de las normas se tratan con las consecuencias adecuadas. Este enfoque promueve un entorno en el que los operadores se sienten seguros para reportar errores y problemas, ayudando a las organizaciones a identificar y abordar los factores subyacentes que pueden llevar a incidentes, mejorando así la seguridad y la resiliencia del sistema en su conjunto. Charles Perrow, sociólogo estadounidense, es conocido por su teoría de los «accidentes normales» (Normal Accidents), la cual argumenta que en sistemas complejos y de alta tecnología, como las plantas nucleares o las industrias aeroespaciales, los accidentes son inevitables debido a la interacción impredecible entre componentes altamente interconectados. Perrow sostiene que estos sistemas están diseñados de tal manera que los errores no son simplemente el resultado de fallas individuales, sino que emergen de la complejidad inherente y la organización del sistema en sí. Su trabajo ha influido en la manera en que las organizaciones piensan sobre la seguridad y la gestión del riesgo, enfatizando la importancia de comprender y gestionar la complejidad sistémica para prevenir accidentes catastróficos. Normalización del desvío El concepto de normalización del desvío se refiere a cómo las prácticas irregulares, aunque inicialmente percibidas como excepciones, pueden llegar a ser aceptadas como norma dentro de una organización. Si este fenómeno no se gestiona adecuadamente, puede aumentar significativamente el riesgo de eventos adversos. Diane Vaughan, en su estudio sobre el desastre del Challenger («The Challenger Launch Decision: Risky Technology, Culture, and Deviance at NASA«), introdujo este concepto, demostrando cómo las organizaciones pueden llegar a aceptar prácticas inseguras como normales. Vaughan mostró que, en el caso del Challenger, la organización gradualmente aceptó niveles de riesgo cada vez mayores en los lanzamientos del transbordador, basándose en éxitos previos y sin reconocer que se estaban desviando de los estándares de seguridad originales. Este deslizamiento gradual en los estándares de seguridad contribuyó directamente a la tragedia. Gestión del Cambio y Deriva Práctica La gestión del cambio, tanto en procesos como en tecnología, es vital para mantener la seguridad. Sin embargo, los cambios mal gestionados pueden conducir a la deriva práctica, donde las prácticas operativas se desvían gradualmente de los estándares establecidos, aumentando el riesgo. El análisis de la deriva práctica permite identificar estas desviaciones y corregirlas antes de que se conviertan en problemas críticos. La diferencia relevante entre las industrias ultra seguras y otras organizaciones es el cuidado con que reaccionan ante las señales más débiles de que se acerca algún tipo de cambio o peligro. Kurt Lewin, pionero en la psicología social, desarrolló en la década de 1940 un modelo de cambio organizacional de tres etapas: descongelar (unfreezing), cambiar (changing) y recongelar (refreezing). Este modelo sigue siendo una base fundamental en el estudio de la gestión del cambio en organizaciones. La deriva práctica, concepto desarrollado por Sidney Dekker, describe cómo las prácticas operativas en una organización pueden desviarse gradualmente de los estándares establecidos, lo que aumenta el riesgo de accidentes o errores. Este desvío puede ser lento y difícil de detectar sin una vigilancia continua. A menudo, las concesiones operativas se originan por la presión para cumplir con plazos, la reducción de costos o la percepción de que ciertas normas son innecesarias. Aunque estos cambios se perciben como racionales en su momento, con el tiempo pueden llevar a una desconexión significativa entre las prácticas reales y los estándares de seguridad. Factores organizacionales subyacentes Los factores organizacionales, como la cultura de seguridad, la estructura de la organización y las políticas de incentivos, juegan un rol fundamental en la seguridad operativa. Un enfoque centrado en la organización, en lugar