El taburete de una sola pata como Metáfora de la Vigilancia Operacional.

La nitroglicerina fue descubierta en 1847 por el químico italiano Ascanio Sobrero mientras trabajaba en el laboratorio del profesor Théophile-Jules Pelouze en París. Sobrero logró sintetizarla al hacer reaccionar glicerina con una mezcla de ácido nítrico y ácido sulfúrico (una mezcla conocida como “ácidos nitrantes”). Es un líquido traicionero con un temperamento explosivo, representaba un desafío monumental en los albores de la industria química. Sin embargo, aunque el producto final era más seguro de manipular, el proceso de fabricación seguía siendo un campo minado de peligros. Fue Alfred Nobel quien logró domesticar este peligroso compuesto; al mezclarlo con diatomita, creó la dinamita. Para producir explosivos a escala, Nobel eligió Ardeer, en Ayreshire, en el suroeste de Escocia, Reino Unido. Esta fábrica, conocida como Ardeer Factory, fue establecida en 1873 por la Nobel’s Explosives Company. El sitio fue elegido por estar relativamente aislado, ya que estaba rodeado por agua y tenía un acceso limitado, lo que reducía los riesgos en caso de explosiones accidentales. Manipular la nitroglicerina seguía siendo peligroso: un fallo mínimo y todo volaría por los aires. En la fábrica de Alfred Nobel, donde la nitroglicerina era la sustancia peligrosa de la producción, los trabajadores vivían en un equilibrio constante entre la precisión y el riesgo. Uno de sus mayores desafíos era vigilar la temperatura de los tanques donde se manipulaba el compuesto explosivo. Si el termómetro marcaba más de 22 °C, el operador debía actuar con rapidez: abrir las compuertas para dejar entrar más aire fresco y cerrar la entrada de nitroglicerina. Pero si la temperatura seguía subiendo, llegaba el momento crítico de abrir la válvula de emergencia, una última línea de defensa contra la catástrofe. ¿Y cómo asegurarse de que nadie bajara la guardia? Aquí entra en juego uno de los detalles más curiosos de la fábrica: los trabajadores se sentaban en taburetes de una sola pata. Sí, una sola pata. Si querían mantenerse erguidos y no terminar de cara al suelo, necesitaban estar en constante equilibrio, alerta, atentos a cada detalle de su entorno. Este simple, pero ingenioso, truco garantizaba que los operarios no se relajaran más de la cuenta, convirtiéndose en una peculiar barrera de defensa dentro de la gestión de riesgos de la época. Quizá no había simulacros ni manuales extensos como hoy, pero el ingenio y las medidas prácticas como este “taburete de equilibrio” demostraban que, en el mundo de Nobel, la seguridad era cuestión de mantener tanto la concentración como la postura. El taburete de una pata ha evolucionado adquiriendo diferentes nombres y formas como bucle de retroalimentación, revisión por pares, checklist o procedimiento. La idea es tener mecanismos que nos mantenga alerta para evitar el (auto)engaño. «La ciencia es, de hecho, el taburete de una sola pata del pensamiento humano: un sistema incómodo pero esencial, que hace trastabillar al más brillante de los científicos si se deja llevar por la complacencia o la pereza intelectual». En la aviación, el «taburete de una sola pata» encuentra múltiples expresiones que sostienen la seguridad en una industria donde el margen de error es escaso. Desde los procedimientos operativos estándar hasta las inspecciones cruzadas, el principio subyacente es el mismo: mantener a los profesionales en un estado de alerta. El taburete en la cabina Los pilotos dependen de mecanismos que garantizan el cumplimiento de procedimientos críticos. Un claro ejemplo es la lista de verificación pre-vuelo. Antes de cada despegue, los pilotos recorren una checklist que cubre desde sistemas hidráulicos hasta equipos de comunicación, entre otros ítems. Este proceso, aunque repetitivo, es esencial para evitar omisiones que podrían ser catastróficas. La rutina está diseñada con el mismo espíritu del “taburete de una pata”, llevar a los pilotos a estar concentrados, incluso, en operaciones aparentemente simples. Cuando algo sale mal durante el vuelo, el «taburete» aparece en forma de procedimientos de emergencia. Estos están diseñados para guiar a la tripulación de manera estructurada en situaciones de alta presión, asegurando que no se salten pasos críticos. El taburete en el mantenimiento En tierra, los técnicos de mantenimiento trabajan bajo principios similares. Inspeccionar un avión involucra múltiples capas de revisión: desde observaciones visuales hasta pruebas funcionales de sistemas. Además, el uso de sistemas de verificación por pares asegura que cada decisión crítica pase por una segunda opinión. Este enfoque reduce la probabilidad de que un error individual pase desapercibido, intentando mantener la atención necesaria para garantizar que el trabajo se haga con precisión. Los procedimientos de mantenimiento no solo buscan identificar errores visibles, sino también mitigar condiciones latentes, esas “condiciones que se pueden activar con el tiempo”, meses después. De nuevo, el «taburete» se convierte en una metáfora para mantener a los técnicos atentos y conscientes de que un pequeño desliz podría tener consecuencias graves. El taburete en la cultura organizacional Más allá de las operaciones específicas, en la aviación hemos adoptado sistemas como el Safety Management System (SMS), que, en esencia, se asemeja a un taburete estructural que sostiene a toda la organización. Este sistema incorpora elementos fundamentales como la retroalimentación constante, los reportes voluntarios y el análisis de datos, con el propósito de identificar tendencias de riesgo antes de que se traduzcan en accidentes. La filosofía detrás del SMS busca establecer una cultura donde nadie se sienta demasiado cómodo: cada componente del sistema debe ser cuestionado y revisado de manera continua. Voy finalizando. La metáfora del taburete de una sola pata encapsula una verdad esencial en la aviación: la seguridad no surge de la comodidad, sino de la vigilancia constante. Ya sea un piloto frente a sus instrumentos, un técnico revisando un motor o un analista examinando reportes, el objetivo es evitar el autoengaño y la complacencia. ¿Cuál es tu taburete de una sola pata? Si querés podés escribirme y contarme. Hasta la próxima Roberto J. Gómez rjg@falp152.com
Del Big Bang al Error Humano: La necesidad de explicaciones

Sabemos desde los tiempos de Aristóteles, que los humanos están sedientos de conocimiento, con una necesidad de descubrir cosas. Tanto es así que debido a la interminable búsqueda de conocimiento, la eterna curiosidad que nos lleva a preguntar “qué” y descubrir “por qué” la humanidad ha logrado el nivel actual de desarrollo, aunque algunas partes de ese desarrollo no sean motivo de orgullo. Hay una frase de Erich Fromm, psicólogo americano, (Man for Himself: An Inquiry into the Psychology of Ethics (1947), cap.3) que dice así: La búsqueda de la certidumbre bloquea la búsqueda de significado. La incertidumbre es la verdadera condición para impulsar al hombre a desplegar sus poderes. Con este párrafo, Fromm señala que en muchas ocasiones buscamos la seguridad más que el conocimiento. Queremos saber, no quizás por una pura sed de conocimiento, sino para expulsar los demonios de la incertidumbre. Los humanos, en su mayoría, se encuentran incómodos cuando no saben qué esperar, es decir, cuando las cosas suceden de un modo impredecible. Esto crea la sensación de que hay algo fuera de control, algo que nunca es deseable, (queremos tener la ilusión de que todo está bajo control), puesto que desde una perspectiva evolutiva significa que las posibilidades de supervivencia se ven reducidas. El amigo Nietzsche (1844-1900), filósofo, describió muy bien esta situación: Seguir la pista de algo desconocido hasta algo conocido resulta tranquilizador, gratificante y además aporta un sentimiento de poder. El peligro, el desasosiego, la ansiedad acompaña a lo desconocido – el primer instinto es eliminar estos estados dolorosos — . Primer principio: Cualquier explicación es mejor que ninguna… la causa que crea el instinto está, por tanto, condicionada y estimulada por la sensación de miedo (Nietzsche, El ocaso de los ídolos, Götzen-Dämmerung, 1889) Una de las ideas fundamentales de Nietzsche sobre la psicología humana: la necesidad de interpretar y explicar el mundo para reducir el miedo y la incertidumbre. Ante la incertidumbre, las personas prefieren tener una explicación, aunque sea incorrecta, antes que enfrentarse al desconocimiento. El miedo a lo desconocido motiva al ser humano a inventar narrativas que reduzcan la incertidumbre. Así, las explicaciones no solo tranquilizan, sino que también generan un sentimiento de control o poder sobre el entorno. Como especie humana, tendemos a sentirnos inseguros y aprehensivos respecto a aquello, para lo que no podemos encontrar una explicación. En realidad, no importa de qué tipo de explicación se trate, no importa que sea racional y científica, emocional, irracional, supersticiosa (se cayó un avión, se van a caer dos más porque siempre son tres los que se caen). Se necesita una explicación y una explicación es lo que debemos tener. Ante un accidente, lo primordial es: ¿por qué se cayó? Con la aeronave todavía humeando, oímos en los medios, en personas que desconocen la actividad aeronáutica (es razonable) e incluso en aquellas que sí la conocen (no tan razonable), una fuerte necesidad de descubrir inmediatamente por qué se ha producido. Más concretamente, surge una necesidad de encontrar sus causas y, quizás mejor aún, ¡La Causa! (en singular). Este fenómeno puede aplicarse, en diferentes grados, a incidentes y acontecimientos adversos de menor importancia. A primera vista, podría pensarse que se está buscando significado, en el sentido de una explicación que arroje luz sobre el accidente; sin embargo, lo que realmente se busca es la certeza, materializada en una causa identificable y definitiva. Encontrar una causa aceptable parece ser más importante que descubrir por qué ocurrió realmente el accidente. Esta tendencia refleja la forma en que el pensamiento humano se inclina hacia explicaciones rápidas y sencillas, priorizando aquello que aporte tranquilidad emocional y un sentido de control frente a lo incierto. Nos sentimos satisfechos, por lo general, con explicaciones rápidas, frecuentemente influenciadas por la búsqueda de evidencias que confirmen nuestras ideas preconcebidas. Este sesgo de confirmación, ampliamente discutido en la filosofía de la ciencia, pone en evidencia cómo muchas veces el deseo de certeza prevalece sobre la búsqueda rigurosa y crítica de la verdad. Podemos establecer una distinción breve, pero fundamental, entre encontrar la causa de un accidente y explicar un accidente. Si consideramos que los accidentes tienen causas, tiene sentido intentar identificarlas y actuar sobre ellas una vez descubiertas. Por otro lado, si los accidentes tienen explicaciones, el objetivo debe ser ofrecer un análisis detallado de cómo ocurrió el accidente, considerando las circunstancias y los acontecimientos que lo propiciaron. La respuesta no debería limitarse a buscar y eliminar “la causa”, sino a identificar las condiciones y factores que pudieron contribuir a su ocurrencia, con el propósito de encontrar formas efectivas de gestionarlos y prevenir futuros eventos similares. En la mayoría de los accidentes e incidentes, logramos encontrar explicaciones que no solo disipan la temida incertidumbre, sino que también aportan un conocimiento real, al menos sobre un evento en particular. Estas explicaciones son valiosas porque nos permiten tomar medidas para reducir la probabilidad de que ocurra un evento similar en el futuro o, en su defecto, protegernos de las consecuencias en caso de que vuelva a ocurrir. La industria aeronáutica comprende bien esta dinámica, aunque en ocasiones pueda experimentar lapsus de memoria. El propósito principal al analizar los accidentes y otros eventos adversos es traducir ese entendimiento en acciones concretas: estar mejor preparados, responder eficazmente y mantener el control. Una ventaja adicional de este enfoque es que, como señala Fromm, ayuda a mitigar, aunque sea parcialmente, la incertidumbre inherente que acompaña a estos eventos. Big Bang La búsqueda de causas no se limita al ámbito aeronáutico; es un rasgo profundamente arraigado en el pensamiento occidental. Siempre se intenta encontrar el motivo detrás de un crimen; sin un motivo, la acción parece carecer de sentido, y se asume que esta ausencia de explicación es inusual. De hecho, cuando no podemos identificar una razón que explique lo que alguien hace, solemos calificar a esa persona como psicológicamente perturbada o psicótica. Un ejemplo emblemático de la búsqueda de causas, en otro ámbito, es la teoría del Big Bang en cosmología. Este es quizá el
La Inevitabilidad de los Problemas Irresolubles

Norbert Wiener, el padre de la cibernética, creía que algunos problemas simplemente no tienen solución, o al menos no una solución definitiva dentro de un marco determinado. Esta afirmación está profundamente vinculada a la teoría de sistemas complejos y su comprensión de los límites de la predictibilidad y el control. Aunque aparentemente sencilla, esta idea tiene implicaciones filosóficas y técnicas importantes en la gestión de problemas complejos en diversas disciplinas. Wiener observaba que los sistemas dinámicos, como los organismos vivos o las sociedades, son inherentemente complejos y caóticos en muchos aspectos. En estos sistemas, el comportamiento no es completamente predecible y, por lo tanto, ciertos problemas no pueden resolverse de manera absoluta. Este concepto, conocido también en la teoría de sistemas complejos, destaca la importancia de reconocer las limitaciones inherentes a los intentos de control y predicción dentro de sistemas dinámicos. Para entender mejor estos desafíos, se debe explorar factores clave como la imprevisibilidad, el control limitado y los problemas no lineales. Imprevisibilidad y Control Limitado en Sistemas Complejos La imprevisibilidad en sistemas complejos es un factor central. Wiener reconocía que, particularmente en sistemas que involucran seres humanos, las condiciones iniciales pueden tener un impacto profundo y, a menudo, desproporcionado en el resultado final. Este fenómeno, común en la teoría del caos, destaca cómo pequeñas diferencias en las condiciones iniciales pueden generar resultados completamente distintos, lo que dificulta la predicción y el control absoluto del sistema. Además, la teoría de Wiener expone que no siempre es posible ejercer un control completo sobre un sistema debido a la incompletitud de los datos y a la constante evolución de las variables involucradas. Estos factores limitan la capacidad de los operadores, ya sean gestores o pilotos, para tomar decisiones definitivas o implementar soluciones que aborden todos los aspectos de un problema de manera integral. Problemas No Lineales y Mal Planteados Muchos problemas del mundo real, especialmente en campos como el nuestro, la aviación, son no lineales. Esto implica que no existe una relación directa entre los esfuerzos aplicados y los resultados obtenidos. A menudo, los intentos de resolver un aspecto de un problema pueden generar consecuencias imprevistas, o incluso empeorar la situación en otras áreas del sistema. Este tipo de problemas también se conocen como “problemas malvados” o wicked problems. Rittel y Webber introdujeron el concepto de los problemas malvados en el ámbito de la planificación urbana, refiriéndose a desafíos que no tienen una solución clara ni definitiva. Estos problemas carecen de una definición precisa, y la información necesaria para abordarlos suele ser incompleta o ambigua. Lo que hace que estos problemas sean especialmente complejos es la interdependencia de los factores que los componen. Un cambio en un aspecto puede empeorar otros, generando una cadena de efectos no deseados. Aplicaciones en la Aviación: Los Problemas Malvados En el ámbito de la aviación, también enfrentamos problemas que pueden ser categorizados como wicked problems. Estos desafíos no tienen una solución simple o única debido a la complejidad interrelacionada de los factores involucrados. Un ejemplo claro de esto es la implementación de nuevas tecnologías en la cabina, como los sistemas de gestión de vuelo automatizados. Aunque estas innovaciones buscan mejorar la eficiencia y la seguridad, también pueden generar efectos secundarios no deseados si no se gestionan de manera adecuada. Estudios de la National Transportation Safety Board (NTSB) han demostrado que, si bien la automatización reduce la carga operativa de los pilotos en muchas situaciones, puede generar dependencia excesiva. Esto disminuye la capacidad de los pilotos para tomar decisiones efectivas en situaciones imprevistas, un claro ejemplo de cómo intentar solucionar un aspecto del sistema puede generar problemas nuevos y complejos. En este sentido, es crítico adoptar un enfoque interdisciplinario que contemple no solo los aspectos técnicos, sino también las implicaciones humanas y regulatorias. Teoría del Caos y la Aviación: El Factor Impredecible La teoría del caos estudia sistemas dinámicos no lineales donde el comportamiento es altamente sensible a las condiciones iniciales, lo que se conoce como el efecto mariposa. Este concepto es especialmente relevante en la aviación, donde fenómenos como las condiciones meteorológicas en un momento dado introducen un alto grado de imprevisibilidad. A pesar de los avances en la tecnología de pronóstico meteorológico, una leve variación en las condiciones atmosféricas puede generar desviaciones significativas en las rutas planificadas, afectando el consumo de combustible y la seguridad operacional. Asimismo, en situaciones de emergencia, las condiciones iniciales (como el estado de la aeronave o el entrenamiento de la tripulación) pueden variar mínimamente, pero estas pequeñas diferencias pueden tener un impacto crítico en los resultados, demostrando una vez más la imposibilidad de predecir con certeza el comportamiento de sistemas complejos bajo presión. Gestión de Riesgos en Aviación: Aceptando lo Irresoluble En la gestión de riesgos, se reconoce que algunos riesgos no pueden eliminarse por completo. La seguridad absoluta es un ideal inalcanzable, y el objetivo principal de los sistemas de seguridad es reducir los riesgos a niveles aceptables, en lugar de eliminarlos por completo. Este enfoque está alineado con el modelo de James Reason, ampliamente adoptado en la industria, que destaca cómo los accidentes ocurren cuando múltiples fallos en las capas de defensa se alinean de manera imprevista. Cada capa de defensa o barrera de seguridad, ya sea tecnológica, organizacional o humana, tiene “agujeros”, es decir, vulnerabilidades o condiciones latentes. Estas fallas no son necesariamente constantes, pero cuando coinciden, pueden abrir paso a una secuencia de eventos catastróficos. A pesar de los avances tecnológicos, siempre existirán riesgos residuales relacionados con el factor humano y la complejidad del sistema. En lugar de aspirar a una solución definitiva, las organizaciones aeronáuticas deben enfocarse en una gestión adaptativa y continua, aceptando que algunos problemas no tienen una solución única, pero que pueden ser mitigados y gestionados dentro de límites aceptables. Neurociencia y la Limitación en la Toma de Decisiones Los estudios en neurociencia, especialmente en el contexto de la toma de decisiones bajo presión, refuerzan la idea de que ciertos problemas no tienen una solución definitiva debido a las limitaciones cognitivas
La subjetividad, entre gigantes y molinos de Viento.

En esto descubrieron treinta o cuarenta molinos de viento que hay en aquel campo, y así como don Quijote los vio, dijo a su escudero: —La ventura va guiando nuestras cosas mejor de lo que acertáramos a desear; porque ves allí, amigo Sancho Panza, donde se descubren treinta o pocos más desaforados gigantes, con quienes pienso hacer batalla y quitarles a todos las vidas, con cuyos despojos comenzaremos a enriquecernos; que esta es buena guerra, y es gran servicio de Dios quitar tan mala simiente de sobre la faz de la tierra. —¿Qué gigantes? —dijo Sancho Panza. —Aquellos que allí ves —respondió su amo—, de los brazos largos, que los suelen tener algunos de casi dos leguas. —Mire vuestra merced —respondió Sancho— que aquellos que allí se parecen no son gigantes, sino molinos de viento, y lo que en ellos parecen brazos son las aspas, que, volteadas del viento, hacen andar la piedra del molino. —Bien parece —respondió don Quijote— que no estás cursado en esto de las aventuras: ellos son gigantes; y si tienes miedo, quítate de ahí y ponte en oración en el espacio que yo voy a entrar con ellos en fiera y desigual batalla. Y, diciendo esto, dio de espuelas a su caballo Rocinante, sin atender a las voces que su escudero Sancho le daba, advirtiéndole que sin duda alguna eran molinos de viento, y no gigantes aquellos que iba a acometer. Pero él iba tan puesto en que eran gigantes, que ni oía las voces de su escudero Sancho, ni echaba de ver, aunque estaba ya bien cerca, lo que eran; antes iba diciendo en voces altas: —Non fuyades, cobardes y viles criaturas, que un solo caballero es el que os acomete. (Cervantes Saavedra, M. de. (1605). Don Quijote de la Mancha (Parte I, Capítulo 8). España: Juan de la Cuesta.) Ni don Quijote ni Sancho Panza mienten. Uno ve desaforados gigantes donde el otro ve simples molinos de viento. Ambos reciben en sus ojos la misma señal electromagnética, pero la experiencia interna es bien distinta. Don Quijote no solo relata haber visto un gigante, sino que lo describe. No habla de lo que hay en el exterior, sino de lo que percibe. No es cierto ni falso, es ambos o ninguno. Lo que a Sancho Panza le parece un disparate, don Quijote lo siente real en su cuerpo. ¿Por qué el mundo de Sancho Panza es tan diferente al de don Quijote? Respuesta: La subjetividad. No existe otro mundo, excepto el que experimentamos. En el ámbito de la aviación, la objetividad se considera un pilar fundamental para la seguridad y la eficiencia en las operaciones. Sin embargo, la subjetividad, entendida como la percepción y evaluación personal de los estímulos y situaciones, juega un papel igualmente clave. La subjetividad dentro de nuestra actividad es un fenómeno complejo que puede influir en la toma de decisiones, la interpretación de la información y la interacción con otros miembros de la tripulación. Vamos a explorar la subjetividad desde una perspectiva científica, considerando aportes de la neurociencia y la psicología cognitiva. La subjetividad en este contexto puede entenderse a partir de cómo el cerebro humano procesa la información. La neurociencia nos muestra que el cerebro no es un receptor pasivo de datos sensoriales, sino que participa activamente en la interpretación de la información. Esta interpretación está influenciada por factores como la experiencia previa, las expectativas y el estado emocional. La profesora Catherine Tallon Baudry, (Investigadora principal del – Centre National de la Recherche Scientifique – CNRS. Su investigación se centra en la conciencia visual y las interacciones cerebro-cuerpo.), propone que el cerebro no es un ente aislado que procesa información de manera independiente, sino que está en constante diálogo con el organismo. Este intercambio continuo de señales entre el cerebro y el cuerpo forma lo que ella denomina “representaciones internas”, que son construcciones mentales basadas en cómo percibimos y reaccionamos a nuestro entorno. En el contexto del vuelo, esta teoría sugiere que la percepción de la realidad de un piloto no es simplemente una respuesta a los estímulos externos, como la lectura de los instrumentos o la observación del entorno, sino que también está influenciada por el estado interno del organismo, incluyendo la actividad visceral, el equilibrio homeostático, y las emociones. Este estado corporal influye en la percepción subjetiva de la situación, lo que podría llevar a una toma de decisiones que no sea completamente alineada con la realidad objetiva. Así, la percepción de riesgo, la evaluación de alternativas y la rapidez en la toma de decisiones pueden verse afectadas por cómo el cerebro interpreta las señales provenientes del organismo. Por ejemplo, la percepción visual, un sentido crítico en el pilotaje, está mediada por áreas del cerebro como la corteza visual y la corteza prefrontal. Estas áreas no solo procesan los estímulos visuales, sino que también los interpretan en función de la experiencia pasada y el contexto actual. Un piloto experimentado puede percibir una anomalía de manera diferente a un piloto con poca experiencia, lo que influye en su respuesta. El estrés y las emociones también juegan un papel fundamental en la subjetividad. El estrés agudo, que es común en situaciones de emergencia, puede alterar la percepción y la toma de decisiones al activar la amígdala y otras áreas del cerebro relacionadas con las respuestas de lucha o huida. Esto puede llevar a reacciones rápidas que no siempre son las más racionales o seguras. Además, la fatiga, que es un problema reconocido en la aviación, puede afectar la función cognitiva, reduciendo la capacidad del piloto para procesar información de manera eficiente y aumentando la dependencia de heurísticas o “reglas de oro” que pueden no ser adecuadas en todas las situaciones. La subjetividad también se manifiesta en la interacción con otros miembros de la tripulación. La comunicación efectiva es esencial para la coordinación en la cabina, pero está sujeta a interpretaciones subjetivas. La teoría de la mente, que es la capacidad de inferir los estados mentales de otros, lo
El reto continuo de Boeing tras el Incidente del Vuelo 1282777

El reciente incidente del Vuelo 1282 de Alaska Airlines, donde un tapón de puerta de un Boeing 737 Max 9 se desprendió en pleno vuelo, ha puesto una vez más a Boeing bajo el microscopio.