Cómo las suposiciones pueden poner en peligro tu vuelo.

En una noche clara, un piloto con habilitación para vuelo nocturno se prepara para despegar en un Piper Archer de mediados de los años 70. La inspección previa al vuelo revela un pequeño problema: la tapa del medidor de aceite está demasiado apretada. El conductor del camión de combustible se ofrece a ayudar, y el piloto, confiado, continúa con su lista de verificación. Esta decisión desencadena una serie de eventos que pondrán a prueba no solo su habilidad como aviador, sino también su comprensión de la naturaleza humana y el riesgo.

La historia.

El problema comenzó de manera bastante inocua durante la inspección previa al vuelo. La tapa de la varilla de medición de aceite estaba demasiado ajustada para que el piloto la pudiera aflojar a mano. Hizo señas al conductor del camión proveedor de combustible y le pidió prestadas sus pinzas. En lugar de eso, el conductor se ofreció a ocuparse de la tapa ajustada por el piloto, y ahí fue cuando cometió la suposición número 1: ahora que había llegado la ayuda, podía continuar su inspección previa al vuelo.

Mientras estaba ocupado revisando el combustible en busca de agua, escuchó al conductor del camión desabrochar los 4 cierres del carenado para acceder al motor. Unos segundos después, le informó que había desenroscado la tapa de aceite y que el nivel estaba bien. Le agradeció y lo oyó colocar la cubierta del motor de nuevo en su lugar mientras soltaba la cuerda de amarre trasera. El conductor siguió adelante con su próxima parada y se subió a la aeronave. Sin darse cuenta, había cometido la suposición número 2: el conductor había asegurado las trabas del carenado del motor.

Ansioso por despegar, dejó de pensar en la varilla de medición atascada y se concentró en la lista de verificación previa al despegue. La prueba de motor y el rodaje hasta la pista activa transcurrieron sin incidentes. Sin tráfico en el circuito, obtuvo autorización inmediata para despegar en la pista activa.

El altímetro superaba los 300 pies y el final de la pista pasaba bajo la aeronave cuando la cubierta se levantó, sostenida solo por las trabas. Ahora el carenado estaba en posición como una hoja en el parabrisas, a solo pulgadas de distancia, vibrando.

La vergüenza inicial que sintió por haber sido tan descuidado se convirtió en un frío temor. La cubierta bloqueaba casi por completo su vista. Su primer instinto fue reducir la potencia para aliviar la tensión en los cierres, pero las innumerables advertencias sobre los peligros de reducir la potencia en el despegue mantuvieron su mano lejos del acelerador.

Además, pensó que era mejor llegar a la altura del circuito para tener suficiente altitud para completar el circuito y volver a la pista lo antes posible. Todavía no apreciaba lo difícil que iba a ser.

En lugar de la pista, todo lo que podía ver era un gran cuadro negro.

‘volar, navegar, comunicar’ era el mantra que le habían inculcado en la escuela de vuelo. Forzó su atención lejos del carenado ondeante y escudriñó el panel de instrumentos. Satisfecho de que la aeronave funcionaba normalmente, la inclinó con cuidado hacia la pierna inicial. Solo entonces informó a la torre de que tenía un problema técnico y solicitó un aterrizaje completo.

Volando casi a ciegas, siguió el patrón del circuito utilizando las luces de la pista y los instrumentos para mantener un vuelo recto y nivelado en final. Redujo la potencia para girar hacia basica, esperando que la reducción de velocidad hiciera bajar la cubierta. Pero no tuvo suerte. En lugar de la pista, todo lo que podía ver era un gran cuadro negro.

El carenado se había levantado un poco más en el lado derecho, exponiendo una estrecha brecha entre la visión de la pista y el carenado del motor. A través de esta abertura, podía ver aproximadamente una décima parte de lo que tenía por delante. Era como dirigir un barco a través de un ojo de buey. Y para ver incluso eso, tenía que mantener una actitud descendente. Una vez que se nivelara en el aterrizaje, volvería a estar ciego. Recordó lo que sus instructores habían dicho sobre usar solo la visión periférica para aterrizar. No había pensado mucho en ello en ese momento, pero ahora era todo lo que tenía.

Pensando que un aterrizaje tocando con las ruedas principales era mejor que un aterrizaje sobre la rueda delantera, cortó el acelerador restante tan pronto como la aeronave pasó sobre el umbral de la pista, elevó la nariz suavemente y esperó a que la aeronave perdiera sustentación. Se tomó su tiempo, pero con 1500 metros de pista, estaba más preocupado por mantenerse centrado entre las luces de la pista. Finalmente, un suave golpe de las ruedas principales y uno para la rueda delantera.

Rodó de regreso al hangar y, a la luz del mismo, aseguró las escotillas de forma segura. Resistió la tentación de felicitarse por la resolución de su primera emergencia real en vuelo. Se había causado el problema él mismo.

Veamos

La teoría del “nivel objetivo de riesgo” de Gerald J.S. Wilde sugiere que cada individuo tiene una percepción única del riesgo que está dispuesto a asumir y ajusta su comportamiento en consecuencia. En este caso, el piloto, tal vez influenciado por un sesgo de optimismo, como lo describiría Daniel Kahneman, asume que la situación de la tapa de la varilla de aceite está bajo control. Sin embargo, las suposiciones pueden ser peligrosas, especialmente en un entorno de alto riesgo como la aviación.
El conductor del camión de combustible, en un intento de ser útil, desabrocha los pestillos del capó para acceder al motor. Esta acción, aunque bien intencionada, resulta ser un error crítico. Durante el despegue, el capó se abre repentinamente, y ya sabemos como sigue la historia.

Aquí, la teoría de Sidney Dekker sobre la percepción del riesgo en sistemas complejos y culturas organizacionales cobra vida. El piloto se encuentra en un sistema donde una pequeña suposición ha desencadenado un fallo que pudo ser catastrófico, algo que James Reason en su modelo del “queso suizo” identificaría como un agujero en una de las múltiples capas de defensa del sistema. Estas barreras que se van construyendo dentro del proceso son imaginadas por el autor como láminas de queso suizo con agujeros. Estos agujeros corresponden a las fallas activas y condiciones latentes, que existen en cualquier proceso, y que continuamente se están abriendo, cerrando y cambiando de ubicación. Cuando se “alinean” hacen que la amenaza se materialice, produciendo daños. En este caso la falla activa fue no supervisar que el carenado querada efectivamente asegurado. Podríamos establecerlo como «supervisión» que es una de las defensas que propone en su modelo.

En medio de la crisis, recuerda el mantra de la aviación: “Volar, navegar, comunicar”. Con visibilidad mínima por el capó suelto, se concentra en los instrumentos y logra aterrizar la aeronave de manera segura. Este acto de pericia y valentía demuestra la importancia de la experiencia y la intuición en la toma de decisiones, algo que Dekker y Reason considerarían crucial en sistemas complejos.

El incidente sirve como un recordatorio contundente de la importancia de cuestionar nuestras suposiciones y mantener una atención constante en la seguridad. Esto último es importante, mantener la concentración, la atención plena sobre lo que se está haciendo.

Nicolás Sánchez, la concentración le permite interceptar la guinda y convertir el try que le otorgó la victoria a Los Pumas. Un estado de atención plena para realizar la anticipación de la jugada que estaba desarrollando Gales. Un estado de atención plena en la inspección previa al vuelo, nos permite interceptar los peligros antes de dar potencia y despegar.

Este evento destaca cómo nuestras percepciones individuales del riesgo, influenciadas por sesgos cognitivos y emocionales, pueden tener un impacto significativo en situaciones de peligro. Los sesgos pueden llevarnos a subestimar los riesgos y sobreestimar nuestras capacidades (o las de otros) para manejarlos.

Los trabajos de Gerald Wilde y Daniel Kahneman han abordado extensamente cómo los individuos evalúan y responden al riesgo. Wilde, en su “Teoría del Riesgo Homeostático”, argumenta que las personas tienen un nivel aceptable de riesgo y tomarán medidas para mantener ese nivel, ya sea aumentando o disminuyendo las precauciones. En este caso el riesgo percibido por la colaboración bienintencionada era aceptable. Kahneman, por otro lado, ha explorado cómo los sesgos cognitivos afectan nuestra toma de decisiones en situaciones de riesgo, como se detalla en su libro “Pensar rápido, pensar despacio”.

Por lo tanto, para abordar eficazmente los riesgos y mejorar la seguridad, es esencial adoptar un enfoque holístico que combine tanto las teorías individuales como las sistémicas. Este enfoque permitirá no solo identificar y mitigar los sesgos individuales, sino también fortalecer los sistemas y procesos que ayudan a prevenir incidentes.

La historia del piloto y su vuelo nocturno es un testimonio de la complejidad de la toma de decisiones en entornos de alto riesgo. Nos enseña que, aunque la intuición y la experiencia son vitales, también lo son la vigilancia constante y la voluntad de cuestionar nuestras propias suposiciones (transferir a otra persona la responsabilidad de una tarea que debería realizar personalmente y no verifico que se realizara adecuadamente). En la vida y en la aviación, la seguridad debe ser siempre nuestra máxima prioridad.

Ahora bien, hagamos una pregunta ¿es posible eliminar los sesgos? No. Es una lucha quijotesca contra los molinos de viento. La mejor forma de abordarlos es conociéndolos y tomar conciencia de su existencia, educar sobre qué son los sesgos cognitivos, cómo funcionan y cuáles son los más comunes; cómo pueden afectar la toma de decisiones. James Reason destaca la importancia de un sistema de informes fuerte y sin culpabilidad para identificar los puntos débiles en las defensas del sistema. Reconocer y documentar los sesgos en la toma de decisiones puede ser una primera línea de defensa para mitigar errores futuros.

Desacelerar el proceso de toma de decisiones. Kahneman diferencia entre el «Sistema 1», que es rápido, instintivo y emocional, y el «Sistema 2», que es más lento, deliberativo y lógico. Fomentar el uso del Sistema 2 puede ayudar a evaluar los riesgos de manera más cuidadosa. En la historia del piloto, por ejemplo, una simple verificación de la labor realizada por el conductor del camión de combustible podría haber evitado el incidente. Es crucial que las personas aprendan a cuestionar sus suposiciones, especialmente en situaciones con un margen estrecho de error. La seguridad operacional no se trata solamente de las organizaciones, el SMS, y grandes riesgos. Está también en las pequeñas cosas, fundamentalmente en las pequeñas cosas como una simple verificación.

Educación y Formación. Educar a las personas sobre la existencia de sesgos cognitivos puede ser el primer paso para corregirlos. Las simulaciones y las formacion que imiten situaciones reales pueden ayudarte a reconocer tus propios sesgos.

Hasta la próxima
Paz y bien – Námaste
Roberto Gómez
rjg@flap152.com

Si te gustó esta nota, hacete socio de la página:


Invitame un café en cafecito.app

Suscribirme

Seguí navegando

Inicio

Sobre FLAP152

Blog

Contacto


Deprecated: Directive 'allow_url_include' is deprecated in Unknown on line 0