fbpx

Principios y prácticas para prevenir fallos y errores en sistemas complejos como la aviación.

Factores humanos en aviación

La aviación es el ejemplo de un sistema complejo donde los errores pueden tener consecuencias catastróficas. La seguridad en la aviación es una cuestión crítica y ha sido el enfoque de intensos esfuerzos durante muchas décadas. En este artículo, discutiré algunos de los principios y prácticas que pueden ayudar a prevenir fallos. Es importante entender que los errores son inevitables. Los sistemas complejos siempre tienen margen para el error humano. En lugar de centrarse en eliminar completamente los errores lo que sería una tarea hercúlea, debemos centrarnos en minimizarlos y gestionarlos adecuadamente cuando ocurren. La gestión de los errores comienza con el diseño del sistema. Los sistemas deben ser diseñados de manera que minimicen las oportunidades de cometer errores. Esto puede incluir la simplificación de los procesos, la eliminación de pasos innecesarios, la mejora de la retroalimentación del sistema y la mejora de la formación y el entrenamiento de los pilotos. Los procesos que deben ser gestionados son dinámicos, ya que evolucionan continuamente (me refiero a procesos continuos), ya sea con o sin la intervención humana. Esta dinámica les otorga una evolutividad e inestabilidad que dificulta su control. A pesar de ello, siguen bajo control humano (por lo menos por ahora). Sin importar el grado de tecnificación o nivel de automatización, no pueden operar de manera óptima y prevenir riesgos catastróficos sin la presencia de un humano encargado de supervisar el sistema. Existen riesgos, y el concepto de riesgo debe entenderse aquí en dos sentidos: en primer lugar, el riesgo clásico de accidentes, presente en todos los sistemas. En segundo lugar, el riesgo personal de que el piloto cometa un error o se arriesgue debido a la falta de conocimientos. Esto refleja una frustración-miedo de no estar a la altura de sus responsabilidades, a no comprender una situación delicada o no contar con el tiempo suficiente para resolverlo. Otro aspecto crítico para prevenir fallos en sistemas complejos es la gestión del cambio. Los cambios en el sistema, ya sea en el diseño o en la operación, pueden crear nuevas oportunidades para errores humanos. Por lo tanto, es importante tener un proceso bien definido y riguroso para gestionar los cambios que se incorporen. Esto debe incluir una evaluación cuidadosa de los peligros y los riesgos asociados, la identificación de medidas de mitigación de peligros, la gestión de los índices de riesgos, la formación y el entrenamiento de los pilotos y técnicos en los nuevos procesos o tecnologías. Recordemos lo sucedido con Boeing. La controversia en torno al software de control de vuelo MCAS (Maneuvering Characteristics Augmentation System) de los aviones 737 NG y MAX, que ha sido objeto de críticas después de dos accidentes fatales de los modelos MAX en 2018 y 2019 con 346 víctimas mortales. Según los informes, Boeing se opuso a los requisitos adicionales de simulador para las variaciones en el software MCAS entre los modelos 737 NG y MAX. En lugar de eso, la compañía optó (siempre se trada de toma de decisiones) por no mencionar el MCAS en la documentación de entrenamiento de los pilotos, lo que significa que no estaban adecuadamente capacitados para manejar el sistema de control de vuelo. Se ha informado que la compañía quería evitar la necesidad de que los pilotos pasaran por un costoso y prolongado entrenamiento en simuladores de vuelo, lo que habría retrasado la entrega de los aviones MAX y aumentado los costos de producción. Esto ha llevado a críticas de que Boeing puso las ganancias por encima de la seguridad (mucha opción para refutar esto no existe) y que se apresuró a lanzar el modelo MAX al mercado sin la debida atención a los riesgos potenciales. Como resultado, los accidentes fatales de los modelos MAX han llevado a una mayor supervisión y regulación de la industria de la aviación, así como a cambios en la cultura y las prácticas de seguridad de la compañía Boeing, un poquito tarde y 346 victimás después. La comunicación es otro factor crítico en la prevención de fallos en sistemas complejos. Los sistemas complejos, a menudo, implican múltiples partes interesadas y equipos de trabajo. La comunicación clara y efectiva es fundamental para garantizar que todos los involucrados tengan una comprensión precisa de los procesos, las responsabilidades y las expectativas. Esto incluye la comunicación en tiempo real durante la operación del sistema, así como la documentación detallada y precisa de los procesos y procedimientos. La capacitación y el entrenamiento de los operadores también son fundamentales para prevenir fallos en sistemas complejos. Los operadores del sistema deben tener una comprensión clara de los procesos y procedimientos, así como de las capacidades y limitaciones del mismo. Además, deben estar entrenados en la toma de decisiones bajo presión y en la gestión de situaciones de emergencia. Los sistemas complejos son sistemas intrínsecamente peligrosos. Todos los sistemas, como la aviación, la medicina y la industria energética, son inherente e inevitablemente peligrosos por su propia naturaleza. La frecuencia de exposición al peligro a veces se puede cambiar, pero los procesos involucrados en el sistema son intrínseca e irreductiblemente peligrosos en sí mismos. Es la presencia de estos peligros lo que impulsa la creación de defensas que caracterizan a estos sistemas. Los sistemas complejos se defienden fuerte y exitosamente contra fallas. Las altas consecuencias del fracaso, con el tiempo, llevan a la construcción de múltiples capas de defensa. Estas defensas incluyen componentes técnicos obvios, como sistemas de respaldo y características de seguridad del equipo, así como componentes humanos, capacitación y conocimiento. También existen defensas organizacionales, institucionales y reglamentarias, como políticas y procedimientos, certificación y entrenamiento del equipo. El efecto de estas medidas es proporcionar una serie de escudos que normalmente previenen los accidentes en sistemas de alta complejidad. Una catástrofe requiere múltiples fallas No basta con fallas puntuales. La variedad de defensas funciona y las operaciones del sistema suelen ser exitosas. La falla catastrófica se manifiesta cuando pequeñas fallas aparentemente inocuas se combinan para crear oportunidades de accidentes sistémicos. Cada una de estas pequeñas fallas es necesaria para causar

El miedo no es zonzo, es una emoción.

La mención de la palabra emoción suele traer a la mente una de las seis emociones llamadas primarias o universales: felicidad, tristeza, miedo, cólera, sorpresa o disgusto. Simplifica el problema pensar en las emociones primarias pero es importante darse cuenta de que hay otros numerosos comportamientos a los que se ha etiquetado como «emociones». Son las llamadas emociones secundarias o sociales, como la turbación, los celos, la culpa, el orgullo, o las llamadas emociones de fondo, como el bienestar o el malestar, la calma o la tensión. También se ha aplicado la etiqueta de emoción a los impulsos y a las motivaciones y a los estados de dolor y placer.

Evitar las distracciones

Cualquier persona que esté realizando una tarea puede distraerse. Pero el potencial que esa distracción provoque un desastre es mucho mayor en la aviación. Algunas catástrofes aéreas importantes han sido consecuencia de la distracción de la tripulación. A veces, la falta de atención solo da lugar a una advertencia, y otras a una investigación porque terminó en un accidente. Ninguna de las dos cosas son buenas. Entonces, ¿cómo podemos mitigar los riesgos de las distracciones?

Neurociencia y el futuro de la aviación

Saber cómo funciona el avión está ampliamente aceptado como esencial para un vuelo seguro. Los recientes desarrollos en neurociencia significan que este principio ahora se puede aplicar al componente más complejo e inescrutable de cualquier avión tripulado: el piloto.

Priorización de tareas en la cabina de vuelo

Los pilotos deben evaluar, priorizar, ejecutar, monitorear y realizar tareas continuamente en la medida de su capacidad para completar de manera segura y efectiva su vuelo, a menudo en situaciones críticas de tiempo y en un entorno dinámico, cambiante. Las limitaciones en las habilidades de los pilotos para realizar múltiples tareas (la ilusión de la multitarea) están relacionadas con muchos factores. Para comprender y gestionar mejor esas limitaciones, los procesos cognitivos, como la teoría de un solo canal, la teoría de múltiples canales y la teoría de múltiples recursos, se identifican y se relacionan con las limitaciones cognitivas. Pueden ver las últimas publicaciones que he realizado para ampliar este tema y corroborar como se van enlazando los temas. Se estudian los métodos que utilizan los pilotos para lidiar con esas limitaciones cognitivas, incluida la gestión de la atención, de la carga de trabajo y la gestión de tareas.