La subjetividad, entre gigantes y molinos de Viento.
En esto descubrieron treinta o cuarenta molinos de viento que hay en aquel campo, y así como don Quijote los vio, dijo a su escudero: —La ventura va guiando nuestras cosas mejor de lo que acertáramos a desear; porque ves allí, amigo Sancho Panza, donde se descubren treinta o pocos más desaforados gigantes, con quienes pienso hacer batalla y quitarles a todos las vidas, con cuyos despojos comenzaremos a enriquecernos; que esta es buena guerra, y es gran servicio de Dios quitar tan mala simiente de sobre la faz de la tierra. —¿Qué gigantes? —dijo Sancho Panza. —Aquellos que allí ves —respondió su amo—, de los brazos largos, que los suelen tener algunos de casi dos leguas. —Mire vuestra merced —respondió Sancho— que aquellos que allí se parecen no son gigantes, sino molinos de viento, y lo que en ellos parecen brazos son las aspas, que, volteadas del viento, hacen andar la piedra del molino. —Bien parece —respondió don Quijote— que no estás cursado en esto de las aventuras: ellos son gigantes; y si tienes miedo, quítate de ahí y ponte en oración en el espacio que yo voy a entrar con ellos en fiera y desigual batalla. Y, diciendo esto, dio de espuelas a su caballo Rocinante, sin atender a las voces que su escudero Sancho le daba, advirtiéndole que sin duda alguna eran molinos de viento, y no gigantes aquellos que iba a acometer. Pero él iba tan puesto en que eran gigantes, que ni oía las voces de su escudero Sancho, ni echaba de ver, aunque estaba ya bien cerca, lo que eran; antes iba diciendo en voces altas: —Non fuyades, cobardes y viles criaturas, que un solo caballero es el que os acomete. (Cervantes Saavedra, M. de. (1605). Don Quijote de la Mancha (Parte I, Capítulo 8). España: Juan de la Cuesta.) Ni don Quijote ni Sancho Panza mienten. Uno ve desaforados gigantes donde el otro ve simples molinos de viento. Ambos reciben en sus ojos la misma señal electromagnética, pero la experiencia interna es bien distinta. Don Quijote no solo relata haber visto un gigante, sino que lo describe. No habla de lo que hay en el exterior, sino de lo que percibe. No es cierto ni falso, es ambos o ninguno. Lo que a Sancho Panza le parece un disparate, don Quijote lo siente real en su cuerpo. ¿Por qué el mundo de Sancho Panza es tan diferente al de don Quijote? Respuesta: La subjetividad. No existe otro mundo, excepto el que experimentamos. En el ámbito de la aviación, la objetividad se considera un pilar fundamental para la seguridad y la eficiencia en las operaciones. Sin embargo, la subjetividad, entendida como la percepción y evaluación personal de los estímulos y situaciones, juega un papel igualmente clave. La subjetividad dentro de nuestra actividad es un fenómeno complejo que puede influir en la toma de decisiones, la interpretación de la información y la interacción con otros miembros de la tripulación. Vamos a explorar la subjetividad desde una perspectiva científica, considerando aportes de la neurociencia y la psicología cognitiva. La subjetividad en este contexto puede entenderse a partir de cómo el cerebro humano procesa la información. La neurociencia nos muestra que el cerebro no es un receptor pasivo de datos sensoriales, sino que participa activamente en la interpretación de la información. Esta interpretación está influenciada por factores como la experiencia previa, las expectativas y el estado emocional. La profesora Catherine Tallon Baudry, (Investigadora principal del – Centre National de la Recherche Scientifique – CNRS. Su investigación se centra en la conciencia visual y las interacciones cerebro-cuerpo.), propone que el cerebro no es un ente aislado que procesa información de manera independiente, sino que está en constante diálogo con el organismo. Este intercambio continuo de señales entre el cerebro y el cuerpo forma lo que ella denomina “representaciones internas”, que son construcciones mentales basadas en cómo percibimos y reaccionamos a nuestro entorno. En el contexto del vuelo, esta teoría sugiere que la percepción de la realidad de un piloto no es simplemente una respuesta a los estímulos externos, como la lectura de los instrumentos o la observación del entorno, sino que también está influenciada por el estado interno del organismo, incluyendo la actividad visceral, el equilibrio homeostático, y las emociones. Este estado corporal influye en la percepción subjetiva de la situación, lo que podría llevar a una toma de decisiones que no sea completamente alineada con la realidad objetiva. Así, la percepción de riesgo, la evaluación de alternativas y la rapidez en la toma de decisiones pueden verse afectadas por cómo el cerebro interpreta las señales provenientes del organismo. Por ejemplo, la percepción visual, un sentido crítico en el pilotaje, está mediada por áreas del cerebro como la corteza visual y la corteza prefrontal. Estas áreas no solo procesan los estímulos visuales, sino que también los interpretan en función de la experiencia pasada y el contexto actual. Un piloto experimentado puede percibir una anomalía de manera diferente a un piloto con poca experiencia, lo que influye en su respuesta. El estrés y las emociones también juegan un papel fundamental en la subjetividad. El estrés agudo, que es común en situaciones de emergencia, puede alterar la percepción y la toma de decisiones al activar la amígdala y otras áreas del cerebro relacionadas con las respuestas de lucha o huida. Esto puede llevar a reacciones rápidas que no siempre son las más racionales o seguras. Además, la fatiga, que es un problema reconocido en la aviación, puede afectar la función cognitiva, reduciendo la capacidad del piloto para procesar información de manera eficiente y aumentando la dependencia de heurísticas o “reglas de oro” que pueden no ser adecuadas en todas las situaciones. La subjetividad también se manifiesta en la interacción con otros miembros de la tripulación. La comunicación efectiva es esencial para la coordinación en la cabina, pero está sujeta a interpretaciones subjetivas. La teoría de la mente, que es la capacidad de inferir los estados mentales de otros, lo
Principios y prácticas para prevenir fallos y errores en sistemas complejos como la aviación.
La aviación es el ejemplo de un sistema complejo donde los errores pueden tener consecuencias catastróficas. La seguridad en la aviación es una cuestión crítica y ha sido el enfoque de intensos esfuerzos durante muchas décadas. En este artículo, discutiré algunos de los principios y prácticas que pueden ayudar a prevenir fallos. Es importante entender que los errores son inevitables. Los sistemas complejos siempre tienen margen para el error humano. En lugar de centrarse en eliminar completamente los errores lo que sería una tarea hercúlea, debemos centrarnos en minimizarlos y gestionarlos adecuadamente cuando ocurren. La gestión de los errores comienza con el diseño del sistema. Los sistemas deben ser diseñados de manera que minimicen las oportunidades de cometer errores. Esto puede incluir la simplificación de los procesos, la eliminación de pasos innecesarios, la mejora de la retroalimentación del sistema y la mejora de la formación y el entrenamiento de los pilotos. Los procesos que deben ser gestionados son dinámicos, ya que evolucionan continuamente (me refiero a procesos continuos), ya sea con o sin la intervención humana. Esta dinámica les otorga una evolutividad e inestabilidad que dificulta su control. A pesar de ello, siguen bajo control humano (por lo menos por ahora). Sin importar el grado de tecnificación o nivel de automatización, no pueden operar de manera óptima y prevenir riesgos catastróficos sin la presencia de un humano encargado de supervisar el sistema. Existen riesgos, y el concepto de riesgo debe entenderse aquí en dos sentidos: en primer lugar, el riesgo clásico de accidentes, presente en todos los sistemas. En segundo lugar, el riesgo personal de que el piloto cometa un error o se arriesgue debido a la falta de conocimientos. Esto refleja una frustración-miedo de no estar a la altura de sus responsabilidades, a no comprender una situación delicada o no contar con el tiempo suficiente para resolverlo. Otro aspecto crítico para prevenir fallos en sistemas complejos es la gestión del cambio. Los cambios en el sistema, ya sea en el diseño o en la operación, pueden crear nuevas oportunidades para errores humanos. Por lo tanto, es importante tener un proceso bien definido y riguroso para gestionar los cambios que se incorporen. Esto debe incluir una evaluación cuidadosa de los peligros y los riesgos asociados, la identificación de medidas de mitigación de peligros, la gestión de los índices de riesgos, la formación y el entrenamiento de los pilotos y técnicos en los nuevos procesos o tecnologías. Recordemos lo sucedido con Boeing. La controversia en torno al software de control de vuelo MCAS (Maneuvering Characteristics Augmentation System) de los aviones 737 NG y MAX, que ha sido objeto de críticas después de dos accidentes fatales de los modelos MAX en 2018 y 2019 con 346 víctimas mortales. Según los informes, Boeing se opuso a los requisitos adicionales de simulador para las variaciones en el software MCAS entre los modelos 737 NG y MAX. En lugar de eso, la compañía optó (siempre se trada de toma de decisiones) por no mencionar el MCAS en la documentación de entrenamiento de los pilotos, lo que significa que no estaban adecuadamente capacitados para manejar el sistema de control de vuelo. Se ha informado que la compañía quería evitar la necesidad de que los pilotos pasaran por un costoso y prolongado entrenamiento en simuladores de vuelo, lo que habría retrasado la entrega de los aviones MAX y aumentado los costos de producción. Esto ha llevado a críticas de que Boeing puso las ganancias por encima de la seguridad (mucha opción para refutar esto no existe) y que se apresuró a lanzar el modelo MAX al mercado sin la debida atención a los riesgos potenciales. Como resultado, los accidentes fatales de los modelos MAX han llevado a una mayor supervisión y regulación de la industria de la aviación, así como a cambios en la cultura y las prácticas de seguridad de la compañía Boeing, un poquito tarde y 346 victimás después. La comunicación es otro factor crítico en la prevención de fallos en sistemas complejos. Los sistemas complejos, a menudo, implican múltiples partes interesadas y equipos de trabajo. La comunicación clara y efectiva es fundamental para garantizar que todos los involucrados tengan una comprensión precisa de los procesos, las responsabilidades y las expectativas. Esto incluye la comunicación en tiempo real durante la operación del sistema, así como la documentación detallada y precisa de los procesos y procedimientos. La capacitación y el entrenamiento de los operadores también son fundamentales para prevenir fallos en sistemas complejos. Los operadores del sistema deben tener una comprensión clara de los procesos y procedimientos, así como de las capacidades y limitaciones del mismo. Además, deben estar entrenados en la toma de decisiones bajo presión y en la gestión de situaciones de emergencia. Los sistemas complejos son sistemas intrínsecamente peligrosos. Todos los sistemas, como la aviación, la medicina y la industria energética, son inherente e inevitablemente peligrosos por su propia naturaleza. La frecuencia de exposición al peligro a veces se puede cambiar, pero los procesos involucrados en el sistema son intrínseca e irreductiblemente peligrosos en sí mismos. Es la presencia de estos peligros lo que impulsa la creación de defensas que caracterizan a estos sistemas. Los sistemas complejos se defienden fuerte y exitosamente contra fallas. Las altas consecuencias del fracaso, con el tiempo, llevan a la construcción de múltiples capas de defensa. Estas defensas incluyen componentes técnicos obvios, como sistemas de respaldo y características de seguridad del equipo, así como componentes humanos, capacitación y conocimiento. También existen defensas organizacionales, institucionales y reglamentarias, como políticas y procedimientos, certificación y entrenamiento del equipo. El efecto de estas medidas es proporcionar una serie de escudos que normalmente previenen los accidentes en sistemas de alta complejidad. Una catástrofe requiere múltiples fallas No basta con fallas puntuales. La variedad de defensas funciona y las operaciones del sistema suelen ser exitosas. La falla catastrófica se manifiesta cuando pequeñas fallas aparentemente inocuas se combinan para crear oportunidades de accidentes sistémicos. Cada una de estas pequeñas fallas es necesaria para causar
El miedo no es zonzo, es una emoción.
La mención de la palabra emoción suele traer a la mente una de las seis emociones llamadas primarias o universales: felicidad, tristeza, miedo, cólera, sorpresa o disgusto. Simplifica el problema pensar en las emociones primarias pero es importante darse cuenta de que hay otros numerosos comportamientos a los que se ha etiquetado como «emociones». Son las llamadas emociones secundarias o sociales, como la turbación, los celos, la culpa, el orgullo, o las llamadas emociones de fondo, como el bienestar o el malestar, la calma o la tensión. También se ha aplicado la etiqueta de emoción a los impulsos y a las motivaciones y a los estados de dolor y placer.
Evitar las distracciones
Cualquier persona que esté realizando una tarea puede distraerse. Pero el potencial que esa distracción provoque un desastre es mucho mayor en la aviación. Algunas catástrofes aéreas importantes han sido consecuencia de la distracción de la tripulación. A veces, la falta de atención solo da lugar a una advertencia, y otras a una investigación porque terminó en un accidente. Ninguna de las dos cosas son buenas. Entonces, ¿cómo podemos mitigar los riesgos de las distracciones?
Neurociencia y el futuro de la aviación
Saber cómo funciona el avión está ampliamente aceptado como esencial para un vuelo seguro. Los recientes desarrollos en neurociencia significan que este principio ahora se puede aplicar al componente más complejo e inescrutable de cualquier avión tripulado: el piloto.