fbpx

Conciencia Situacional Distribuida | DCS

El rol humano cambiante

Hay que entender que la digitalización no reemplaza completamente a una persona, por lo menos por ahora, en aviación. Si cambia su tarea, trabajo o rol. En su artículo Ironies of Automation, Lisanne Bainbridge señaló que tendemos a automatizar aquellos elementos de un proceso que son fáciles de automatizar. Esto puede conducir al fenómeno de la «automatización sobrante», en la que hay un conjunto fragmentario de tareas y los impactos asociados en la conciencia situacional (SA), la satisfacción laboral y el rendimiento.
Los cambios generan preguntas sobre lo que podemos hacer como profesionales involucrados en la aviación y otros sectores, para asegurarnos de maximizar el potencial de brillantez de las personas y las tecnologías, minimizando el impacto de la falibilidad.
En la práctica de factores humanos, siempre hemos adoptado la filosofía de «adaptar el trabajo a la persona». Tal vez ahora se describa mejor como «adaptar el trabajo a las personas», o incluso, «adaptar el sistema a las personas y las tecnologías». Sea cual sea el enfoque que adoptemos, mantener nuestra curiosidad es clave.

¿Qué es la Conciencia Situacional?

A un nivel simple, es el término utilizado en factores humanos para describir la conciencia que tienen las personas de «lo que sucede» a su alrededor mientras realizan tareas dinámicas.
Endsley (1995) la define de la siguiente manera: es “la percepción de los elementos del entorno dentro de un volumen de tiempo y espacio, la comprensión de su significado y la proyección de su estado en un futuro próximo”.

El concepto surgió por primera vez en la aviación durante la Primera Guerra Mundial y se ha convertido en uno de los temas más estudiados y debatidos en factores humanos, hay amplia bibliografía al respecto.
Aunque el enfoque inicial estaba en la conciencia situacional que tenían los individuos, ahora se ha ampliado para considerar la SA de equipos, organizaciones e incluso sistemas sociotécnicos completos. Sin embargo, la relación entre la SA y el desempeño es compleja y se reconoce ampliamente que la SA es una consideración crítica al diseñar el trabajo y los sistemas de trabajo. Es especialmente pertinente considerar la SA al diseñar e introducir automatización avanzada como ocurre en las cabinas actualmente.

Conciencia Situacional Distribuida (DSA)

Aunque gran parte de la investigación inicial sobre la conciencia situacional se centró en los operadores humanos individuales (p. ej., pilotos, conductores de vehículos, soldados), ha habido un cambio significativo en la última década hacia modelos que ven la conciencia situacional como un sistema.
Sobre la base de distintos programas de investigación centrados en los sistemas de mando y control en los ámbitos civil y de defensa, (Stanton et al. (2006) y Salmón et al. (2009)) propusieron un modelo de DSA que intentaba cambiar la unidad de análisis de individuos y equipos a sistemas sociotécnicos. Inspirado por el trabajo de Hutchins sobre la cognición distribuida, el modelo DSA argumenta que la conciencia situacional es una propiedad emergente que posee el sistema general y se construye a través de interacciones entre ‘agentes’, tanto humanos (por ejemplo, operadores, pilotos, conductores de vehículos, etc) como no humanos (por ejemplo, documentos, pantallas). Además, el modelo pretende que la SA no la tiene ningún agente por sí solo (humano o no humano), sino que reside en las interacciones que ocurren en el sistema sociotécnico.

Resumiendo ¿Qué es la conciencia situacional distribuida? La idea general es que, en los sistemas sociotécnicos, ninguna persona o «agente» tiene toda la conciencia situacional necesaria para que el sistema funcione de manera efectiva.

Una pregunta interesante para reflexionar ¿Pueden diferentes agentes tener la misma conciencia situacional?
La investigación ha demostrado que diferentes personas tienen puntos de vista diferentes sobre una situación, incluso cuando tienen acceso a la misma información. La SA de cada uno está influenciada por sus objetivos, las tareas que están realizando y su experiencia en situaciones similares. El hecho de que diferentes personas tengan diferente conciencia situacional tiene implicaciones para el diseño del sistema.


En lugar de intentar lograr una SA compartida donde todos tengan el mismo conocimiento de una situación, se ha encontrado que una conciencia situacional compatible es más apropiada.


Esto se logra cuando la SA de diferentes personas se conecta para darle al sistema general, también una imagen general. Lograr una SA compatible implica reconocer que las personas tienen diferentes puntos de vista sobre una situación identificando quién necesita: qué información, cuándo y en qué formato. Las incompatibilidades pueden dar lugar a un DSA subóptima donde existen lagunas en la SA necesaria para un rendimiento eficaz.

Cada componente/individuo tiene una comprensión/mapeo mental único que debe ser compatible (pero no idéntico) con otros individuos para asegurar una coordinación exitosa de las tareas que realizan.

Una característica interesante de DSA es que considera explícitamente la SA de los agentes tecnológicos así como la de los agentes humanos. La idea de que los agentes no humanos pudieran ser conscientes de la situación fue controvertida al principio, pero desde entonces se ha vuelto muy relevante debido a avances como la inteligencia artificial. A medida que dichos agentes recopilan, interpretan y comparten información, desempeñan un papel fundamental para garantizar que un sistema pueda generar la DSA necesario para un rendimiento seguro y eficiente. Desafortunadamente, lo que estamos viendo en muchas áreas es una falta de consideración del importante papel que juegan los agentes tecnológicos en la DSA.

Es importante tener en cuenta esto al diseñar e introducir tecnologías avanzadas. Con tecnologías avanzadas como la automatización, debemos considerar no solo la SA de los agentes humanos, sino también la SA en poder de la automatización y cómo comparte información relacionada con la SA con humanos y otras tecnologías y viceversa ¿se entiende la idea?

Han ocurrido varios incidentes en los que la automatización avanzada no ha sido «consciente» de algo que debía serlo, o en los que la automatización no ha comunicado información crítica a los agentes humanos. Esto no se debe a que la automatización haya fallado, sino a que los diseñadores no han considerado completamente lo que la automatización necesita saber o qué información relacionada con la SA debe pasar de la automatización a los operadores humanos. Como resultado, se están descubriendo fallas en DSA que pueden conducir, en determinadas situaciones, a una catástrofe, como la que sigue.

Lo qué sucede cuando los sistemas «pierden» la DSA.

A medida que DSA se degrada, aumenta el riesgo de falla del sistema. Ejemplos recientes de incidentes que involucran fallas de DSA incluyen el accidente del Air France 447.

Al investigar es importante mantener una perspectiva de sistemas. Puede ser tentador (y sucede a menudo) tratar de identificar al individuo que «perdió la conciencia situacional». Sin embargo, dado que el SA requerida para el desempeño efectivo no es algo que pueda poseer un solo individuo, en consecuencia no puede ser perdida por un solo individuo. Por lo tanto, el punto de vista más apropiado a tomar podría ser que los sistemas pierden la SA y no las personas que trabajan dentro de ellos. Los investigadores de accidentes deberían examinar el sistema en general para determinar por qué falló la DSA, no quién la perdió. La investigación de accidentes nos indica que las fallas de DSA generalmente involucran fallas en el intercambio de información relacionada con SA entre agentes humanos y no humanos.

Pongamos en contexto. El 31 de mayo de 2009, el vuelo AF447 de Air France se estrelló impactando contra el Océano Atlántico. Tras una importante investigación, el Bureau d’Enquetes et d’Analyses (BEA), la autoridad francesa responsable de las investigaciones de accidentes de aviación civil, concluyó que el accidente se debió a una sucesión de eventos que comenzaron cuando los tubos Pitot de la aeronave se congelaron lo que provocó que entrara en un descenso de unos 11.000 pies por minuto, terminando en una catástrofe. Inevitablemente, el informe de investigación pone cierto énfasis en la incapacidad de la tripulación para comprender y responder a la situación que se presentó tras la congelación de los tubos Pitot, por lo que el piloto automático se desconectó y el avión requirió control manual. Después de cierta confusión, los pilotos aparentemente no sabían que el avión había entrado en pérdida y descendía rápidamente hacia el océano. Específicamente, el BEA informó que la tripulación no pudo establecer un vínculo entre la pérdida de las velocidades aerodinámicas indicadas y el procedimiento apropiado, hizo una identificación tardía de la desviación de la trayectoria de vuelo y no identificó la aproximación a la pérdida y la situación de pérdida posterior en sí misma (BEA 2012).

Una vez detectadas las anomalías de velocidad, el piloto automático se desconectaba, lo que se señalaba mediante un aviso visual y sonoro en la cabina (véanse los conceptos sombreados en la Figura 2)
Fuente: Pilot error versus sociotechnical systems failure: a distributed situation awareness analysis of Air France 447 Paul M. Salmon, Guy H. Walker & Neville A. Stanton

Las conclusiones sobre el papel de la tripulación en el incidente se relacionan directamente con el concepto de conciencia situacional; específicamente la comprensión de la tripulación de la situación que se desarrolla después de la desconexión del piloto automático. Los hallazgos presentados en el informe de investigación sugieren que la tripulación no estaba al tanto de varios aspectos del vuelo y de qué procedimiento se requería, por lo que no pudo responder a la situación que se desarrollaba de manera adecuada. Esta no es una posición única para tomar en los informes de investigación de accidentes, y refleja una tendencia en la que los operadores humanos están implicados por su papel en los accidentes debido a que han «perdido la conciencia situacional» o porque tenían «pobre conciencia situacional». Este enfoque en los operadores humanos y su propia conciencia se mantiene a pesar de que el pensamiento sistémico (por ejemplo como lo desarrollan, Leveson 2004; Rasmussen 1997) es aceptado hoy día ampliamente como el enfoque más apropiado para la investigación de accidentes. Este punto de vista articula claramente que los accidentes son causados ​​por la interacción de las decisiones y acciones de múltiples elementos humanos y técnicos, en lugar de una falla aislada.

Recientemente, los investigadores han cuestionado esta fijación en la pérdida de conciencia situacional, citando cuestiones morales, éticas y teóricas asociadas con etiquetar la pérdida de SA de un individuo como la causa de los incidentes y accidentes (por ejemplo así lo han desarrollado, Dekker 2015; Salmon, Walker y Stanton 2015). Particularmente problemático es el hecho de que centrarse en la cognición individual durante la investigación de accidentes conduce inevitablemente a contramedidas que se centran en fijar a los operadores humanos a través de vías como el reentrenamiento, un enfoque que se sabe desde hace tiempo que es inapropiado (Así lo describen Dekker 2002; Reason 1997). Lo que hace que este estado de cosas sea más preocupante es que, al ignorar los avances en la base de conocimiento de los factores humanos y volver a los conceptos centrados en el operador individual, nuestra disciplina puede que ya no esté haciendo lo que debería estar haciendo como es apoyar el diseño de sistemas sociotécnicos seguros en los que los humanos son vistos como activos en lugar de la fuente de problemas… ¡Ah pero el piloto!

La DSA se mantiene a través de transacciones de conocimiento entre agentes. Estos intercambios pueden ser de humano a humano, de humano a tecnología y/o de tecnología a tecnología y mantener, expandir o degradar la red que sustenta la DSA. Pueden ocurrir varias formas de transacción de la SA. Por ejemplo, los agentes humanos realizan transacciones con otros agentes humanos a través de comunicaciones y señales no verbales. Los agentes tecnológicos realizan transacciones con agentes humanos a través de pantallas, alarmas y advertencias, comunicaciones basadas en texto, señales y símbolos. Los agentes humanos realizan transacciones con agentes tecnológicos a través de la entrada de datos y los agentes tecnológicos realizan transacciones entre sí a través de protocolos de comunicación y transferencia de datos.

Un agente puede compensar la degradación de la SA en otro agente. La mayoría de los agentes (humanos o no humanos) operan en un estado degradado en el que su SA no es óptima. Cuando la SA se degrada hasta el punto de que el rendimiento se ve amenazado, otros agentes del sistema pueden actuar para mantener la DSA y evitar fallas en la tarea o el sistema.

Redes de conciencia situacional

En lugar de probar y comprender a los humanos como «componentes» en el sistema mediante el análisis de su cognición individual, la DSA pasa por alto esto al centrarse en las interacciones e intercambios entre ellos. Al centrarse en los intercambios, es posible generar redes de conocimiento sobre la situación que comprendan conceptos y las relaciones entre ellos. Esto proporciona efectivamente una imagen de la conciencia situacional de los sistemas en distintos tiempos. A través de interrogatorios adicionales, es posible determinar quién en el sistema tuvo acceso a qué conocimiento y en que momentos. Además, es posible rastrear el impacto de las transacciones (intercambio) entre agentes humanos y no humanos (o la falta de transacciones) a lo largo del tiempo; a su vez, esto hace posible modelar la degradación de la conciencia situacional de un sistema en el período previo al evento adverso.

En el futuro cercano al diseñar tecnologías avanzadas, es importante tener en cuenta los requisitos de SA de los agentes humanos y no humanos. ¿Qué debe tener en cuenta la tecnología avanzada para que el sistema funcione de manera efectiva? queda la pregunta para que respondan los ingenieros. Luego, deben asegurarse de que la automatización pueda recopilar y comprender la información requerida para cumplir con estos requisitos de la SA.

Fly safe and enjoy!

Hasta la próxima
Paz y bien – Námaste
Roberto Gómez
rjg@flap152.com

Referencias:

  • Aaron P. J. Roberts, Leonie V. Webster, Paul M. Salmon, Rhona Flin, Eduardo Salas, Nancy J. Cooke, Gemma J. M. Read, Neville A. Stanton. (2021) State of science: models and methods for understanding and enhancing teams and teamwork in complex sociotechnical systems. Ergonomics 0:0, pages 1-27.
  • Hutchins, E. 1995. Cognition in the Wild. Cambridge, MA: MIT Press.
  • BBureau d’Enqu^etes et d’Analyses pour la securite de l’aviation civile. 2012. “Final Report On the accident on 1st June 2009 to the Airbus A330-203 registered F-GZCP operated by Air France flight AF 447 Rio de Janeiro Paris.” Accessed November 2014. 
  • Dekker, S. 2015. “The Danger of Losing Situation Awareness.” Cognition, Technology & Work 17 (2): 59-161
  • Paul M. Salmon, Guy H. Walker & Neville A. Stanton (2015): Pilot error versus sociotechnical systems failure: a distributed situation awareness analysis of Air France 447, Theoretical Issues in Ergonomics Science, DOI: 10.1080/1463922X.2015.1106618
  • Paul Salmon HUMAN PERFORMANCE IN THE SPOTLIGHT: DISTRIBUTED SITUATION AWARENESS, HindSight 33 | WINTER 2021-2022.