Conciencia Situacional Distribuida | DCS

El rol humano cambiante

Hay que entender que la digitalizaci√≥n no reemplaza completamente a una persona, por lo menos por ahora, en aviaci√≥n. Si cambia su tarea, trabajo o rol. En su art√≠culo Ironies of Automation, Lisanne Bainbridge se√Īal√≥ que tendemos a automatizar aquellos elementos de un proceso que son f√°ciles de automatizar. Esto puede conducir al fen√≥meno de la ¬ęautomatizaci√≥n sobrante¬Ľ, en la que hay un conjunto fragmentario de tareas y los impactos asociados en la conciencia situacional (SA), la satisfacci√≥n laboral y el rendimiento.
Los cambios generan preguntas sobre lo que podemos hacer como profesionales involucrados en la aviación y otros sectores, para asegurarnos de maximizar el potencial de brillantez de las personas y las tecnologías, minimizando el impacto de la falibilidad.
En la pr√°ctica de factores humanos, siempre hemos adoptado la filosof√≠a de ¬ęadaptar el trabajo a la persona¬Ľ. Tal vez ahora se describa mejor como ¬ęadaptar el trabajo a las personas¬Ľ, o incluso, ¬ęadaptar el sistema a las personas y las tecnolog√≠as¬Ľ. Sea cual sea el enfoque que adoptemos, mantener nuestra curiosidad es clave.

¬ŅQu√© es la Conciencia Situacional?

A un nivel simple, es el t√©rmino utilizado en factores humanos para describir la conciencia que tienen las personas de ¬ęlo que sucede¬Ľ a su alrededor mientras realizan tareas din√°micas.
Endsley (1995) la define de la siguiente manera: es ‚Äúla percepci√≥n de los elementos del entorno dentro de un volumen de tiempo y espacio, la comprensi√≥n de su significado y la proyecci√≥n de su estado en un futuro pr√≥ximo‚ÄĚ.

El concepto surgió por primera vez en la aviación durante la Primera Guerra Mundial y se ha convertido en uno de los temas más estudiados y debatidos en factores humanos, hay amplia bibliografía al respecto.
Aunque el enfoque inicial estaba en la conciencia situacional que ten√≠an los individuos, ahora se ha ampliado para considerar la SA de equipos, organizaciones e incluso sistemas sociot√©cnicos completos. Sin embargo, la relaci√≥n entre la SA y el desempe√Īo es compleja y se reconoce ampliamente que la SA es una consideraci√≥n cr√≠tica al dise√Īar el trabajo y los sistemas de trabajo. Es especialmente pertinente considerar la SA al dise√Īar e introducir automatizaci√≥n avanzada como ocurre en las cabinas actualmente.

Conciencia Situacional Distribuida (DSA)

Aunque gran parte de la investigaci√≥n inicial sobre la conciencia situacional se centr√≥ en los operadores humanos individuales (p. ej., pilotos, conductores de veh√≠culos, soldados), ha habido un cambio significativo en la √ļltima d√©cada hacia modelos que ven la conciencia situacional como un sistema.
Sobre la base de distintos programas de investigaci√≥n centrados en los sistemas de mando y control en los √°mbitos civil y de defensa, (Stanton et al. (2006) y Salm√≥n et al. (2009)) propusieron un modelo de DSA que intentaba cambiar la unidad de an√°lisis de individuos y equipos a sistemas sociot√©cnicos. Inspirado por el trabajo de Hutchins sobre la cognici√≥n distribuida, el modelo DSA argumenta que la conciencia situacional es una propiedad emergente que posee el sistema general y se construye a trav√©s de interacciones entre ‘agentes’, tanto humanos (por ejemplo, operadores, pilotos, conductores de veh√≠culos, etc) como no humanos (por ejemplo, documentos, pantallas). Adem√°s, el modelo pretende que la SA no la tiene ning√ļn agente por s√≠ solo (humano o no humano), sino que reside en las interacciones que ocurren en el sistema sociot√©cnico.

Resumiendo ¬ŅQu√© es la conciencia situacional distribuida? La idea general es que, en los sistemas sociot√©cnicos, ninguna persona o ¬ęagente¬Ľ tiene toda la conciencia situacional necesaria para que el sistema funcione de manera efectiva.

Una pregunta interesante para reflexionar ¬ŅPueden diferentes agentes tener la misma conciencia situacional?
La investigaci√≥n ha demostrado que diferentes personas tienen puntos de vista diferentes sobre una situaci√≥n, incluso cuando tienen acceso a la misma informaci√≥n. La SA de cada uno est√° influenciada por sus objetivos, las tareas que est√°n realizando y su experiencia en situaciones similares. El hecho de que diferentes personas tengan diferente conciencia situacional tiene implicaciones para el dise√Īo del sistema.


En lugar de intentar lograr una SA compartida donde todos tengan el mismo conocimiento de una situación, se ha encontrado que una conciencia situacional compatible es más apropiada.


Esto se logra cuando la SA de diferentes personas se conecta para darle al sistema general, también una imagen general. Lograr una SA compatible implica reconocer que las personas tienen diferentes puntos de vista sobre una situación identificando quién necesita: qué información, cuándo y en qué formato. Las incompatibilidades pueden dar lugar a un DSA subóptima donde existen lagunas en la SA necesaria para un rendimiento eficaz.

Cada componente/individuo tiene una comprensi√≥n/mapeo mental √ļnico que debe ser compatible (pero no id√©ntico) con otros individuos para asegurar una coordinaci√≥n exitosa de las tareas que realizan.

Una caracter√≠stica interesante de DSA es que considera expl√≠citamente la SA de los agentes tecnol√≥gicos as√≠ como la de los agentes humanos. La idea de que los agentes no humanos pudieran ser conscientes de la situaci√≥n fue controvertida al principio, pero desde entonces se ha vuelto muy relevante debido a avances como la inteligencia artificial. A medida que dichos agentes recopilan, interpretan y comparten informaci√≥n, desempe√Īan un papel fundamental para garantizar que un sistema pueda generar la DSA necesario para un rendimiento seguro y eficiente. Desafortunadamente, lo que estamos viendo en muchas √°reas es una falta de consideraci√≥n del importante papel que juegan los agentes tecnol√≥gicos en la DSA.

Es importante tener en cuenta esto al dise√Īar e introducir tecnolog√≠as avanzadas. Con tecnolog√≠as avanzadas como la automatizaci√≥n, debemos considerar no solo la SA de los agentes humanos, sino tambi√©n la SA en poder de la automatizaci√≥n y c√≥mo comparte informaci√≥n relacionada con la SA con humanos y otras tecnolog√≠as y viceversa ¬Ņse entiende la idea?

Han ocurrido varios incidentes en los que la automatizaci√≥n avanzada no ha sido ¬ęconsciente¬Ľ de algo que deb√≠a serlo, o en los que la automatizaci√≥n no ha comunicado informaci√≥n cr√≠tica a los agentes humanos. Esto no se debe a que la automatizaci√≥n haya fallado, sino a que los dise√Īadores no han considerado completamente lo que la automatizaci√≥n necesita saber o qu√© informaci√≥n relacionada con la SA debe pasar de la automatizaci√≥n a los operadores humanos. Como resultado, se est√°n descubriendo fallas en DSA que pueden conducir, en determinadas situaciones, a una cat√°strofe, como la que sigue.

Lo qu√© sucede cuando los sistemas ¬ępierden¬Ľ la DSA.

A medida que DSA se degrada, aumenta el riesgo de falla del sistema. Ejemplos recientes de incidentes que involucran fallas de DSA incluyen el accidente del Air France 447.

Al investigar es importante mantener una perspectiva de sistemas. Puede ser tentador (y sucede a menudo) tratar de identificar al individuo que ¬ęperdi√≥ la conciencia situacional¬Ľ. Sin embargo, dado que el SA requerida para el desempe√Īo efectivo no es algo que pueda poseer un solo individuo, en consecuencia no puede ser perdida por un solo individuo. Por lo tanto, el punto de vista m√°s apropiado a tomar podr√≠a ser que los sistemas pierden la SA y no las personas que trabajan dentro de ellos. Los investigadores de accidentes deber√≠an examinar el sistema en general para determinar por qu√© fall√≥ la DSA, no qui√©n la perdi√≥. La investigaci√≥n de accidentes nos indica que las fallas de DSA generalmente involucran fallas en el intercambio de informaci√≥n relacionada con SA entre agentes humanos y no humanos.

Pongamos en contexto. El 31 de mayo de 2009, el vuelo AF447 de Air France se estrell√≥ impactando contra el Oc√©ano Atl√°ntico. Tras una importante investigaci√≥n, el Bureau d’Enquetes et d’Analyses (BEA), la autoridad francesa responsable de las investigaciones de accidentes de aviaci√≥n civil, concluy√≥ que el accidente se debi√≥ a una sucesi√≥n de eventos que comenzaron cuando los tubos Pitot de la aeronave se congelaron lo que provoc√≥ que entrara en un descenso de unos 11.000 pies por minuto, terminando en una cat√°strofe. Inevitablemente, el informe de investigaci√≥n pone cierto √©nfasis en la incapacidad de la tripulaci√≥n para comprender y responder a la situaci√≥n que se present√≥ tras la congelaci√≥n de los tubos Pitot, por lo que el piloto autom√°tico se desconect√≥ y el avi√≥n requiri√≥ control manual. Despu√©s de cierta confusi√≥n, los pilotos aparentemente no sab√≠an que el avi√≥n hab√≠a entrado en p√©rdida y descend√≠a r√°pidamente hacia el oc√©ano. Espec√≠ficamente, el BEA inform√≥ que la tripulaci√≥n no pudo establecer un v√≠nculo entre la p√©rdida de las velocidades aerodin√°micas indicadas y el procedimiento apropiado, hizo una identificaci√≥n tard√≠a de la desviaci√≥n de la trayectoria de vuelo y no identific√≥ la aproximaci√≥n a la p√©rdida y la situaci√≥n de p√©rdida posterior en s√≠ misma (BEA 2012).

Una vez detectadas las anomal√≠as de velocidad, el piloto autom√°tico se desconectaba, lo que se se√Īalaba mediante un aviso visual y sonoro en la cabina (v√©anse los conceptos sombreados en la Figura 2)
Fuente: Pilot error versus sociotechnical systems failure: a distributed situation awareness analysis of Air France 447 Paul M. Salmon, Guy H. Walker & Neville A. Stanton

Las conclusiones sobre el papel de la tripulaci√≥n en el incidente se relacionan directamente con el concepto de conciencia situacional; espec√≠ficamente la comprensi√≥n de la tripulaci√≥n de la situaci√≥n que se desarrolla despu√©s de la desconexi√≥n del piloto autom√°tico. Los hallazgos presentados en el informe de investigaci√≥n sugieren que la tripulaci√≥n no estaba al tanto de varios aspectos del vuelo y de qu√© procedimiento se requer√≠a, por lo que no pudo responder a la situaci√≥n que se desarrollaba de manera adecuada. Esta no es una posici√≥n √ļnica para tomar en los informes de investigaci√≥n de accidentes, y refleja una tendencia en la que los operadores humanos est√°n implicados por su papel en los accidentes debido a que han ¬ęperdido la conciencia situacional¬Ľ o porque ten√≠an ¬ępobre conciencia situacional¬Ľ. Este enfoque en los operadores humanos y su propia conciencia se mantiene a pesar de que el pensamiento sist√©mico (por ejemplo como lo desarrollan, Leveson 2004; Rasmussen 1997) es aceptado hoy d√≠a ampliamente como el enfoque m√°s apropiado para la investigaci√≥n de accidentes. Este punto de vista articula claramente que los accidentes son causados ‚Äč‚Äčpor la interacci√≥n de las decisiones y acciones de m√ļltiples elementos humanos y t√©cnicos, en lugar de una falla aislada.

Recientemente, los investigadores han cuestionado esta fijaci√≥n en la p√©rdida de conciencia situacional, citando cuestiones morales, √©ticas y te√≥ricas asociadas con etiquetar la p√©rdida de SA de un individuo como la causa de los incidentes y accidentes (por ejemplo as√≠ lo han desarrollado, Dekker 2015; Salmon, Walker y Stanton 2015). Particularmente problem√°tico es el hecho de que centrarse en la cognici√≥n individual durante la investigaci√≥n de accidentes conduce inevitablemente a contramedidas que se centran en fijar a los operadores humanos a trav√©s de v√≠as como el reentrenamiento, un enfoque que se sabe desde hace tiempo que es inapropiado (As√≠ lo describen Dekker 2002; Reason 1997). Lo que hace que este estado de cosas sea m√°s preocupante es que, al ignorar los avances en la base de conocimiento de los factores humanos y volver a los conceptos centrados en el operador individual, nuestra disciplina puede que ya no est√© haciendo lo que deber√≠a estar haciendo como es apoyar el dise√Īo de sistemas sociot√©cnicos seguros en los que los humanos son vistos como activos en lugar de la fuente de problemas… ¬°Ah pero el piloto!

La DSA se mantiene a trav√©s de transacciones de conocimiento entre agentes. Estos intercambios pueden ser de humano a humano, de humano a tecnolog√≠a y/o de tecnolog√≠a a tecnolog√≠a y mantener, expandir o degradar la red que sustenta la DSA. Pueden ocurrir varias formas de transacci√≥n de la SA. Por ejemplo, los agentes humanos realizan transacciones con otros agentes humanos a trav√©s de comunicaciones y se√Īales no verbales. Los agentes tecnol√≥gicos realizan transacciones con agentes humanos a trav√©s de pantallas, alarmas y advertencias, comunicaciones basadas en texto, se√Īales y s√≠mbolos. Los agentes humanos realizan transacciones con agentes tecnol√≥gicos a trav√©s de la entrada de datos y los agentes tecnol√≥gicos realizan transacciones entre s√≠ a trav√©s de protocolos de comunicaci√≥n y transferencia de datos.

Un agente puede compensar la degradación de la SA en otro agente. La mayoría de los agentes (humanos o no humanos) operan en un estado degradado en el que su SA no es óptima. Cuando la SA se degrada hasta el punto de que el rendimiento se ve amenazado, otros agentes del sistema pueden actuar para mantener la DSA y evitar fallas en la tarea o el sistema.

Redes de conciencia situacional

En lugar de probar y comprender a los humanos como ¬ęcomponentes¬Ľ en el sistema mediante el an√°lisis de su cognici√≥n individual, la DSA pasa por alto esto al centrarse en las interacciones e intercambios entre ellos. Al centrarse en los intercambios, es posible generar redes de conocimiento sobre la situaci√≥n que comprendan conceptos y las relaciones entre ellos. Esto proporciona efectivamente una imagen de la conciencia situacional de los sistemas en distintos tiempos. A trav√©s de interrogatorios adicionales, es posible determinar qui√©n en el sistema tuvo acceso a qu√© conocimiento y en que momentos. Adem√°s, es posible rastrear el impacto de las transacciones (intercambio) entre agentes humanos y no humanos (o la falta de transacciones) a lo largo del tiempo; a su vez, esto hace posible modelar la degradaci√≥n de la conciencia situacional de un sistema en el per√≠odo previo al evento adverso.

En el futuro cercano al dise√Īar tecnolog√≠as avanzadas, es importante tener en cuenta los requisitos de SA de los agentes humanos y no humanos. ¬ŅQu√© debe tener en cuenta la tecnolog√≠a avanzada para que el sistema funcione de manera efectiva? queda la pregunta para que respondan los ingenieros. Luego, deben asegurarse de que la automatizaci√≥n pueda recopilar y comprender la informaci√≥n requerida para cumplir con estos requisitos de la SA.

Fly safe and enjoy!

Hasta la próxima
Paz y bien – N√°maste
Roberto Gómez
rjg@flap152.com

Referencias:

  • Aaron P. J. Roberts, Leonie V. Webster, Paul M. Salmon, Rhona Flin, Eduardo Salas, Nancy J. Cooke, Gemma J. M. Read, Neville A. Stanton. (2021) State of science: models and methods for understanding and enhancing teams and teamwork in complex sociotechnical systems. Ergonomics 0:0, pages 1-27.
  • Hutchins, E. 1995. Cognition in the Wild. Cambridge, MA: MIT Press.
  • BBureau d‚ÄôEnqu^etes et d‚ÄôAnalyses pour la securite de l‚Äôaviation civile. 2012. ‚ÄúFinal Report On the accident on 1st June 2009 to the Airbus A330-203 registered F-GZCP operated by Air France flight AF 447 Rio de Janeiro Paris.‚ÄĚ Accessed November 2014.¬†
  • Dekker, S. 2015. ‚ÄúThe Danger of Losing Situation Awareness.‚ÄĚ Cognition, Technology & Work 17 (2): 59-161
  • Paul M. Salmon, Guy H. Walker & Neville A. Stanton (2015): Pilot error versus sociotechnical systems failure: a distributed situation awareness analysis of Air France 447, Theoretical Issues in Ergonomics Science, DOI: 10.1080/1463922X.2015.1106618
  • Paul Salmon HUMAN PERFORMANCE IN THE SPOTLIGHT: DISTRIBUTED SITUATION AWARENESS, HindSight 33 | WINTER 2021-2022.