fbpx

James Reason (1938-2025)

El 5 de febrero de 2025 falleció James Reason, el psicólogo británico que revolucionó la comprensión del error humano y la seguridad en sistemas complejos. A los 86 años, con una trayectoria que influyó en múltiples industrias, Reason llegó a la meta final a la que todo ser humano está indefectiblemente destinado, y mientras transitaba el camino, dejó un legado que trasciende generaciones. Su trabajo sigue siendo un pilar fundamental en la aviación, la atención médica, la energía nuclear y muchas otras áreas donde el factor humano es crítico.
Le sobreviven su esposa, Rea, y sus hijas, Paula y Helen.

Fue catedrático emérito de Psicología en la Universidad de Manchester y en la Universidad de Leicester. Sus principales líneas de investigación se centraron en el comportamiento humano en sistemas de alto riesgo, especializándose en error médico, análisis de riesgos, organización de la seguridad, mecanismos de distracción y factores humanos en el transporte.
Trabajó para el Royal Air Force Institute of Aviation Medicine y fue Fellow de la Royal Aeronautical Society y de la British Academy.

El arquitecto de la teoría del queso suizo

James Reason es más conocido por su modelo del queso suizo, una representación visual de cómo los accidentes ocurren cuando múltiples fallas en los sistemas de seguridad se alinean. Su teoría, desarrollada en los años 90, cambió el paradigma de la investigación de accidentes: en lugar de enfocarse exclusivamente en los errores individuales, propuso que los problemas estructurales y organizacionales juegan un papel central en la ocurrencia de incidentes. En su libro La contribución Humana (actos peligrosos y acciones ejemplares) presenta su modelo como uno de los tantos modelos sistémicos de accidentes que existen, agregando “pero es el modelo cuyo desarrollo estoy más cualificado para exponer” Modelo que ha sido y es utilizado en sectores que desarrollan actividades de alta peligrosidad y son susceptibles de sufrir accidentes organizativos: aviación, vuelos espaciales tripulados, transporte ferroviario, industria de proceso químico, exploración y producción de petróleo y gas, centrales nucleares, transporte marítimo; la Marina de los Estados Unidos y por último la atención sanitaria.
El modelo asumió diversas formas con el paso del tiempo, bastante diferentes entre sí.

La versión de mediados-finales de la década de 1980:

El punto de partida del “modelo” eran los componentes esenciales y benignos de todo sistema productivo: la alta dirección que toma las decisiones fundamentales (la administración de la compañía y de la unidad de producción), las líneas de producción (operaciones, mantenimiento, formación y similares), los componentes (equipo material fiable y una fuerza de trabajo competente y motivada), las actividades productivas (la integración efectiva de los recursos humanos y mecánicos) y las defensas (salvaguardias contra amenazas previsibles). Estos “planos” productivos se transformaron más tarde en el tiempo en lonchas de queso —si bien en esa época no tenía aún el queso suizo. La premisa básica del modelo era que el origen remoto de los accidentes organizativos se hallaba en las falibles decisiones de los diseñadores, los constructores y la alta dirección. Estas se transmitían luego a los elementos productivos que intervenían —las deficiencias latentes en los procesos de producción, los precursores psicológicos de los actos peligrosos, los actos peligrosos mismos— hasta el punto donde las condiciones de “corriente arriba” se combinaban con debilidades “corriente abajo” y con las debilidades de las defensas para romper las defensas y las salvaguardias.
Escribe: Aunque, al parecer, algunas personas siguen prefiriendo esta versión, yo creo que adolece de dos serias limitaciones. A despecho de mis seguidores de entonces de que no intentaba transferir las culpas de la “línea de fuego” a la sala de juntas, sin duda lo parecía mucho. Las decisiones estratégicas son falibles, pero no necesariamente han de resultar fallidas. El segundo problema es su simple linealidad causa-efecto que, como lo ha señalado Hollnagel, conduce inevitablemente a buscar “causas últimas” (Reason, J. (2008). El error humano. Madrid: Modus Laborandi.)
Agrega: «La década de 1980 añadió una nueva imagen que desarrollaba la versión anterior y de la que emanaba un nítido aroma “a queso”, aunque en aquel momento no fuera esa mi intención Me sonroja confesar que hace poco que he caído en la cuenta de dónde pudo haber brotado la etiqueta “queso suizo”. Aunque sólo afectaba a las últimas láminas. Fue aquí donde adopté la convención iconográfica de representar los actos peligrosos y sus precursores como agujeros a través de los cuales podía pasar una trayectoria de accidente».

Lo que Reason plantea la versión de comienzos de los ’90 me parece clave para entender cómo los factores organizativos pueden sembrar la semilla de futuros accidentes sin que nadie lo note en el momento. La idea de que las decisiones de la dirección, el diseño, el mantenimiento o incluso la cultura de seguridad pueden actuar como “patógenos latentes” dentro del sistema. No se trata solo de fallos técnicos o errores humanos en la cabina; muchas veces, la raíz del problema está mucho más atrás, en decisiones estratégicas tomadas tiempo antes.

El concepto de “corriente arriba” y “corriente abajo” en la organización es fundamental. Si los problemas comienzan en la parte más alta del sistema—ya sea por decisiones apresuradas, recortes presupuestarios o fallas en la formación—, esos errores tarde o temprano se filtrarán hasta la línea operativa. Y ahí es donde entran en juego los fallos activos: situaciones en las que las condiciones del entorno de trabajo favorecen la comisión de errores o infracciones.

Resulta interesante cómo Reason señala que la mayoría de los actos peligrosos no llevan a un accidente. Es cierto: en el día a día de la aviación, se comenten muchos errores que no terminan en consecuencias graves. Sin embargo, lo preocupante es que algunos pocos, por cuestiones de azar o por una acumulación de vulnerabilidades en el sistema, logran atravesar todas las defensas y generar un evento catastrófico. Ahí es donde el modelo del queso suizo cobra todo su sentido: cada capa de defensa tiene agujeros, pero cuando esos agujeros se alinean, el accidente se vuelve inevitable.

Este análisis refuerza algo que en seguridad operacional repetimos siempre: la prevención no debe enfocarse solo en el último eslabón de la cadena, es decir, en los pilotos, mecánicos o controladores. Hay que mirar más arriba, a la cultura organizacional, a las decisiones de gestión, a cómo se estructuran los procesos. Solo así se pueden cerrar esos “agujeros” antes de que se alineen.

Lo que Reason plantea sobre la vía del fallo latente me parece fundamental para entender cómo los accidentes no siempre dependen de un error humano en la primera línea de operación. Es interesante cómo menciona en el libro el incendio en la estación de metro de King’s Cross como un ejemplo claro de esto: no siempre se necesita que alguien cometa un acto peligroso en la “línea de fuego” para que ocurra una tragedia. A veces, las grietas en las defensas ya están ahí, esperando el momento en que todo se alinee de la peor manera.
No es solo el error o la infracción individual lo que abre la puerta al accidente, sino también las condiciones generadas en el lugar de trabajo y, más arriba aún, las decisiones de dirección y la cultura organizacional. Esto se traduce en cómo se diseñan los procedimientos, cómo se gestiona la fatiga, cómo se prioriza la seguridad frente a la eficiencia operativa. Si esas capas “corriente arriba” fallan, lo que ocurra “corriente abajo” es solo cuestión de tiempo.

Reason hace una distinción clara entre el «error humano» y el «fallo de las defensas». Muchas veces (más de lo que uno piensa) se culpa al último eslabón de la cadena —pilotos, controladores, mecánicos— cuando en realidad el sistema ya estaba comprometido desde mucho antes. La reducción del término «condición latente» a las debilidades de las defensas refuerza la idea de que la seguridad no solo depende de que las personas no cometan errores, sino de que haya un sistema robusto capaz de absorberlos sin que deriven en un desastre.

Reason plantea algo clave para entender cómo la seguridad operacional no depende solo de reglas y procedimientos, sino también de la cultura y el clima organizacional. Me parece interesante cómo distingue entre cultura y clima: la cultura es algo más arraigado, que emana desde la alta dirección y define los valores y prioridades de la organización, mientras que el clima es algo más dinámico, que cambia según el contexto, el equipo de trabajo o incluso las condiciones específicas del momento.

La versión actual (1997)

El equilibrio entre lo personal y lo sistémico.


Reason menciona el trabajo de Atul Gawande, quien documentó la reducción de eventos adversos en anestesiología gracias a mejoras sistémicas: rediseño de equipos, estandarización de procedimientos, mejor monitoreo de pacientes. Esto refuerza la idea de que fortalecer el sistema es clave para reducir errores humanos. Sin embargo, como bien señala, no podemos caer en el extremo de pensar que solo el sistema importa y que el individuo no tiene responsabilidad.

Reason menciona algo que considero fundamental: la sabiduría ante el error. No se trata solo de entrenar habilidades técnicas, sino de desarrollar una conciencia individual que permita a los operadores leer las situaciones, reconocer riesgos y actuar en consecuencia. En aviación, lo llamamos conciencia situacional, y es una de las herramientas más importantes para la prevención de accidentes.

Lo expresa de la siguiente manera: «ser conscientes de las amenazas y disponer de planes de contingencia a punto para hacerles frente; sentir respeto por los peligros y adoptar ante ellos una ‘inquieta y constante vigilancia’”. No se trata de volar con miedo, sino con respeto por el riesgo y con la determinación de no bajar nunca la guardia.

Introduce un concepto clave: los agujeros en las defensas no son estáticos, sino dinámicos. En la versión moderna del modelo, las “fetas de queso” se mueven, sus vulnerabilidades cambian con el tiempo y una trayectoria de accidente solo ocurre si los agujeros se alinean en el momento preciso.
Esto es una representación muy realista de cómo ocurren los accidentes en la aviación. Un error aislado rara vez es suficiente para causar un desastre, pero si una cadena de eventos se alinea —un fallo técnico, un mal procedimiento, una decisión errónea del piloto, condiciones meteorológicas adversas—, el resultado puede ser catastrófico. Por eso, la seguridad debe fortalecer las defensas en todos los niveles y asegurarse de que los errores “normales” (Perrow) no tengan consecuencias fatales.

Su trabajo llevó a una nueva forma de analizar los accidentes, donde las organizaciones no solo investigan el qué falló, sino también por qué falló, identificando las condiciones latentes y barreras defectuosas que permiten que un error humano se convierta en una catástrofe.

Si bien la teoría del queso suizo es su contribución más conocida, Reason exploró el error humano desde diversas perspectivas. Su libro Human Error (1990) se convirtió en una referencia obligada para quienes estudian la seguridad operacional y la gestión del riesgo. En él, Reason diferenció entre deslices, lapsus, errores y violaciones, estableciendo una taxonomía que sigue vigente hoy en día.

A partir del año 2000, Reason enfocó su trabajo en la seguridad en el ámbito sanitario, donde su teoría ayudó a reducir la tendencia de buscar culpables por errores inadvertidos, promoviendo en su lugar el enfoque sistémico y una cultura justa que busca mejorar los sistemas en lugar de castigar a los individuos.

El impacto de Reason trascendió fronteras. Su modelo fue adoptado en la aviación a nivel mundial y se convirtió en parte del Anexo 13 de la OACI sobre investigación de accidentes. También influyó en organismos como la NASA, la industria nuclear y agencias reguladoras de seguridad en todo el mundo.

Lo que distinguió a Reason no fue solo la profundidad de su pensamiento, sino su habilidad para expresarlo de forma clara y amena. Utilizaba metáforas, analogías y humor para hacer que conceptos abstractos fueran comprensibles para todos.

Fue distinguido con numerosos honores, incluyendo la Orden del Imperio Británico (CBE) en 2003. Más allá de los reconocimientos formales, su verdadero impacto está en la manera en que su trabajo transformó la seguridad en entornos de alto riesgo. Su enfoque sistémico sobre el error humano cambió la forma en que las industrias diseñan sus procesos, investigan accidentes y protegen vidas.

Su mayor legado es la inestimable contribución a la seguridad de millones de personas en todo el mundo. Su trabajo sigue siendo un faro en la prevención de accidentes y en la construcción de sistemas más resilientes. ¡Gracias!

Roberto J. Gómez

rjg@flap152.com