
Charles Perrow, en su libro Accidentes normales, arranca con una escena tan cotidiana que cualquiera podría reconocerla.
Es una mañana importante: no vas al trabajo habitual porque tenés una entrevista clave en el centro de la ciudad. El día ya viene con algo de presión. Cuando vas a prepararte el desayuno, descubrís que tu pareja dejó la cafetera de vidrio sobre la hornalla encendida: el café se evaporó y la jarra estalló. Sin café, mal comienzo.
Como sos adicto al café, revolvés la cocina hasta encontrar una vieja cafetera metálica. La ponés al fuego, mirás el reloj cada dos minutos, te tomás el café casi de un trago y salís disparando.
Al llegar al auto, te das cuenta de que te olvidaste las llaves… y también las del departamento. Por suerte, tenías un sistema de respaldo: otro juego de llaves escondido bajo el felpudo de la entrada. Redundancia, diríamos en aviación.
Sólo que recordás que esa “redundancia” la usaste hace unos días: le dejaste el juego de repuesto a un amigo para que pudiera entrar a tu casa a buscar unos libros mientras vos no estabas. El camino alternativo quedó neutralizado. Esa barrera ya no existe.
Vas por el siguiente plan: pedirle el auto al vecino, un señor amable que casi no usa su coche y lo tiene siempre en condiciones. Tocás el timbre y te enterás de que el alternador se rompió la semana pasada y recién hoy a la tarde lo van a buscar para repararlo.
Segundo plan de respaldo que falla.
Queda el colectivo… pero hay paro. La empresa decretó un cierre patronal y los conductores se niegan a mover unidades que consideran inseguras, de paso reclamando mejoras salariales. Intentás llamar un taxi desde lo de tu vecino, pero el sistema está saturado justamente porque no hay colectivos circulando.
Cuando ya estás resignado, llamás a la secretaria de la agencia de empleo: “Me pasó una serie de cosas esta mañana, no voy a llegar. ¿Podemos reprogramar?”. Ella contesta amablemente que no hay problema, pero piensa: “No es confiable. Tanto insistir por la entrevista y ahora esto”. Lo anota en la agenda y probablemente te asigna un horario poco conveniente para la próxima cita.
Es un accidente multicausal: lo que importa no es la pieza suelta, sino la configuración del sistema.
Y ahí introduce su tesis central: en ciertos sistemas complejos, algunos accidentes no son anomalías, sino “accidentes normales”, resultado esperable de cómo está armado el sistema.
Ahora corramos la escena a Buenos Aires, octubre de 1988. Mediodía de primavera sobre la Avenida Rivadavia al 6100, barrio de Caballito. Tránsito denso pero “habitual”: taxis, colectivos parando y arrancando, chicos saliendo del colegio, gente con bolsas de compras, porteros charlando en la vereda.

Una vecina de 75 años sale al almacén, pasa por la carnicería, vuelve con las bolsas en la mano. Todo es rutina.
En un balcón de un piso 13, un caniche blanco –Cachy– se asoma más de la cuenta. Cae al vacío. La probabilidad de que impacte sobre una persona es baja, pero el tránsito y el flujo de peatones la multiplican. El perro golpea de lleno la cabeza de la mujer. Muerte instantánea para ambos.
La escena estalla: gritos, frenadas, gente corriendo, bolsas de compras desparramadas en la vereda. Se forma el clásico círculo de curiosos.
Entre ellos, una mujer de 47 años que se acerca a ver “qué pasó”. En medio de bocinazos, maniobras y peatones mal ubicados, el interno 15 de la línea 55 la atropella y la arrastra varios metros. Tercera muerte en el acto: dos humanos y un perro.
La esquina de Rivadavia y Morelos no tiene semáforo. Los de las esquinas cercanas no están bien coordinados. El flujo se vuelve errático: algunos autos pasan, otros frenan, las decisiones se toman “a ojo”.
Un hombre que presenció las dos escenas comienza a sentirse mal. Cruza la avenida hacia una concesionaria de venta de autos, entra a pedir ayuda, sufre un infarto y muere camino al hospital. Cuatro muertes: Tres humanas y un perro.
La lectura espontánea es casi inevitable: “Fue una desgracia absurda. Pura mala suerte”.
Igual que en la historia de la cafetera, nuestra mente arma una cadena simple: perro que cae → muerte de la vecina → tumulto → atropello → infarto. Eso nos da una sensación de cierre.
Pero, desde la mirada de Perrow, esa forma de explicarlo es justamente lo que nos impide aprender.

Podríamos consolarnos pensando que historias como la de Cachy o la mañana de la cafetera son tan extrañas que no volverán a ocurrir. Sin embargo, el 29 de agosto de 2025, en Sincelejo (Sucre, Colombia), un pastor alemán llamado “Milán” quedó literalmente colgando del balcón tras perder el equilibrio entre las barandas.
Las imágenes se hicieron virales: el perro lucha por sostenerse, ladra, y finalmente su dueña sale, lo rescata y él baja las orejas y mueve la cola al verla. La diferencia entre un video conmovedor y una tragedia como la de Caballito fueron unos centímetros y unos segundos de reacción.
Desde una mirada sistémica, estos “casi accidentes” recuerdan algo incómodo: la probabilidad de que ocurra es baja, pero no es cero; si las condiciones se repiten y no cambiamos el sistema (poner redes, rediseñar barandas, crear barreras), el escenario para que el desastre se complete sigue estando ahí.
Perrow propone mirar estas historias no como cuentos de sobremesa, sino como casos de estudio sobre sistemas complejos.
En ambos relatos aparecen dos ideas clave:
a) Complejidad interactiva
- Muchas partes interactúan a la vez, de forma no lineal.
En la mañana de la cafetera: hábitos personales, diseño de la puerta, ubicación de las llaves, estado del auto propio, auto del vecino, paro de colectivos, disponibilidad de taxis, decisiones de terceros (la secretaria).
En el caso Cachy: diseño urbano (balcones, esquinas, semáforos), flujo de tránsito, comportamiento de peatones y curiosos, dinámica de los colectivos, condición cardiovascular del testigo.
No hay una sola “pieza culpable”. Hay una trama de interacciones que produce el resultado.
b) Acoplamiento fuerte y débil
- El acoplamiento describe cuán “apretadas” están las partes entre sí en tiempo y espacio.
Con acoplamiento débil, el sistema tiene holgura: si algo sale mal, hay tiempo y opciones para adaptarse, esperar, aislar, desviar.
Con acoplamiento fuerte, el margen se reduce: pequeñas variaciones generan consecuencias grandes, rápido, y sin muchas alternativas.
En la historia de la cafetera, el acoplamiento se vuelve fuerte porque:
- Hay un horario rígido (la entrevista),
- Hay pocos caminos alternativos (auto propio, vecino, colectivo, taxi),
- Varias cosas fallan en serie,
- La capacidad de improvisar se va agotando.
En Caballito, el acoplamiento se endurece cuando:
- El tránsito denso se combina con una esquina sin semáforo,
- Los semáforos vecinos desordenan aún más el flujo,
- La vereda se llena de gente,
- La visibilidad del chofer se degrada,
- La curiosidad empuja a la gente a invadir zonas de riesgo.
En su libro, Perrow remata la historia de la cafetera con un cuestionario: ¿la causa principal del “desastre” fue el error humano, el fallo mecánico, el entorno, el diseño del sistema, los procedimientos?
La respuesta honesta es que ninguna de esas opciones, tomada sola, alcanza.
Exactamente lo mismo pasa si intentamos buscar “la causa” del suceso de Cachy:
- ¿Fue el perro?
- ¿Fue la vecina que se acercó a mirar?
- ¿Fue el chofer del colectivo?
- ¿Fue la falta de semáforo?
- ¿Fue la mala coordinación de los semáforos?
- ¿Fue el infarto del testigo?
Si elegimos una sola, simplificamos. Y al simplificar, perdemos de vista lo que más importa para la seguridad: cómo se combinó lo que ya estaba ahí.
En aviación, la tentación de quedarnos con una causa única es muy fuerte:
- “Fue error de pilotaje”,
- “Fue el clima”,
- “Fue mantenimiento”,
- “Fue un pájaro en el motor”,
- “Fue el controlador que dio una instrucción ambigua”.
Esas etiquetas funcionan como la explicación del candidato que no llega a la entrevista o del vecino que dice “qué desgracia lo de Cachy”: nos dan un culpable o un factor dominante y nos permiten cerrar el expediente mental.
Pero si aplicamos la lógica de Perrow, el análisis cambia:
- Algunos incidentes y accidentes en aviación son, en realidad, productos esperables de cómo están configurados nuestros sistemas:
- Horarios y planificación (slots apretados, rotaciones mínimas),
- Diseño de cabina e interfaces,
- Distribución de tareas y cargas cognitivas,
- Cultura organizacional (tolerancia al desvío, normalización de la desviación),
- Relación entre áreas (operaciones, mantenimiento, despacho, ATC, SMS).
- A eso se suman acoplamientos fuertes muy claros:
- Fases críticas de vuelo,
- Operaciones en aeropuertos congestionados,
- Turnos fatigosos,
- Ventanas de mantenimiento reducidas,
- Dependencias de un mismo recurso (pista, taxiway, plataforma).
El riesgo no está sólo en “el perro que cae” (un fallo súbito, un pájaro, una falla imprevista), sino en cómo nuestro sistema reacciona cuando aparece esa sorpresa.
Un Sistema de Gestión de la Seguridad Operacional (SMS) maduro no se conforma con el “fue el perro” o “fue el piloto”:
- Interroga el diseño (cómo distribuimos carga, equipos, interfaces).
- Revisa el acoplamiento (dónde hay márgenes y dónde no).
- Cuestiona los procedimientos (qué hacemos por rutina que nos deja vulnerables).
- Observa las interacciones entre áreas, como Perrow observa las interacciones entre llaves, autos, colectivos y taxis.
Para sintetizar, hay al menos cinco lecciones útiles para quienes trabajamos en aviación:
1. Desconfiar de las explicaciones demasiado simples
Si un suceso se explica con una frase (“fue error humano”, “fue el clima”), probablemente estamos mirando la superficie, no el sistema.
2. Ver patrones, no episodios
El suceso de Cachy no es sólo “algo absurdo” que pasó una vez, como la mañana de la cafetera no es sólo “un día de mala suerte”. Son ventanas a cómo se comportan los sistemas complejos cuando se combinan pequeñas fallas bajo acoplamiento fuerte.
3. Mapear acoplamientos fuertes en nuestras operaciones
En un aeropuerto, en una torre, en un hangar o en una cabina:
- ¿Dónde estamos tan “apretados” que cualquier desvío escala rápido?
- ¿Dónde la holgura es tan poca que dependemos de que todo salga “justo bien”?
4. Pensar en términos de diseño, no sólo de comportamiento individual
Igual que la puerta que se cierra sola o la redundancia de las llaves mal gestionada, en aviación hay decisiones de diseño (procedimientos, interfaces, planificación) que preconfiguran los errores que luego atribuimos a individuos.
5. Usar el SMS para ver el sistema completo
Un buen análisis de sucesos no es una caza de culpables, sino un mapa de condiciones: diseño, equipamiento, procedimientos, operadores, recursos, entorno.
Ni la cafetera de Perrow ni Cachy en Caballito son anécdotas pintorescas sin más. Son espejos.
Uno nos muestra cómo un sistema doméstico, sencillo, puede producir un pequeño desastre cotidiano sin que haya “una gran causa”. El otro nos muestra cómo una ciudad, en un mediodía cualquiera, puede comportarse como un sistema de alto riesgo.
Si logramos ver esos paralelos, nos resulta mucho más natural aceptar que la aviación –quizás el sistema socio-técnico más complejo que operamos a diario– no se entiende buscando un culpable, sino entendiendo cómo se acopla todo con todo.
Y que, muchas veces, la diferencia entre un día más de operación segura y un “accidente normal” está en algo tan prosaico como dónde ponemos nuestra holgura, qué redundancias realmente funcionan… y qué “perros invisibles” estamos dejando asomados al balcón de nuestras operaciones.
