Las olas, el viento, los pinares y los médanos.

Escuchar el artículo

 

 

Percepción del riesgo, cerebro y decisiones que no admiten segundas oportunidades

Hace un tiempo escribí sobre la percepción del riesgo y cómo, lejos de ser un cálculo frío y racional, es una construcción frágil, moldeada por la experiencia previa, las expectativas y el contexto. Ese artículo no hablaba solo de aviación. Hablaba de personas.

Hoy, ese marco conceptual vuelve a mostrarse vigente en un escenario aparentemente ajeno al mundo aeronáutico: los médanos de Pinamar y zonas vecinas. Carreras improvisadas, maniobras “de prueba”, vehículos potentes, ausencia de planificación y medidas de seguridad mínimas. Y un agravante que desarma cualquier intento de justificación técnica: adultos exponiendo a niños a un entorno de alto riesgo, con consecuencias que ya conocemos.

La pregunta no es qué pasa. La pregunta es por qué, aun después de accidentes graves, se sigue haciendo lo mismo.

El cerebro no evalúa riesgo: lo interpreta. Desde la neurociencia sabemos que el riesgo no se “mide” en el cerebro: se interpreta. Esa interpretación emerge de la interacción —no siempre armónica— entre distintos sistemas cerebrales.

La amígdala cumple un rol central en la detección de estímulos novedosos, intensos y emocionalmente cargados. No discrimina entre amenaza y excitación: responde a la activación. Velocidad, ruido, pendiente, espectadores y desafío generan un cóctel que reduce la percepción subjetiva de peligro, especialmente cuando no existe una experiencia previa negativa.

La corteza prefrontal integra información, evalúa consecuencias futuras y regula la conducta. Pero su influencia disminuye cuando el nivel de activación emocional es alto, cuando hay presión social o cuando la persona cree tener control de la situación.

El resultado es conocido en aviación y se repite en tierra: “Nunca me pasó nada” se transforma en el fatídico “A mí no me va a pasar”.

No es valentía.
Es un sesgo neurocognitivo.

“No existe una escuela

que enseñe a vivir”.

— Serú Girán – Charlie García – 1980

La percepción del riesgo no es el riesgo real. Como desarrollé en aquel artículo, el riesgo no existe como entidad objetiva en la mente humana. Lo que existe es una representación interna del riesgo, construida a partir de la experiencia previa, las expectativas culturales, las señales del entorno y los relatos compartidos.

El punto crítico es que esa representación no escala linealmente con el peligro real.

Cuando una actividad se repite sin consecuencias visibles, el cerebro ajusta su modelo interno: no porque el riesgo haya disminuido, sino porque la percepción se adapta.

En términos simples:

Si no ocurrió antes, el cerebro concluye que no es tan peligroso.

Este mecanismo es especialmente potente en contextos donde:

  • Los eventos adversos son poco frecuentes pero catastróficos.
  • La retroalimentación es débil o tardía.
  • El error no se manifiesta de forma progresiva, sino abrupta.

Exactamente el patrón que conocemos en la seguridad operacional.

Cuando lo peligroso se vuelve paisaje

Los médanos dejan de percibirse como un entorno hostil y pasan a ser “el lugar donde siempre fuimos”.

La pendiente ya no se evalúa.

La velocidad deja de sentirse excesiva.

La presencia de otros refuerza la idea de normalidad.

El cerebro confunde ausencia de consecuencias con ausencia de peligro.

En aviación, este estado es uno de los más peligrosos del sistema: cuando nada parece mal… hasta que todo falla al mismo tiempo.

Por qué los accidentes no corrigen la conducta

Desde la psicología cognitiva y la sociología del riesgo, que los accidentes no modifiquen conductas no es una anomalía: es un patrón ampliamente documentado.

Sesgo de optimismo. Investigado por Daniel Kahneman y Amos Tversky, describe la tendencia a creer que los eventos negativos les ocurren a otros, no a uno mismo.

El accidente confirma que el riesgo existe, pero no que me aplique. El cerebro introduce una variable implícita: “yo soy distinto”.

Normalización de la desviación. Concepto desarrollado por Diane Vaughan en su análisis del accidente del Challenger. Cuando una práctica insegura se repite sin consecuencias inmediatas, termina integrándose como “normal”, incluso después de incidentes.

El sistema aprende la conducta, no la consecuencia.

Heurística de disponibilidad mal calibrada. La percepción del riesgo depende de cuán fácilmente recordamos ejemplos relevantes. Pero si el accidente no fue vivido en primera persona o no ocurrió dentro del propio grupo de referencia, su impacto cognitivo es bajo. La repetición de accidentes puede incluso desensibilizar.

Validación social. La conducta del grupo pesa más que la evidencia objetiva. Si otros siguen haciéndolo, el cerebro interpreta que el riesgo es aceptable. En seguridad operacional, esto se reconoce como deriva cultural del riesgo.

Falta de retroalimentación directa. El cerebro aprende mejor por experiencia propia que por advertencia. Si una conducta peligrosa “sale bien” muchas veces y falla una, el aprendizaje ocurre solo en quienes sobreviven. Para el resto, el modelo mental permanece intacto.

La última barrera

En aviación hablamos de ilusión de control: creer que la habilidad individual compensa la ausencia de sistema. Que la potencia, la experiencia informal o la confianza personal reemplazan a la planificación, al entrenamiento y a las barreras.

En los médanos, esta ilusión se potencia por:

  • Ausencia de regulación visible.
  • Normalización social.
  • Transferencia errónea de experiencia desde otros contextos.

El riesgo no avisa. Se manifiesta cuando variables invisibles se alinean.

Aquí aparece un punto crítico desde los factores humanos. Los niños no tienen desarrollada plenamente la corteza prefrontal. No pueden evaluar riesgo. Confían. Copian. Normalizan.

El adulto debería funcionar como última barrera defensiva del sistema.
Cuando esa barrera falla, el sistema queda sin protección.

En aviación, eso sería inaceptable.
En cualquier dominio de alto riesgo, también debería serlo.

No es médanos vs. aviación. Es cultura de riesgo. Este análisis busca hacer visible el mecanismo que nos lleva a repetir decisiones que terminan en tragedia.

La seguridad no depende solo de normas. Depende de comprender cómo funciona el cerebro humano frente al riesgo y de diseñar sistemas que no lo engañen.

Cuando la emoción domina y la razón llega tarde, el margen de error se vuelve cero.

Y hay escenarios donde no existe el “después aprendemos”.

Epílogo

En aviación aprendimos —a un costo altísimo— que confiar en el juicio individual es insuficiente. Que el sistema debe anticipar la falla humana, no castigarla después.

Los médanos no son una pista.
Los niños no son pasajeros voluntarios.
Y el riesgo, cuando se subestima, no perdona.

Pensar en sistemas complejos no es exclusivo del aire.
Es una responsabilidad en cualquier lugar donde una decisión mal evaluada puede cambiar una vida para siempre.

“Es imposible garantizar que la vida de una persona dure hasta que la lluvia que cae, pare”.

— Ihara Saikaku

Usar paraguas no detiene la lluvia.
Pero reduce la exposición.

Hasta la próxima.

 

Referencias

Ihara Saikaku. Seudónimo de Hirayama Tōgo (1642 -1693), ​fue un poeta y novelista japonés, ​ una de las más brillantes figuras de la literatura japonesa del período Edo en la historia de Japón. Nakatsu, Wakayama.

Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.

Vaughan, D. (1996). The Challenger Launch Decision. University of Chicago Press.

Reason, J. (1997). Managing the Risks of Organizational Accidents. Ashgate.