Las olas, el viento, los pinares y los médanos.

Percepción del riesgo, cerebro y decisiones que no admiten segundas oportunidades Hace un tiempo escribí sobre la percepción del riesgo y cómo, lejos de ser un cálculo frío y racional, es una construcción frágil, moldeada por la experiencia previa, las expectativas y el contexto. Ese artículo no hablaba solo de aviación. Hablaba de personas. Hoy, ese marco conceptual vuelve a mostrarse vigente en un escenario aparentemente ajeno al mundo aeronáutico: los médanos de Pinamar y zonas vecinas. Carreras improvisadas, maniobras “de prueba”, vehículos potentes, ausencia de planificación y medidas de seguridad mínimas. Y un agravante que desarma cualquier intento de justificación técnica: adultos exponiendo a niños a un entorno de alto riesgo, con consecuencias que ya conocemos. La pregunta no es qué pasa. La pregunta es por qué, aun después de accidentes graves, se sigue haciendo lo mismo. El cerebro no evalúa riesgo: lo interpreta. Desde la neurociencia sabemos que el riesgo no se “mide” en el cerebro: se interpreta. Esa interpretación emerge de la interacción —no siempre armónica— entre distintos sistemas cerebrales. La amígdala cumple un rol central en la detección de estímulos novedosos, intensos y emocionalmente cargados. No discrimina entre amenaza y excitación: responde a la activación. Velocidad, ruido, pendiente, espectadores y desafío generan un cóctel que reduce la percepción subjetiva de peligro, especialmente cuando no existe una experiencia previa negativa. La corteza prefrontal integra información, evalúa consecuencias futuras y regula la conducta. Pero su influencia disminuye cuando el nivel de activación emocional es alto, cuando hay presión social o cuando la persona cree tener control de la situación. El resultado es conocido en aviación y se repite en tierra: “Nunca me pasó nada” se transforma en el fatídico “A mí no me va a pasar”. No es valentía.Es un sesgo neurocognitivo. “No existe una escuela que enseñe a vivir”. — Serú Girán – Charlie García – 1980 La percepción del riesgo no es el riesgo real. Como desarrollé en aquel artículo, el riesgo no existe como entidad objetiva en la mente humana. Lo que existe es una representación interna del riesgo, construida a partir de la experiencia previa, las expectativas culturales, las señales del entorno y los relatos compartidos. El punto crítico es que esa representación no escala linealmente con el peligro real. Cuando una actividad se repite sin consecuencias visibles, el cerebro ajusta su modelo interno: no porque el riesgo haya disminuido, sino porque la percepción se adapta. En términos simples: Si no ocurrió antes, el cerebro concluye que no es tan peligroso. Este mecanismo es especialmente potente en contextos donde: Los eventos adversos son poco frecuentes pero catastróficos. La retroalimentación es débil o tardía. El error no se manifiesta de forma progresiva, sino abrupta. Exactamente el patrón que conocemos en la seguridad operacional. Cuando lo peligroso se vuelve paisaje Los médanos dejan de percibirse como un entorno hostil y pasan a ser “el lugar donde siempre fuimos”. La pendiente ya no se evalúa. La velocidad deja de sentirse excesiva. La presencia de otros refuerza la idea de normalidad. El cerebro confunde ausencia de consecuencias con ausencia de peligro. En aviación, este estado es uno de los más peligrosos del sistema: cuando nada parece mal… hasta que todo falla al mismo tiempo. Por qué los accidentes no corrigen la conducta Desde la psicología cognitiva y la sociología del riesgo, que los accidentes no modifiquen conductas no es una anomalía: es un patrón ampliamente documentado. Sesgo de optimismo. Investigado por Daniel Kahneman y Amos Tversky, describe la tendencia a creer que los eventos negativos les ocurren a otros, no a uno mismo. El accidente confirma que el riesgo existe, pero no que me aplique. El cerebro introduce una variable implícita: “yo soy distinto”. Normalización de la desviación. Concepto desarrollado por Diane Vaughan en su análisis del accidente del Challenger. Cuando una práctica insegura se repite sin consecuencias inmediatas, termina integrándose como “normal”, incluso después de incidentes. El sistema aprende la conducta, no la consecuencia. Heurística de disponibilidad mal calibrada. La percepción del riesgo depende de cuán fácilmente recordamos ejemplos relevantes. Pero si el accidente no fue vivido en primera persona o no ocurrió dentro del propio grupo de referencia, su impacto cognitivo es bajo. La repetición de accidentes puede incluso desensibilizar. Validación social. La conducta del grupo pesa más que la evidencia objetiva. Si otros siguen haciéndolo, el cerebro interpreta que el riesgo es aceptable. En seguridad operacional, esto se reconoce como deriva cultural del riesgo. Falta de retroalimentación directa. El cerebro aprende mejor por experiencia propia que por advertencia. Si una conducta peligrosa “sale bien” muchas veces y falla una, el aprendizaje ocurre solo en quienes sobreviven. Para el resto, el modelo mental permanece intacto. La última barrera En aviación hablamos de ilusión de control: creer que la habilidad individual compensa la ausencia de sistema. Que la potencia, la experiencia informal o la confianza personal reemplazan a la planificación, al entrenamiento y a las barreras. En los médanos, esta ilusión se potencia por: Ausencia de regulación visible. Normalización social. Transferencia errónea de experiencia desde otros contextos. El riesgo no avisa. Se manifiesta cuando variables invisibles se alinean. Aquí aparece un punto crítico desde los factores humanos. Los niños no tienen desarrollada plenamente la corteza prefrontal. No pueden evaluar riesgo. Confían. Copian. Normalizan. El adulto debería funcionar como última barrera defensiva del sistema.Cuando esa barrera falla, el sistema queda sin protección. En aviación, eso sería inaceptable.En cualquier dominio de alto riesgo, también debería serlo. No es médanos vs. aviación. Es cultura de riesgo. Este análisis busca hacer visible el mecanismo que nos lleva a repetir decisiones que terminan en tragedia. La seguridad no depende solo de normas. Depende de comprender cómo funciona el cerebro humano frente al riesgo y de diseñar sistemas que no lo engañen. Cuando la emoción domina y la razón llega tarde, el margen de error se vuelve cero. Y hay escenarios donde no existe el “después aprendemos”. Epílogo En aviación aprendimos —a un costo altísimo— que confiar en el juicio
Un día cualquiera hasta que deja de serlo: sistemas complejos en acción.

Un día cualquiera, una cafetera y un perro que cae del cielo Cuando la vida se “complica sola” Charles Perrow, en su libro Accidentes normales, arranca con una escena tan cotidiana que cualquiera podría reconocerla. Es una mañana importante: no vas al trabajo habitual porque tenés una entrevista clave en el centro de la ciudad. El día ya viene con algo de presión. Cuando vas a prepararte el desayuno, descubrís que tu pareja dejó la cafetera de vidrio sobre la hornalla encendida: el café se evaporó y la jarra estalló. Sin café, mal comienzo. Como sos adicto al café, revolvés la cocina hasta encontrar una vieja cafetera metálica. La ponés al fuego, mirás el reloj cada dos minutos, te tomás el café casi de un trago y salís disparando. Al llegar al auto, te das cuenta de que te olvidaste las llaves… y también las del departamento. Por suerte, tenías un sistema de respaldo: otro juego de llaves escondido bajo el felpudo de la entrada. Redundancia, diríamos en aviación. Sólo que recordás que esa “redundancia” la usaste hace unos días: le dejaste el juego de repuesto a un amigo para que pudiera entrar a tu casa a buscar unos libros mientras vos no estabas. El camino alternativo quedó neutralizado. Esa barrera ya no existe. Vas por el siguiente plan: pedirle el auto al vecino, un señor amable que casi no usa su coche y lo tiene siempre en condiciones. Tocás el timbre y te enterás de que el alternador se rompió la semana pasada y recién hoy a la tarde lo van a buscar para repararlo. Segundo plan de respaldo que falla. Queda el colectivo… pero hay paro. La empresa decretó un cierre patronal y los conductores se niegan a mover unidades que consideran inseguras, de paso reclamando mejoras salariales. Intentás llamar un taxi desde lo de tu vecino, pero el sistema está saturado justamente porque no hay colectivos circulando. Cuando ya estás resignado, llamás a la secretaria de la agencia de empleo: “Me pasó una serie de cosas esta mañana, no voy a llegar. ¿Podemos reprogramar?”. Ella contesta amablemente que no hay problema, pero piensa: “No es confiable. Tanto insistir por la entrevista y ahora esto”. Lo anota en la agenda y probablemente te asigna un horario poco conveniente para la próxima cita. Perrow cierra esta escena con una pregunta tramposa: ¿cuál fue la causa principal de este “desastre”? La cafetera, las llaves, el auto, el paro, los taxis… Ninguna respuesta, tomada sola, hace justicia a lo que pasó. Es un accidente multicausal: lo que importa no es la pieza suelta, sino la configuración del sistema. Y ahí introduce su tesis central: en ciertos sistemas complejos, algunos accidentes no son anomalías, sino “accidentes normales”, resultado esperable de cómo está armado el sistema. De la cocina a Caballito: el día de Cachy Ahora corramos la escena a Buenos Aires, octubre de 1988. Mediodía de primavera sobre la Avenida Rivadavia al 6100, barrio de Caballito. Tránsito denso pero “habitual”: taxis, colectivos parando y arrancando, chicos saliendo del colegio, gente con bolsas de compras, porteros charlando en la vereda. Una vecina de 75 años sale al almacén, pasa por la carnicería, vuelve con las bolsas en la mano. Todo es rutina. En un balcón de un piso 13, un caniche blanco –Cachy– se asoma más de la cuenta. Cae al vacío. La probabilidad de que impacte sobre una persona es baja, pero el tránsito y el flujo de peatones la multiplican. El perro golpea de lleno la cabeza de la mujer. Muerte instantánea para ambos. La escena estalla: gritos, frenadas, gente corriendo, bolsas de compras desparramadas en la vereda. Se forma el clásico círculo de curiosos. Entre ellos, una mujer de 47 años que se acerca a ver “qué pasó”. En medio de bocinazos, maniobras y peatones mal ubicados, el interno 15 de la línea 55 la atropella y la arrastra varios metros. Tercera muerte en el acto: dos humanos y un perro. La esquina de Rivadavia y Morelos no tiene semáforo. Los de las esquinas cercanas no están bien coordinados. El flujo se vuelve errático: algunos autos pasan, otros frenan, las decisiones se toman “a ojo”. Un hombre que presenció las dos escenas comienza a sentirse mal. Cruza la avenida hacia una concesionaria de venta de autos, entra a pedir ayuda, sufre un infarto y muere camino al hospital. Cuatro muertes: Tres humanas y un perro. La lectura espontánea es casi inevitable: “Fue una desgracia absurda. Pura mala suerte”. Cuatro muertes: tres humanas y un perro, una esquina sin semáforo, semáforos vecinos mal sincronizados, tránsito denso, un círculo de curiosos y un infarto. Igual que en la historia de la cafetera, nuestra mente arma una cadena simple: perro que cae → muerte de la vecina → tumulto → atropello → infarto. Eso nos da una sensación de cierre. Pero, desde la mirada de Perrow, esa forma de explicarlo es justamente lo que nos impide aprender. Podríamos consolarnos pensando que historias como la de Cachy o la mañana de la cafetera son tan extrañas que no volverán a ocurrir. Sin embargo, el 29 de agosto de 2025, en Sincelejo (Sucre, Colombia), un pastor alemán llamado “Milán” quedó literalmente colgando del balcón tras perder el equilibrio entre las barandas. Las imágenes se hicieron virales: el perro lucha por sostenerse, ladra, y finalmente su dueña sale, lo rescata y él baja las orejas y mueve la cola al verla. La diferencia entre un video conmovedor y una tragedia como la de Caballito fueron unos centímetros y unos segundos de reacción. Desde una mirada sistémica, estos “casi accidentes” recuerdan algo incómodo: la probabilidad de que ocurra es baja, pero no es cero; si las condiciones se repiten y no cambiamos el sistema (poner redes, rediseñar barandas, crear barreras), el escenario para que el desastre se complete sigue estando ahí. Lo que une a la cafetera y al caniche «Cachy»: sistemas complejos y acoplamientos Perrow propone mirar estas historias no
Explicaciones simples, sistemas complejos

Un nuevo estudio explora por qué las personas suelen preferir explicaciones simples, incluso cuando las explicaciones más complejas podrían ser más precisas. Los investigadores analizaron cómo opera la Navaja de Ockham (también conocida como la ley de parsimonia), el principio que sugiere que: “Pluralitas non est ponenda sine necessitate”, es decir: entre múltiples explicaciones, la más simple suele ser la mejor, dentro del razonamiento humano cotidiano. Era de los más grandes filósofos de la Europa medieval, se llamaba William y como nació en la pequeña aldea de Ockham, en el sur de Inglaterra, pasó a la historia como William de Ockham. Su idea era que los argumentos filosóficos deben mantenerse lo más simples posible, una navaja filosófica es un atajo mental que puede ayudar a llegar a mejores explicaciones de un fenómeno al descartar hipótesis innecesariamente complejas o poco probables. Él mismo practicó severamente con sus teorías y las de sus predecesores: Hitchens, “Aquello que se afirma sin evidencia se puede rechazar sin evidencia”, o la de Hanlon, “Nunca atribuyas a la malicia aquello que puede ser explicado adecuadamente por la estupidez”. Siglos después, cuando ya había sido aplicado por varias mentes brillantes, a esa idea se le daría el nombre de la navaja de Ockham u Occam. Los resultados revelan que la gente prefiere explicaciones simples no solo porque parezcan más probables o más fáciles de entender, sino también porque consideran que estas capturan mejor lo que realmente “importa” en un evento. Esta percepción tiene profundas implicancias para la forma en que razonamos, tomamos decisiones y procesamos la información La historia más simple puede ser cognitivamente eficiente, pero operativamente peligroso. La Simplicidad Contra el Pensamiento Sistémico Durante mucho tiempo, se pensó que la simplicidad servía como un atajo que, aunque no garantiza la verdad, suele acercarse bastante. En otras palabras, al elegir la explicación más simple, aumentaríamos nuestras chances de estar en lo cierto, o al menos de evitar errores graves. Desde esta perspectiva, la simplicidad se justificaría por razones prácticas: reduce la carga cognitiva, mejora la comunicabilidad y suele correlacionar con la verdad. Esta intuición se alinea con la forma en que usamos las explicaciones en la vida diaria: no solo para entender, sino para dar sentido, comunicar, asignar responsabilidad y tomar decisiones. Desde esta mirada, la simplicidad puede verse como una señal de que una explicación está enfocada en los factores causalmente más relevantes, dejando de lado el “ruido”. Siempre se nos enseñó que cuando se trata de explicaciones, menos es más. Pero, ¿por qué tenemos esa intuición? Un nuevo estudio realizado por Thalia Wheatley Vrantsidis (Dartmouth College) y Tania Lombrozo (Princeton University), publicado en la revista Trends in Cognitive Sciences, intenta responder esta pregunta. El trabajo investiga por qué, tanto en la vida cotidiana como en la ciencia, tendemos a preferir explicaciones simples, incluso cuando hay disponibles explicaciones más complejas y, potencialmente, más precisas. Este sesgo, (siempre están), hacia lo simple no es nuevo. Ya en el siglo XIV, el filósofo Guillermo de Ockham propuso lo que hoy conocemos como la Navaja de Ockham: la idea de que, frente a múltiples hipótesis, la más simple suele ser preferible. Pero aunque este principio se utiliza habitualmente en contextos científicos, lo cierto es que también lo aplicamos de manera intuitiva en la vida cotidiana. Lo interesante del estudio de Vrantsidis y Lombrozo es que va más allá de lo obvio. Hasta ahora, se pensaba que preferimos explicaciones simples porque son más fáciles de entender, más probables o cognitivamente menos costosas. Pero esta investigación sugiere algo más profundo, que consideramos que las explicaciones simples son mejores porque creemos que capturan lo esencial de una situación, que nos dicen lo que realmente importa. Desde esta perspectiva, la simplicidad no es solo una cuestión de forma, sino de significado. Qué implica que algo sea “simple” La simplicidad puede presentarse de muchas maneras: menos causas, menos suposiciones, estructuras más limpias. Por ejemplo, si estoy en una casa y escucho un ruido en el techo durante la noche, probablemente voy a asumir que es el viento antes de pensar que se trata de una combinación de viento, algún pájaro y una rama cayendo al mismo tiempo. ¿Por qué? Porque la primera explicación no solo es más fácil de entender, sino que también me parece más adecuada. Pero el estudio revela que esa adecuación no es únicamente una cuestión de probabilidad: la gente cree que la explicación más simple refleja mejor qué fue lo verdaderamente importante para que ocurriera el evento. Un enfoque experimental Para explorar esta intuición, los investigadores diseñaron una serie de experimentos en los que los participantes debían elegir entre explicaciones simples o complejas para distintos eventos. Por ejemplo: ¿por qué un equipo de fútbol ganó un partido? ¿Por qué una persona enfermó? Los resultados mostraron que las personas tienden a elegir la explicación más simple, incluso cuando se les informa que la más compleja es objetivamente más probable. La simplicidad ganaba porque, según los participantes, “iba al grano”, “capturaba la esencia del evento” o “resaltaba la causa más importante”. Simplicidad e intencionalidad Otro hallazgo clave es que solemos asociar las explicaciones simples con una mayor intencionalidad; es decir, tendemos a pensar que alguien o algo hizo que eso ocurriera de forma deliberada. Por ejemplo, si un piloto logra un aterrizaje de emergencia exitoso, la explicación simple podría ser: “porque es un gran piloto”. En cambio, una explicación más compleja tomaría en cuenta múltiples factores, como el entrenamiento, la meteorología, el tipo de aeronave, la coordinación, entre otros. Sin embargo, la primera nos resulta más “satisfactoria”, porque parece resaltar lo central: la habilidad del piloto. El problema aparece cuando el entorno que intentamos explicar no es simple. En aviación, como en cualquier sistema sociotécnico, los eventos no son lineales ni monocausales. Un mismo desenlace puede emerger de la interacción simultánea de factores humanos, tecnológicos, procedimentales y organizacionales. Pero nuestro cerebro, condicionado por años de evolución en entornos de baja complejidad, sigue buscando la causa: Singular.Clara. Simple. Y así, nos encontramos
Cuando el juicio supera a la velocidad: la madurez como punto de máximo rendimiento cognitivo.

La historia del aprendizaje humano no comenzó en una escuela: empezó alrededor del fuego. Miles de años antes de que existieran los libros y los simuladores de vuelo, aprender significaba observar, imitar y sobrevivir. En las primeras sociedades de cazadores-recolectores, el conocimiento no se transmitía con exámenes, sino con la mirada atenta del aprendiz que seguía los rastros del experto que guiaba a la tribu. Era una educación basada en la experiencia directa: descubrir dónde buscar alimento, comprender señales del entorno, interpretar gestos del otro para anticipar amenazas o alianzas, con una participación activa de nuestra amígdala, que hasta el día de hoy sigue interpretando así: lucha o huida, creando recuerdos emocionales asociados a experiencias amenazantes para poder reaccionar de forma similar en el futuro. Estas capacidades, llamadas por los psicólogos evolucionistas habilidades primarias, eran casi intuitivas. Nuestro cerebro estaba estructurado para adquirirlas porque significaban vivir, supervivencia. Pero el mundo cambió más rápido que nosotros. La física, las matemáticas, la navegación aérea, la gestión de riesgos y los procedimientos basados en evidencia científica llegaron hace apenas un instante en términos evolutivos. Newton publicó sus Principia Mathematica en 1687, como si lo hubiera hecho a las 23:58 de un día de 24 horas que representa toda la historia humana. En ese período brevísimo, surgieron habilidades que nuestra mente no aprende sola. A esas se las llama habilidades secundarias: conceptos abstractos, pensamiento moral complejo, razonamiento estadístico, toma de decisiones bajo incertidumbre, juicio operacional. Para adquirirlas no basta observar: necesitamos enseñanza deliberada, reflexión, estructura y tiempo. Así nacieron las escuelas en Mesopotamia, Egipto y China, para enseñar aquello que el instinto no transmitía. Más tarde, los griegos la convirtieron en un camino hacia la excelencia del cuerpo y el carácter. Posteriormente, en la Edad Media, quedó al servicio de la fe. Con la Ilustración, se transformó en derecho. Pero durante la revolución industrial se volvió rígida, prusiana, diseñada para producir personas obedientes, estandarizadas y productivas. Se impuso la idea de que se estudia en la juventud, se rinde en la adultez y se declina en la vejez. Sin embargo, el cerebro humano no responde a esa línea recta. Porque hay una diferencia esencial entre acumular información y desarrollar juicio. La mente experta no es la más rápida: es la que comprende antes de actuar. Un análisis científico (Gignac & Zajenkowski, 2025) que integró 16 dimensiones psicológicas, desde la cognición hasta la personalidad, reveló que el funcionamiento psicológico general alcanza su punto máximo entre los 55 y 60 años, y en algunos aspectos incluso entre los 70 y 80. Es decir: cuando muchos creen que comienza el descenso, en realidad el pensamiento humano llega a una de sus fases más poderosas. Lo viejo funciona, ¡Juan! Esto ocurre porque, aunque la velocidad de procesamiento y la memoria inmediata puedan disminuir con el tiempo, otras capacidades clave aumentan con la madurez: El razonamiento se vuelve más estratégico. El conocimiento deja de ser datos y se convierte en comprensión contextual. La estabilidad emocional mejora la calidad del juicio. La responsabilidad se internaliza. Y lo más relevante para la seguridad: la capacidad de detectar y resistir sesgos cognitivos se fortalece. A diferencia de un profesional joven, que puede ejecutar con precisión, aunque aún no percibe todas las implicaciones, quien ha transitado muchas horas de vuelo mental, deja de preguntarse “¿qué hago ahora?”, para comenzar a preguntarse “¿qué puede pasar si no veo lo que otros no ven?”. Allí, el juicio supera a la velocidad. La madurez como escudo frente a los sesgos cognitivos. El error humano se puede originar por distorsiones en la forma de interpretar la realidad. Por eso, la gestión de amenazas y errores, la conciencia situacional, la seguridad operacional no dependen solo del conocimiento técnico, sino de la capacidad para reconocer sesgos cognitivos antes de que distorsionen la toma de decisiones. La madurez puede actuar como un filtro preventivo frente a algunos de los sesgos más peligrosos en entornos críticos: Sesgo Presencia en etapas tempranas Evolución con la madurez consciente Exceso de confianza “Esto ya lo hice mil veces” Se modera con el recuerdo de errores pasados Ilusión de control “Yo lo manejo” Se reemplaza por una visión sistémica del riesgo Impulsividad emocional Decisión reactiva Se transforma en pausa crítica y cálculo prudente Sin embargo, si la experiencia no va acompañada de autocrítica y aprendizaje continuo, pueden aparecer sesgos inversos: Sesgo Manifestación posible Riesgo asociado Sesgo de precedente “Siempre lo hicimos así” Rechazo al cambio necesario Rigidez cognitiva Fijación en un marco mental Pérdida de adaptación ante nuevos escenarios Ilusión retrospectiva “Ya lo sabía” Bloqueo del aprendizaje real Por eso, la madurez solo se convierte en sabiduría si viene acompañada de conciencia de sesgos y apertura a revisar lo aprendido. Liderar desde la madurez: del cumplimiento técnico a la construcción de criterio colectivo. En los primeros tramos de la carrera, el profesional se enfoca en ejecutar procedimientos y demostrar que puede cumplir con el estándar. Pero con los años, la mirada se expande: ya no importa solo hacer bien la tarea, sino comprender cómo cada decisión afecta la seguridad, la confianza y la continuidad del sistema. En esta etapa, la experiencia deja de ser registro de vivencias para convertirse en criterio operativo. No se trata de “saber por haber estado allí”, sino de comprender por qué un error pequeño puede crecer, cómo opera el sesgo del plan continuado o dónde se esconde el exceso de confianza cuando todo parece bajo control. Así nace un nuevo tipo de liderazgo, no basado en autoridad impuesta, sino en claridad mental. Este liderazgo no es un rango: es un estado cognitivo. Aprender para seguir volando: la experiencia como futuro, no como pasado Durante décadas se creyó que la experiencia era un recuerdo acumulado. Hoy sabemos que, si se trabaja con reflexión continua, puede convertirse en una antena anticipatoria. No es solamente saber qué ocurrió antes, sino ser capaz de prever lo que podría ocurrir si no se ajusta el rumbo a tiempo. La era actual
Mental Health in Aviation Act: la ley que reconoce la salud mental en la aviación.

La Cámara de Representantes de los Estados Unidos aprobó la Ley de Salud Mental en la Aviación (Mental Health in Aviation Act), una legislación bipartidaria, presentada por los congresistas Pete Stauber (distrito MN-08) y Sean Casten (distrito IL-06). La Ley de Salud Mental en la Aviación de 2025 (Mental Health in Aviation Act of 2025), presentada por los representantes de Minnesota, fue aprobada el lunes mediante votación por aclamación (voice vote), un procedimiento en el cual los legisladores expresan su voto oralmente y el resultado se determina sin un conteo individual. Ahora pasará al Senado de los Estados Unidos. “Los aviadores no deberían ser penalizados injustamente por buscar atención en salud mental”, declaró el Representante Sean Casten en un comunicado. “El sistema actual perpetúa una cultura de silencio, y ya es hora de que eso cambie.” — Rep. Sean Casten En un comunicado, el congresista Peter Stauber expresó: “Volar sigue siendo una de las formas de transporte más seguras, pero mantener ese nivel de seguridad implica cuidar a las personas que lo hacen posible”, y continúa: “Lamentablemente, la normativa actual de la Federal Aviation Administration (FAA) impide que los profesionales de la aviación busquen atención en salud mental, ya que impone penalidades injustas a quienes lo hacen. Esto genera una cultura peligrosa de silencio y estigmatización. La Ley de Salud Mental en la Aviación eliminará estas barreras y brindará apoyo a la salud mental de nuestra fuerza laboral aeronáutica. Me enorgullece que haya sido aprobada hoy en la Cámara, y espero continuar trabajando junto al representante Casten para que llegue al escritorio del Presidente”. Acceder a acompañamiento psicológico de manera oportuna y confidencial puede resultar todo un desafío. Esto sucede mientras intentamos derribar prejuicios arraigados acerca de lo que significa vivir con depresión, ansiedad u otras condiciones vinculadas a la salud mental. El mejor mensaje que puedo darte si sos piloto y estás atravesando un momento difícil en términos de salud mental es este: no estás solo. No esperes a “estar peor” para consultar. Pedir ayuda a tiempo, salva carreras y salva vidas. Una creencia común entre los pilotos es que ser vulnerables y compartir sentimientos o dificultades —como la ansiedad, la depresión y el estrés crónico— sería, en el mejor de los casos, humillante o vergonzoso y, en el peor, el fin de su carrera. No es algo que se note en el exterior, ni en el examen médico de aviación cada seis meses, por dar un ejemplo, porque la enfermedad reside en la química del cerebro. La Universidad de Dakota del Norte, entre otras organizaciones, demostró, en el estudio más amplio de más de 4000 pilotos en Estados Unidos, que más del 56 porciento admitió abiertamente algún tipo de comportamiento de evasión de la atención médica. En el estudio realizado por el Dr. Hoffman y otros, se descubrió que, de un total de 3765 participantes del programa piloto, 2111 (56,1 porciento) reportaron antecedentes de evasión de atención médica por temor a perder su certificado médico de la FAA. Incluso si el piloto buscó atención médica, fue el caso de 994 (26,8 porciento) tergiversaron u ocultaron información en un formulario de atención médica por el mismo motivo. En diciembre de 2023, la Federal Aviation Administration (FAA) reconoció la necesidad de reformar sus políticas vigentes y creó el Comité de Reglamentación sobre Salud Mental y Aptitudes Médicas Aeronáuticas (Mental Health and Aviation Medical Clearances Aviation Rulemaking Committee —ARC—) con el fin de identificar las barreras que dificultan el acceso a la atención en salud mental para aviadores, y proponer recomendaciones para abordar estos desafíos. Aspectos clave Plazo y alcance regulatorio: la FAA deberá actualizar la normativa y tomar acciones en no más de 2 años desde la promulgación. Consulta obligatoria a actores clave: sindicatos de pilotos y médicos examinadores aeronáuticos (AME), entre otros. Informe ampliado: exigencias de reporte con recomendaciones del NTSB y evidencia clínica utilizada. Revisión anual del “special issuance”: revisión del proceso, medicación segura, capacitación y delegación a AME. Recursos y backlog: se autorizan USD 13,74 millones por año (2026–2029) para reforzar capacidad médica y reducir demoras. Implementación de recomendaciones del ARC: en aproximadamente dos años Campaña pública de desestigmatización: USD 1,5 millones/año (2026–2029) para educación y confianza con pilotos. Qué cambia en el consultorio (y en la cabina) Si estás en tratamiento: menos penalización y retorno operativo más ágil. Si sos psiquiatra: más capacitación y posibles delegaciones de autoridad. Para la empresa: menos incertidumbre por trámites; foco en detección temprana y retorno seguro. El prejuicio, en su raíz más profunda, es una forma de sufrimiento cotidiano: condiciona la mirada, distorsiona el juicio y levanta muros invisibles que aíslan a quienes lo padecen. En la aviación, ese prejuicio hacia la vulnerabilidad o hacia la necesidad de ayuda no solo daña al individuo, también erosiona la confianza del sistema en su conjunto. Superar el prejuicio es, en esencia, una tarea ética y cultural, porque implica reconocer que el sufrimiento forma parte de la vida humana y que solo al asumirlo podemos transformarlo en aprendizaje y fortaleza. Epílogo La sanción de la Mental Health in Aviation Act es un recordatorio, y un principio de abordar el tema, de que la aviación necesita marcos regulatorios que acompañen la realidad humana. La salud mental no es un accesorio de la seguridad operacional: es uno de sus pilares fundamentales. Hablar de salud mental implica reconocer que el piloto, además de formación técnica y habilidades, es una persona expuesta a presiones, responsabilidades y contextos que pueden impactar en su bienestar. Normalizar la búsqueda de apoyo psicológico y derribar el estigma asociado es tan relevante como contar con manuales, procedimientos y entrenamientos rigurosos. Una aviación más segura también depende de profesionales equilibrados y acompañados. Cuando los legisladores se ocupan de temas sensibles como este, envían una señal clara de responsabilidad y compromiso social. Estas leyes no solo generan cambios reglamentarios; también contribuyen a modificar la cultura, a derribar prejuicios y a abrir espacios para el cuidado de quienes sostienen la aviación día a