Accidente en LaGuardia: una lectura sistémica sobre seguridad operacional y factores humanos

LaGuardia: cuando el sistema agota su margen de maniobra Una lectura sistémica sobre seguridad en pista, factores humanos y la fragilidad del control en entornos operacionales complejos LaGuardia condensa una paradoja clásica de los sistemas complejos: cuanto más ajustada es la operación, más depende la seguridad de coordinaciones que deben salir bien al mismo tiempo. El accidente ocurrido en LaGuardia el 22 de marzo de 2026 no invita a una lectura lineal. La colisión entre un CRJ-900 de Air Canada Express y un vehículo de emergencia no parece encajar cómodamente en el relato tranquilizador del error aislado. Más bien sugiere algo más incómodo: la exposición repentina de un sistema exigido al límite, obligado a gestionar simultáneamente múltiples demandas críticas en un entorno de alta compresión operacional. Ubicado en Queens, Nueva York, el Aeropuerto LaGuardia es desde hace décadas uno de los entornos más desafiantes para la gestión de la seguridad operacional en Estados Unidos. Inaugurado en 1939, fue concebido para una aviación muy distinta de la actual. Su diseño original no anticipó ni el volumen de tráfico contemporáneo ni la intensidad operativa que hoy soporta. Esa tensión entre infraestructura heredada y demanda moderna lo convierte en un caso casi paradigmático de sistema con acoplamiento fuerte. A diferencia de otros grandes hubs con pistas paralelas y mayores márgenes espaciales, LaGuardia opera con una configuración más ajustada, en un entorno físico limitado y con escasa posibilidad de expansión. Rodeado por agua y comprimido por su propia geografía, obliga a que calles de rodaje, áreas de maniobra y movimientos de vehículos de emergencia convivan en una proximidad que reduce tolerancias y vuelve más delicada cualquier coordinación. En términos sistémicos, no se trata solo de un aeropuerto complejo: se trata de un entorno donde las interacciones entre componentes pueden volverse rápidamente críticas. Cuando la complejidad deja de ser administrable Por eso, lo ocurrido aquella noche no debería leerse únicamente como un accidente más, ni tampoco como el resultado lineal de una equivocación individual. La pregunta importante no es solo quién se equivocó. La pregunta más fértil es otra: qué condiciones hicieron posible que dos trayectorias incompatibles coexistieran hasta el punto del impacto. Según la información difundida hasta ahora, el vehículo de emergencia no se encontraba en la zona por una irrupción anómala o caprichosa, sino respondiendo a otra situación operativa. Ese dato es central. El accidente no ocurre en un escenario simple, sino en uno atravesado por simultaneidad, presión temporal y múltiples demandas críticas compitiendo por atención. Y cuando un sistema entra en modo de excepción, lo que se pone a prueba no es solo la competencia de las personas, sino la robustez de sus defensas. En sistemas complejos, el accidente rara vez nace de una sola falla: emerge cuando varias vulnerabilidades, tolerables por separado, convergen en la misma ventana temporal. Aquí aparece uno de los puntos más relevantes desde la perspectiva de los factores humanos. En contextos de alta carga, las prioridades cambian, la atención se fragmenta y la coordinación deja de ser una secuencia limpia para convertirse en una gestión de tensiones concurrentes. ¿Qué ocurre cuando una emergencia previa altera la normalidad?¿Qué ocurre cuando la carga mental aumenta justo en el momento menos oportuno?¿Qué ocurre cuando el sistema sigue funcionando, pero ya sin margen?¿Qué ocurre cuando dos respuestas legítimas entran en conflicto dentro de la misma arquitectura operacional? En esos escenarios, el error humano no debería pensarse como una causa suficiente, sino como el síntoma visible de un sistema que comenzó a operar cerca de sus límites. Y allí radica una de las grandes trampas del análisis simplista: creer que identificar una acción equivocada equivale a comprender el accidente. El error como síntoma La propia investigación preliminar parece orientarse en esa dirección. Más que buscar una explicación cerrada en una sola acción o en una sola persona, todo indica que el foco está puesto en la secuencia: comunicaciones, autorizaciones, coordinación de superficie, contexto operacional, carga de trabajo y funcionamiento de las barreras disponibles. Charles Perrow llamó a esto “accidentes normales”: eventos que no son normales por deseables, sino por estructuralmente posibles dentro de sistemas densamente acoplados. LaGuardia encaja con inquietante precisión en esa lógica. No porque el accidente fuese inevitable en sentido estricto, sino porque el diseño del entorno, la intensidad operativa, la meteorología, la posible contaminación de pista y la proximidad entre funciones convierten a ciertos desvíos en amenazas de rápida escalada. Esa idea conecta con otra confusión frecuente: creer que la ausencia de accidentes equivale a la presencia de seguridad. No siempre es así. Muchas veces, los sistemas acumulan señales débiles, advertencias parciales y desajustes tolerados durante años sin que nada grave ocurra. Hasta que un día, bajo determinadas condiciones, esas vulnerabilidades dejan de ser latentes y se materializan. Dimensión Qué revela el caso Pregunta sistémica Entorno operacional Infraestructura limitada, alta densidad de movimientos, escaso margen espacial y fuerte dependencia de coordinación precisa. ¿Cuánto margen real tenía el sistema para absorber una contingencia adicional sin degradarse? Factores humanos Atención fragmentada, presión temporal, gestión simultánea de eventos y carga mental elevada. ¿El sistema podía absorber la simultaneidad sin perder separación funcional? Barreras de seguridad La coexistencia de dos respuestas legítimas terminó anulando la separación funcional esperada. ¿Las defensas eran verdaderamente robustas o dependían demasiado de una sola decisión correcta? La colisión entre dos respuestas legítimas En LaGuardia no chocaron solo el AC8646 y un camión de bomberos. Chocaron la respuesta legítima de los bomberos al vuelo de United en emergencia, la llegada igualmente legítima del AC8646 y la ilusión de que el sistema todavía conservaba margen para mantener ambas trayectorias separadas. Esa observación obliga a pensar la seguridad en términos menos lineales. No alcanza con preguntar si hubo autorización. Tampoco basta con revisar si alguien cumplía o no el procedimiento. La pregunta más importante es otra: ¿qué tan preparado estaba el sistema para absorber dos urgencias concurrentes sin perder separación funcional entre ellas? Barreras que protegen y barreras que solo consuelan La seguridad operacional suele describirse como una acumulación de
Gestión de Riesgos en la Economía de Baja Altitud

La economía de baja altitud promete transformar el delivery urbano, pero su viabilidad no depende solo de la tecnología. La clave está en gestionar el riesgo sistémico, diseñar defensas robustas y entender que la seguridad operacional es, ante todo, una cuestión de sistema.
Delivery urbano con drones

Cuando la logística suma una capa aérea “No voy a pensar en el pasado Si la luna nueva ya salió” — “Así y Así”, Luciano Pereyra Y si, la luna nueva ya salió. Imaginate estar en un parque, pedir comida desde una aplicación y caminar unos metros para retirar el pedido que acaba de llegar… por aire. No es una escena futurista ni un video de marketing: es una operación real que ya funciona en algunas ciudades y que anticipa un cambio más profundo. No tanto en los drones, sino en cómo las ciudades organizan la logística. En YouTube sigo varios canales. Uno de ellos es “Japatonic”, llevado adelante por Naka, un argentino —hijo de japoneses— que hace años decidió irse a vivir al Japón de sus ancestros. Desde allí cuenta, con su mirada, lo bueno, lo no tan bueno y lo malo de la cultura japonesa, con excelentes imágenes y edición. En el último tiempo amplió el horizonte y viajó a China. En Shenzhen, en el sur del país, muestra adelantos tecnológicos impresionantes: desde un taxi autónomo sin chofer hasta un servicio de delivery con drones. Esto último dispara este artículo. Les comparto la parte específica del delivery (si quieren ver el video completo, también vale la pena). El servicio, no el dron Tramo destacado: pedido y entrega por dron En este tramo del video se ve algo más interesante que el vuelo del dron. El pedido se realiza desde una app, el sistema asigna una ruta conocida y la entrega se concreta en un punto fijo, sin interacción directa con personas ni maniobras improvisadas. No hay épica tecnológica ni demostración: hay servicio. Por ahora, la idea de entregar una pizza con un dron en un balcón, terraza de un edificio o patio de una casa, deberá esperar un mayor desarrollo. El valor no está en el vehículo, sino en la normalización del proceso. El dron aparece como una pieza más de una cadena logística pensada para convivir con el espacio urbano. Shenzhen: drones integrados a la ciudad Ese escenario tiene una ciudad detrás. Shenzhen se ha convertido en uno de los laboratorios urbanos más avanzados para integrar drones a la vida cotidiana. Allí, el delivery aéreo dejó de ser un piloto aislado para transformarse en operación repetible. En espacios públicos como parques, los drones realizan entregas reales —principalmente de comida— en tiempos del orden de los 10 a 15 minutos. El esquema es simple: el pedido se inicia desde una aplicación, el dron recorre una ruta predefinida de baja altitud y la entrega se realiza en un punto fijo de retiro, normalmente un kiosco o locker. El usuario solo debe acercarse y retirar su pedido. La decisión de evitar el “puerta a puerta” no es menor. En entornos urbanos densos, ese modelo reduce complejidad, exposición al riesgo y fricción con peatones y edificios. El dron no improvisa: aterriza donde la ciudad ya lo espera. Empresas como Meituan operan estos servicios como una extensión de su red logística. El dron no reemplaza al reparto terrestre: lo complementa allí donde resulta más eficiente, por ejemplo en parques extensos, zonas peatonales o áreas donde el delivery tradicional pierde previsibilidad. En Argentina solemos decir que algo difícil “es un chino”. En este caso, la expresión no aplica: lo complejo está detrás del sistema, pero la experiencia para el usuario es deliberadamente simple. Economía de baja altitud: el cielo como infraestructura Este enfoque forma parte de una estrategia más amplia conocida como economía de baja altitud. El nombre puede sonar raro, pero describe algo bastante concreto: el “aire cercano al suelo” deja de ser un vacío y empieza a operar como una capa de infraestructura. Tan real como una calle, una vereda o una red eléctrica, solo que tridimensional. En esa economía, el dron es lo visible, pero lo decisivo suele ser lo invisible: rutas y zonas previstas, puntos físicos de operación (bases, lockers, plataformas), conectividad robusta, supervisión, gestión del tránsito (UTM / U-space: sistemas de gestión del tránsito de drones) y reglas que vuelven el sistema repetible. El objetivo no es “mostrar drones volando”, sino construir una nueva capa logística integrada al funcionamiento normal de la ciudad. Dicho sin vueltas: si querés que el servicio sea aburrido —previsible, estable, escalable— el backstage tiene que ser complejo. Y esa complejidad no está en el dron; está en el sistema. Cómo funciona el sistema Para entender por qué estos servicios pueden escalar —y por qué en muchas ciudades todavía no lo hacen— conviene mirar el modelo completo, no solo el resultado visible. Base, supervisión y entrega Lo que se observa es una cadena logística aérea: una base de operaciones, vuelos automatizados, supervisión desde tierra y un mecanismo de entrega diseñado para minimizar interacción con personas y con el espacio urbano. El dron es solo el vector visible de un sistema que se parece más a la aviación que al reparto informal. Esta lógica explica por qué el delivery urbano con drones no se destraba solo con mejores baterías o sensores, sino con procedimientos, control y reglas claras. De Shenzhen a Madrid: primero el marco, luego la operación El contraste con Europa es ilustrativo. Mientras Shenzhen avanza desde la operación concreta hacia la consolidación normativa, algunas ciudades europeas comienzan el camino inverso: ordenar primero el marco que permitirá que esos servicios existan. Madrid es un buen ejemplo.5 La Comunidad de Madrid anunció una estrategia integral para impulsar el ecosistema de drones, con inversión pública y mirada de largo plazo. El objetivo no es lanzar de inmediato un servicio visible de delivery urbano, sino crear condiciones estructurales para que múltiples operaciones —logística, emergencias, inspección, movilidad aérea— puedan desplegarse con previsibilidad y seguridad. Uno de los ejes centrales es la creación de una Ventanilla Única de Drones, destinada a centralizar y agilizar permisos hoy dispersos entre distintos niveles administrativos. En paralelo, se proyectan helipuertos y vertipuertos (infraestructuras terrestres, acuáticas o en azoteas diseñadas específicamente para el despegue, aterrizaje y recarga de aeronaves eléctricas de despegue y
El ave de una sola ala

Cuando era adolescente, en la mesa de luz de mi dormitorio siempre había un libro que leía antes de dormir, claro, no existían los celulares. Generalmente, novelas policiales, detectivescas. Fan del género. Por mi mesa de luz pasaron libros de Agatha Christie, volúmenes de El Séptimo Círculo —esa célebre colección de novelas y cuentos policiales enfocada, inicialmente, en el policial clásico inglés de enigmas—, que incluso me llevó a ganarme la preferencia de la profesora de Literatura en cuarto año del secundario (sí, teníamos una materia llamada “Literatura”; era geológica: Mesozoica). Y, por supuesto, no podían faltar todos los libros de la saga que dio origen a las películas Aeropuerto, basadas en la novela de Arthur Hailey: Aeropuerto 75 (1975), Aeropuerto 77 (1977) y Aeropuerto 80 (o Concorde, 1979). ¿Y Richard Bach? Obviamente, sí. Libros como Juan Salvador Gaviota, Ilusiones, El don de volar, Ajeno a la tierra y Biplano me acompañaron y me motivaron durante el curso de Piloto Privado de Avión, en esa etapa en la que las ilusiones están a flor de piel y el vuelo todavía conserva algo de épica personal. También pasaron por mis manos otros autores con temática aeronáutica, como La tragedia del DC-10, con su trama de conspiración alrededor de los accidentes de ese avión. Recuerdo ahora otro título: El último tigre volador, de David Fisher. En mi ciudad natal, Mar del Plata, había un programa de televisión llamado Los libros y la noche, transmitido por el canal local, en el que se recomendaban libros. Duraba no más de diez o quince minutos y se emitía antes del cierre de la transmisión, a mediados de la década del 2000, si mal no recuerdo. El conductor cerraba siempre con una frase que se me quedó grabada: “Si tenés un libro, nunca estás solo” Después pasé varios años —no sabría decir cuántos— sin leer novelas, hasta que decidí retomar el placer de la lectura como un acto de salud mental. Hoy leo entre cinco y seis libros por año y volví al policial, mi género preferido. Por recomendación, me acerqué a un autor japonés que hoy sugiero, sin dudar, a quienes disfrutan de una buena novela policial con un enfoque realista, lejos del misterio clásico “a la inglesa”: Seichō Matsumoto. Uno de los escritores japoneses más influyentes del siglo XX, ganador de algunos de los premios literarios más prestigiosos de su país y considerado una figura central de la novela negra japonesa. Entre sus libros destaco El expreso de Tokio, Punto cero, El castillo de arena, La chica de Kyushu y Un lugar desconocido. Todos, absolutamente todos, recomendables. Ese interés por la literatura japonesa me llevó a descubrir, en la góndola de una librería de la Avenida Santa Fe, en la ciudad de Buenos Aires, un libro de Ihara Saikaku, publicado en 1687, cuyo título original es Nanshoku Ōkagami. Se trata de una colección de relatos —cuarenta historias cortas— pertenecientes al género ukiyo-zōshi: una narrativa urbana, directa, atenta a la vida cotidiana del Japón del período Edo. Son historias de amor que terminan en pérdida. No son tragedias al estilo de Shakespeare, pero comparten una convicción profunda: el amor verdadero casi nunca es compatible con la duración. Hasta acá, todo muy bonito. Ahora bien, ¿a qué viene todo este relato, poco habitual para mis artículos? Allá vamos. En una de esas historias aparece mencionada la Hiyoku, un ave mítica japonesa que me llamó profundamente la atención. No es un ave común: tiene una sola ala y un solo ojo. Para poder volar necesita de otra. Solo puede hacerlo junto a otra Hiyoku. Separadas, no sobreviven. Ahí nace la idea de este artículo. La tradición la describe como un ave imposible: dos conciencias, un solo cuerpo. Ninguna puede volar por sí sola. La supervivencia —y el vuelo— dependen de un acuerdo silencioso: coordinarse, ajustarse, confiar. Este mito no nace para idealizar la fusión romántica. En su origen, heredado de antiguas narraciones chinas y luego adoptado por la sensibilidad japonesa, la Hiyoku habla de complementariedad. No de una mitad que busca completarse, sino de dos entidades plenas que aceptan un límite: solas no alcanzan el cielo. Hay algo profundamente japonés en esta idea: la belleza no reside en la potencia individual, sino en la armonía del conjunto. La perfección no surge de eliminar la fragilidad, sino de integrarla en un sistema que la sostenga. Por eso, para mí, la Hiyoku no simboliza dependencia ciega. Simboliza coordinación. Ajuste fino. Escucha. La capacidad de percibir cuándo avanzar y cuándo esperar, cuándo liderar y cuándo acompañar. Volar no es un acto heroico; es un proceso compartido. Vista desde hoy, esta metáfora se vuelve casi incómodamente actual. En los sistemas complejos —humanos, técnicos, organizacionales— nadie vuela solo. La ilusión del individuo autosuficiente suele durar hasta el primer error no detectado, la primera señal ignorada, el primer silencio malinterpretado. La Hiyoku me recuerda algo tan simple como difícil: la seguridad, la continuidad e incluso la belleza emergen de la relación. De cómo dos miradas parciales construyen una visión completa. De cómo dos alas, imperfectas por separado, encuentran en la sincronía la única forma de sostenerse en el aire. Para mí, es un mito sobre el vuelo posible. Y sobre la humildad de aceptar que, para no caer, a veces hay que aprender a volar con otro. A menudo, en la instrucción de vuelo o en los manuales de CRM (Crew Resource Management), hablamos de la cabina como un entorno de gestión de recursos. Pero la Hiyoku propone una lectura más profunda: la cabina es, en realidad, ese espacio donde dos conciencias deben aprender a ser un solo cuerpo. En la aviación moderna, la seguridad no es el resultado de un piloto infalible, sino de la redundancia y de la mirada cruzada. Cuando chequeamos los instrumentos, cuando confirmamos una orden o cuando anticipamos el movimiento del otro, estamos ejercitando esa sincronía de la que hablaba Saikaku hace más de tres siglos. Entendemos, quizás de forma instintiva, que en las fases críticas
La nueva fogata: convivir con la IA sin pensamiento mágico

Una guía para usar IA como herramienta de trabajo (y no como oráculo): método, verificación y criterio. Hace unos 400.000 años, un grupo de neandertales consiguió algo que no era “una mejora”: era un cambio de fase. Encender fuego —y hacerlo de forma repetida, generación tras generación— alteró para siempre qué significaba sobrevivir, aprender y transmitir conocimiento. Hoy estamos frente a otra fogata. No calienta las manos, pero calienta (y acelera) decisiones, textos, código, diagnósticos, diseños, ideas. Y como siempre que aparece una tecnología de uso general, alrededor crece lo mejor y lo peor: gente creativa probando límites; y vendedores de atajos prometiendo riqueza instantánea. El problema es que solemos mirar el futuro con una regla equivocada: pensamos linealmente en un mundo que se mueve por tramos exponenciales. Esa diferencia —entre “sumar” y “multiplicar”— es la que vuelve tan extraña esta etapa: sentimos que la realidad cambia más rápido que nuestra intuición. El primer encuentro: cuando la máquina “parece” pensar Muchos ya pasaron por esa experiencia: escribirle a un modelo generativo y recibir una respuesta tan coherente que el cerebro hace lo que siempre hace… completar el resto. Donde hay lenguaje, asumimos intención; donde hay fluidez, asumimos comprensión. Ese reflejo humano es poderoso. Y también peligroso: nos empuja a tratar a la IA como oráculo. En aviación conocemos bien este fenómeno, aunque no lo llamemos así: cuando un sistema entrega una salida limpia, “bonita”, con números y tono seguro, baja el umbral de desconfianza. La automatización no falla solo por lo que hace: falla por lo que nos hace a nosotros (complacencia, exceso de confianza, pérdida de conciencia situacional). Con la IA generativa, ese sesgo llega empaquetado en frases. Si querés profundizar en esa tendencia a humanizar lo que no es humano (y en el riesgo operativo de confundir fluidez con comprensión), ya lo trabajé desde una pregunta simple y peligrosa: ¿quién está realmente al mando cuando la automatización se vuelve convincente? Prompting: hablar con una herramienta que no entiende, pero acierta seguido Dar instrucciones a un modelo es prompting: el prompt es la información que le das para que te responda, y el resultado mejora cuando la consigna está bien articulada. Una base útil para promptear bien Dale identidad (rol: “inspector”, “analista”, “instructor”, “auditor”, “redactor técnico”). Añadí contexto (objetivo, audiencia, limitaciones, norma aplicable, formato esperado). Sé específico (qué sí, qué no, ejemplos, longitud, estructura). Iterá (la primera salida rara vez es la buena). Si lo querés en idioma aeronáutico: no es “pedirle algo”, es briefear. Y después, debriefear. (con perdón de la Real Academia Española) A veces la diferencia no está en “el prompt perfecto”, sino en convertir esa interacción en un hábito profesional: briefear, iterar, pedir formato, exigir supuestos, y cerrar con verificación. Cuando lo llevás al terreno aeronáutico (SOP, SMS, instrucción, reportes, análisis de riesgo), la IA deja de ser un juguete y pasa a ser un copiloto de escritorio: útil, rápido… y siempre supervisado. En Flap152, de hecho, hay un curso que aterriza estas técnicas específicamente a la actividad aeronáutica, con ejercicios y plantillas para evitar el “copiar y pegar” sin criterio: ChatGPT – Ingeniería de Prompt aplicada a la Actividad Aeronáutica . Co-inteligencia: cuatro reglas simples para no perderse Me gusta el enfoque de Ethan Mollick porque baja la espuma: propone convivir con IA con sentido común, sin fanatismos. Sus cuatro principios se pueden traducir directo a cultura de seguridad: Invitá a la IA a la mesa: probá capacidades, descubrí límites en tus tareas reales. Sé el humano en el bucle: la IA se inventa respuestas (alucina); tu trabajo es verificar, entender y asumir responsabilidad. Tratala como una persona… pero decile qué persona es: rol/criterio para orientar el tipo de salida. Asumí que es la peor IA que vas a usar: lo que hoy parece “magia” mañana será lo básico. Este punto 2 es el corazón del asunto. En operaciones y seguridad, delegar la responsabilidad no es una opción. Delegar el borrador, sí. Delegar el juicio, no. El riesgo invisible: sedentarismo cognitivo Hay un peligro más silencioso que las “alucinaciones”: olvidarnos de pensar. La IA está diseñada para eficiencia y respuesta inmediata, virtudes en ingeniería… pero vicios en el aprendizaje. Si subís un PDF, pedís una infografía y sentís que “aprendiste”, tu cerebro confunde fluidez con comprensión. La trampa es vieja: creer que reconocer algo equivale a dominarlo. En seguridad operacional esto se traduce en algo concreto: copiar y pegar no construye criterio; repetir no construye juicio; resumir no construye competencia. La IA puede ser un gran compañero intelectual… si la usás para hacer mejor el proceso, no para salteártelo. El otro extremo: pensamiento mágico con estética de tecnología Cuando una herramienta produce respuestas fluidas, el ser humano tiende a “subirle” el estatus: de calculadora a consejero, de asistente a oráculo, de software a algo casi sagrado. Ese salto psicológico no viene de la evidencia: viene del misterio. Confundir la caja negra con magia abre la puerta a una religión secular (“la IA como salvador o destructor”), alimentada por incentivos, marketing y nuestra fascinación por lo invisible. En aviación, esto es incompatible con la cultura justa y la cultura de reporte: necesitamos explicaciones operativas, no relatos místicos. La pregunta correcta no es “¿la IA es inteligente?”, sino: ¿En qué tarea concreta, con qué controles, bajo qué limitaciones, mejora mi desempeño sin degradar mi juicio? IA: la curva del “ni todo, ni nada” Una imagen mental útil: el óptimo de uso de IA no es 0% ni 100%. Si la usás para todo, el resultado se llena de “slop”; si la evitás por completo, perdés velocidad, claridad y nuevas posibilidades. Lo interesante es que el punto óptimo cambia según Tu experiencia en el tema, El riesgo asociado al error, La trazabilidad exigida, y el tipo de salida (creativa vs. normativa vs. técnica). La IA es un amplificador. Amplifica tu criterio… o tu confusión. Usos que sí valen la pena (especialmente en entornos técnicos) En aviación, el valor no está en “que la