El ave de una sola ala

  Cuando era adolescente, en la mesa de luz de mi dormitorio siempre había un libro que leía antes de dormir, claro, no existían los celulares. Generalmente, novelas policiales, detectivescas. Fan del género. Por mi mesa de luz pasaron libros de Agatha Christie, volúmenes de El Séptimo Círculo —esa célebre colección de novelas y cuentos policiales enfocada, inicialmente, en el policial clásico inglés de enigmas—, que incluso me llevó a ganarme la preferencia de la profesora de Literatura en cuarto año del secundario (sí, teníamos una materia llamada “Literatura”; era geológica: Mesozoica). Y, por supuesto, no podían faltar todos los libros de la saga que dio origen a las películas Aeropuerto, basadas en la novela de Arthur Hailey: Aeropuerto 75 (1975), Aeropuerto 77 (1977) y Aeropuerto 80 (o Concorde, 1979). ¿Y Richard Bach? Obviamente, sí. Libros como Juan Salvador Gaviota, Ilusiones, El don de volar, Ajeno a la tierra y Biplano me acompañaron y me motivaron durante el curso de Piloto Privado de Avión, en esa etapa en la que las ilusiones están a flor de piel y el vuelo todavía conserva algo de épica personal. También pasaron por mis manos otros autores con temática aeronáutica, como La tragedia del DC-10, con su trama de conspiración alrededor de los accidentes de ese avión. Recuerdo ahora otro título: El último tigre volador, de David Fisher. En mi ciudad natal, Mar del Plata, había un programa de televisión llamado Los libros y la noche, transmitido por el canal local, en el que se recomendaban libros. Duraba no más de diez o quince minutos y se emitía antes del cierre de la transmisión, a mediados de la década del 2000, si mal no recuerdo. El conductor cerraba siempre con una frase que se me quedó grabada: “Si tenés un libro, nunca estás solo” Después pasé varios años —no sabría decir cuántos— sin leer novelas, hasta que decidí retomar el placer de la lectura como un acto de salud mental. Hoy leo entre cinco y seis libros por año y volví al policial, mi género preferido. Por recomendación, me acerqué a un autor japonés que hoy sugiero, sin dudar, a quienes disfrutan de una buena novela policial con un enfoque realista, lejos del misterio clásico “a la inglesa”: Seichō Matsumoto. Uno de los escritores japoneses más influyentes del siglo XX, ganador de algunos de los premios literarios más prestigiosos de su país y considerado una figura central de la novela negra japonesa. Entre sus libros destaco El expreso de Tokio, Punto cero, El castillo de arena, La chica de Kyushu y Un lugar desconocido. Todos, absolutamente todos, recomendables. Ese interés por la literatura japonesa me llevó a descubrir, en la góndola de una librería de la Avenida Santa Fe, en la ciudad de Buenos Aires, un libro de Ihara Saikaku, publicado en 1687, cuyo título original es Nanshoku Ōkagami. Se trata de una colección de relatos —cuarenta historias cortas— pertenecientes al género ukiyo-zōshi: una narrativa urbana, directa, atenta a la vida cotidiana del Japón del período Edo. Son historias de amor que terminan en pérdida. No son tragedias al estilo de Shakespeare, pero comparten una convicción profunda: el amor verdadero casi nunca es compatible con la duración. Hasta acá, todo muy bonito. Ahora bien, ¿a qué viene todo este relato, poco habitual para mis artículos? Allá vamos. En una de esas historias aparece mencionada la Hiyoku, un ave mítica japonesa que me llamó profundamente la atención. No es un ave común: tiene una sola ala y un solo ojo. Para poder volar necesita de otra. Solo puede hacerlo junto a otra Hiyoku. Separadas, no sobreviven. Ahí nace la idea de este artículo. La tradición la describe como un ave imposible: dos conciencias, un solo cuerpo. Ninguna puede volar por sí sola. La supervivencia —y el vuelo— dependen de un acuerdo silencioso: coordinarse, ajustarse, confiar. Este mito no nace para idealizar la fusión romántica. En su origen, heredado de antiguas narraciones chinas y luego adoptado por la sensibilidad japonesa, la Hiyoku habla de complementariedad. No de una mitad que busca completarse, sino de dos entidades plenas que aceptan un límite: solas no alcanzan el cielo. Hay algo profundamente japonés en esta idea: la belleza no reside en la potencia individual, sino en la armonía del conjunto. La perfección no surge de eliminar la fragilidad, sino de integrarla en un sistema que la sostenga. Por eso, para mí, la Hiyoku no simboliza dependencia ciega. Simboliza coordinación. Ajuste fino. Escucha. La capacidad de percibir cuándo avanzar y cuándo esperar, cuándo liderar y cuándo acompañar. Volar no es un acto heroico; es un proceso compartido. Vista desde hoy, esta metáfora se vuelve casi incómodamente actual. En los sistemas complejos —humanos, técnicos, organizacionales— nadie vuela solo. La ilusión del individuo autosuficiente suele durar hasta el primer error no detectado, la primera señal ignorada, el primer silencio malinterpretado. La Hiyoku me recuerda algo tan simple como difícil: la seguridad, la continuidad e incluso la belleza emergen de la relación. De cómo dos miradas parciales construyen una visión completa. De cómo dos alas, imperfectas por separado, encuentran en la sincronía la única forma de sostenerse en el aire. Para mí, es un mito sobre el vuelo posible. Y sobre la humildad de aceptar que, para no caer, a veces hay que aprender a volar con otro. A menudo, en la instrucción de vuelo o en los manuales de CRM (Crew Resource Management), hablamos de la cabina como un entorno de gestión de recursos. Pero la Hiyoku propone una lectura más profunda: la cabina es, en realidad, ese espacio donde dos conciencias deben aprender a ser un solo cuerpo. En la aviación moderna, la seguridad no es el resultado de un piloto infalible, sino de la redundancia y de la mirada cruzada. Cuando chequeamos los instrumentos, cuando confirmamos una orden o cuando anticipamos el movimiento del otro, estamos ejercitando esa sincronía de la que hablaba Saikaku hace más de tres siglos. Entendemos, quizás de forma instintiva, que en las fases críticas

La nueva fogata: convivir con la IA sin pensamiento mágico

      Una guía para usar IA como herramienta de trabajo (y no como oráculo): método, verificación y criterio. Hace unos 400.000 años, un grupo de neandertales consiguió algo que no era “una mejora”: era un cambio de fase. Encender fuego —y hacerlo de forma repetida, generación tras generación— alteró para siempre qué significaba sobrevivir, aprender y transmitir conocimiento. Hoy estamos frente a otra fogata. No calienta las manos, pero calienta (y acelera) decisiones, textos, código, diagnósticos, diseños, ideas. Y como siempre que aparece una tecnología de uso general, alrededor crece lo mejor y lo peor: gente creativa probando límites; y vendedores de atajos prometiendo riqueza instantánea. El problema es que solemos mirar el futuro con una regla equivocada: pensamos linealmente en un mundo que se mueve por tramos exponenciales. Esa diferencia —entre “sumar” y “multiplicar”— es la que vuelve tan extraña esta etapa: sentimos que la realidad cambia más rápido que nuestra intuición. El primer encuentro: cuando la máquina “parece” pensar Muchos ya pasaron por esa experiencia: escribirle a un modelo generativo y recibir una respuesta tan coherente que el cerebro hace lo que siempre hace… completar el resto. Donde hay lenguaje, asumimos intención; donde hay fluidez, asumimos comprensión. Ese reflejo humano es poderoso. Y también peligroso: nos empuja a tratar a la IA como oráculo. En aviación conocemos bien este fenómeno, aunque no lo llamemos así: cuando un sistema entrega una salida limpia, “bonita”, con números y tono seguro, baja el umbral de desconfianza. La automatización no falla solo por lo que hace: falla por lo que nos hace a nosotros (complacencia, exceso de confianza, pérdida de conciencia situacional). Con la IA generativa, ese sesgo llega empaquetado en frases. Si querés profundizar en esa tendencia a humanizar lo que no es humano (y en el riesgo operativo de confundir fluidez con comprensión), ya lo trabajé desde una pregunta simple y peligrosa: ¿quién está realmente al mando cuando la automatización se vuelve convincente? Prompting: hablar con una herramienta que no entiende, pero acierta seguido Dar instrucciones a un modelo es prompting: el prompt es la información que le das para que te responda, y el resultado mejora cuando la consigna está bien articulada. Una base útil para promptear bien Dale identidad (rol: “inspector”, “analista”, “instructor”, “auditor”, “redactor técnico”). Añadí contexto (objetivo, audiencia, limitaciones, norma aplicable, formato esperado). Sé específico (qué sí, qué no, ejemplos, longitud, estructura). Iterá (la primera salida rara vez es la buena). Si lo querés en idioma aeronáutico: no es “pedirle algo”, es briefear. Y después, debriefear. (con perdón de la Real Academia Española) A veces la diferencia no está en “el prompt perfecto”, sino en convertir esa interacción en un hábito profesional: briefear, iterar, pedir formato, exigir supuestos, y cerrar con verificación. Cuando lo llevás al terreno aeronáutico (SOP, SMS, instrucción, reportes, análisis de riesgo), la IA deja de ser un juguete y pasa a ser un copiloto de escritorio: útil, rápido… y siempre supervisado. En Flap152, de hecho, hay un curso que aterriza estas técnicas específicamente a la actividad aeronáutica, con ejercicios y plantillas para evitar el “copiar y pegar” sin criterio: ChatGPT – Ingeniería de Prompt aplicada a la Actividad Aeronáutica . Co-inteligencia: cuatro reglas simples para no perderse Me gusta el enfoque de Ethan Mollick porque baja la espuma: propone convivir con IA con sentido común, sin fanatismos. Sus cuatro principios se pueden traducir directo a cultura de seguridad: Invitá a la IA a la mesa: probá capacidades, descubrí límites en tus tareas reales. Sé el humano en el bucle: la IA se inventa respuestas (alucina); tu trabajo es verificar, entender y asumir responsabilidad. Tratala como una persona… pero decile qué persona es: rol/criterio para orientar el tipo de salida. Asumí que es la peor IA que vas a usar: lo que hoy parece “magia” mañana será lo básico. Este punto 2 es el corazón del asunto. En operaciones y seguridad, delegar la responsabilidad no es una opción. Delegar el borrador, sí. Delegar el juicio, no. El riesgo invisible: sedentarismo cognitivo Hay un peligro más silencioso que las “alucinaciones”: olvidarnos de pensar. La IA está diseñada para eficiencia y respuesta inmediata, virtudes en ingeniería… pero vicios en el aprendizaje. Si subís un PDF, pedís una infografía y sentís que “aprendiste”, tu cerebro confunde fluidez con comprensión. La trampa es vieja: creer que reconocer algo equivale a dominarlo. En seguridad operacional esto se traduce en algo concreto: copiar y pegar no construye criterio; repetir no construye juicio; resumir no construye competencia. La IA puede ser un gran compañero intelectual… si la usás para hacer mejor el proceso, no para salteártelo. El otro extremo: pensamiento mágico con estética de tecnología Cuando una herramienta produce respuestas fluidas, el ser humano tiende a “subirle” el estatus: de calculadora a consejero, de asistente a oráculo, de software a algo casi sagrado. Ese salto psicológico no viene de la evidencia: viene del misterio. Confundir la caja negra con magia abre la puerta a una religión secular (“la IA como salvador o destructor”), alimentada por incentivos, marketing y nuestra fascinación por lo invisible. En aviación, esto es incompatible con la cultura justa y la cultura de reporte: necesitamos explicaciones operativas, no relatos místicos. La pregunta correcta no es “¿la IA es inteligente?”, sino: ¿En qué tarea concreta, con qué controles, bajo qué limitaciones, mejora mi desempeño sin degradar mi juicio? IA: la curva del “ni todo, ni nada” Una imagen mental útil: el óptimo de uso de IA no es 0% ni 100%. Si la usás para todo, el resultado se llena de “slop”; si la evitás por completo, perdés velocidad, claridad y nuevas posibilidades. Lo interesante es que el punto óptimo cambia según Tu experiencia en el tema, El riesgo asociado al error, La trazabilidad exigida, y el tipo de salida (creativa vs. normativa vs. técnica). La IA es un amplificador. Amplifica tu criterio… o tu confusión. Usos que sí valen la pena (especialmente en entornos técnicos) En aviación, el valor no está en “que la

Las olas, el viento, los pinares y los médanos.

    Percepción del riesgo, cerebro y decisiones que no admiten segundas oportunidades Hace un tiempo escribí sobre la percepción del riesgo y cómo, lejos de ser un cálculo frío y racional, es una construcción frágil, moldeada por la experiencia previa, las expectativas y el contexto. Ese artículo no hablaba solo de aviación. Hablaba de personas. Hoy, ese marco conceptual vuelve a mostrarse vigente en un escenario aparentemente ajeno al mundo aeronáutico: los médanos de Pinamar y zonas vecinas. Carreras improvisadas, maniobras “de prueba”, vehículos potentes, ausencia de planificación y medidas de seguridad mínimas. Y un agravante que desarma cualquier intento de justificación técnica: adultos exponiendo a niños a un entorno de alto riesgo, con consecuencias que ya conocemos. La pregunta no es qué pasa. La pregunta es por qué, aun después de accidentes graves, se sigue haciendo lo mismo. El cerebro no evalúa riesgo: lo interpreta. Desde la neurociencia sabemos que el riesgo no se “mide” en el cerebro: se interpreta. Esa interpretación emerge de la interacción —no siempre armónica— entre distintos sistemas cerebrales. La amígdala cumple un rol central en la detección de estímulos novedosos, intensos y emocionalmente cargados. No discrimina entre amenaza y excitación: responde a la activación. Velocidad, ruido, pendiente, espectadores y desafío generan un cóctel que reduce la percepción subjetiva de peligro, especialmente cuando no existe una experiencia previa negativa. La corteza prefrontal integra información, evalúa consecuencias futuras y regula la conducta. Pero su influencia disminuye cuando el nivel de activación emocional es alto, cuando hay presión social o cuando la persona cree tener control de la situación. El resultado es conocido en aviación y se repite en tierra: “Nunca me pasó nada” se transforma en el fatídico “A mí no me va a pasar”. No es valentía.Es un sesgo neurocognitivo. “No existe una escuela que enseñe a vivir”. — Serú Girán – Charlie García – 1980 La percepción del riesgo no es el riesgo real. Como desarrollé en aquel artículo, el riesgo no existe como entidad objetiva en la mente humana. Lo que existe es una representación interna del riesgo, construida a partir de la experiencia previa, las expectativas culturales, las señales del entorno y los relatos compartidos. El punto crítico es que esa representación no escala linealmente con el peligro real. Cuando una actividad se repite sin consecuencias visibles, el cerebro ajusta su modelo interno: no porque el riesgo haya disminuido, sino porque la percepción se adapta. En términos simples: Si no ocurrió antes, el cerebro concluye que no es tan peligroso. Este mecanismo es especialmente potente en contextos donde: Los eventos adversos son poco frecuentes pero catastróficos. La retroalimentación es débil o tardía. El error no se manifiesta de forma progresiva, sino abrupta. Exactamente el patrón que conocemos en la seguridad operacional. Cuando lo peligroso se vuelve paisaje Los médanos dejan de percibirse como un entorno hostil y pasan a ser “el lugar donde siempre fuimos”. La pendiente ya no se evalúa. La velocidad deja de sentirse excesiva. La presencia de otros refuerza la idea de normalidad. El cerebro confunde ausencia de consecuencias con ausencia de peligro. En aviación, este estado es uno de los más peligrosos del sistema: cuando nada parece mal… hasta que todo falla al mismo tiempo. Por qué los accidentes no corrigen la conducta Desde la psicología cognitiva y la sociología del riesgo, que los accidentes no modifiquen conductas no es una anomalía: es un patrón ampliamente documentado. Sesgo de optimismo. Investigado por Daniel Kahneman y Amos Tversky, describe la tendencia a creer que los eventos negativos les ocurren a otros, no a uno mismo. El accidente confirma que el riesgo existe, pero no que me aplique. El cerebro introduce una variable implícita: “yo soy distinto”. Normalización de la desviación. Concepto desarrollado por Diane Vaughan en su análisis del accidente del Challenger. Cuando una práctica insegura se repite sin consecuencias inmediatas, termina integrándose como “normal”, incluso después de incidentes. El sistema aprende la conducta, no la consecuencia. Heurística de disponibilidad mal calibrada. La percepción del riesgo depende de cuán fácilmente recordamos ejemplos relevantes. Pero si el accidente no fue vivido en primera persona o no ocurrió dentro del propio grupo de referencia, su impacto cognitivo es bajo. La repetición de accidentes puede incluso desensibilizar. Validación social. La conducta del grupo pesa más que la evidencia objetiva. Si otros siguen haciéndolo, el cerebro interpreta que el riesgo es aceptable. En seguridad operacional, esto se reconoce como deriva cultural del riesgo. Falta de retroalimentación directa. El cerebro aprende mejor por experiencia propia que por advertencia. Si una conducta peligrosa “sale bien” muchas veces y falla una, el aprendizaje ocurre solo en quienes sobreviven. Para el resto, el modelo mental permanece intacto. La última barrera En aviación hablamos de ilusión de control: creer que la habilidad individual compensa la ausencia de sistema. Que la potencia, la experiencia informal o la confianza personal reemplazan a la planificación, al entrenamiento y a las barreras. En los médanos, esta ilusión se potencia por: Ausencia de regulación visible. Normalización social. Transferencia errónea de experiencia desde otros contextos. El riesgo no avisa. Se manifiesta cuando variables invisibles se alinean. Aquí aparece un punto crítico desde los factores humanos. Los niños no tienen desarrollada plenamente la corteza prefrontal. No pueden evaluar riesgo. Confían. Copian. Normalizan. El adulto debería funcionar como última barrera defensiva del sistema.Cuando esa barrera falla, el sistema queda sin protección. En aviación, eso sería inaceptable.En cualquier dominio de alto riesgo, también debería serlo. No es médanos vs. aviación. Es cultura de riesgo. Este análisis busca hacer visible el mecanismo que nos lleva a repetir decisiones que terminan en tragedia. La seguridad no depende solo de normas. Depende de comprender cómo funciona el cerebro humano frente al riesgo y de diseñar sistemas que no lo engañen. Cuando la emoción domina y la razón llega tarde, el margen de error se vuelve cero. Y hay escenarios donde no existe el “después aprendemos”. Epílogo En aviación aprendimos —a un costo altísimo— que confiar en el juicio

Un día cualquiera hasta que deja de serlo: sistemas complejos en acción.

          Un día cualquiera, una cafetera y un perro que cae del cielo Cuando la vida se “complica sola” Charles Perrow, en su libro Accidentes normales, arranca con una escena tan cotidiana que cualquiera podría reconocerla. Es una mañana importante: no vas al trabajo habitual porque tenés una entrevista clave en el centro de la ciudad. El día ya viene con algo de presión. Cuando vas a prepararte el desayuno, descubrís que tu pareja dejó la cafetera de vidrio sobre la hornalla encendida: el café se evaporó y la jarra estalló. Sin café, mal comienzo. Como sos adicto al café, revolvés la cocina hasta encontrar una vieja cafetera metálica. La ponés al fuego, mirás el reloj cada dos minutos, te tomás el café casi de un trago y salís disparando. Al llegar al auto, te das cuenta de que te olvidaste las llaves… y también las del departamento. Por suerte, tenías un sistema de respaldo: otro juego de llaves escondido bajo el felpudo de la entrada. Redundancia, diríamos en aviación. Sólo que recordás que esa “redundancia” la usaste hace unos días: le dejaste el juego de repuesto a un amigo para que pudiera entrar a tu casa a buscar unos libros mientras vos no estabas. El camino alternativo quedó neutralizado. Esa barrera ya no existe. Vas por el siguiente plan: pedirle el auto al vecino, un señor amable que casi no usa su coche y lo tiene siempre en condiciones. Tocás el timbre y te enterás de que el alternador se rompió la semana pasada y recién hoy a la tarde lo van a buscar para repararlo. Segundo plan de respaldo que falla. Queda el colectivo… pero hay paro. La empresa decretó un cierre patronal y los conductores se niegan a mover unidades que consideran inseguras, de paso reclamando mejoras salariales. Intentás llamar un taxi desde lo de tu vecino, pero el sistema está saturado justamente porque no hay colectivos circulando. Cuando ya estás resignado, llamás a la secretaria de la agencia de empleo: “Me pasó una serie de cosas esta mañana, no voy a llegar. ¿Podemos reprogramar?”. Ella contesta amablemente que no hay problema, pero piensa: “No es confiable. Tanto insistir por la entrevista y ahora esto”. Lo anota en la agenda y probablemente te asigna un horario poco conveniente para la próxima cita. Perrow cierra esta escena con una pregunta tramposa: ¿cuál fue la causa principal de este “desastre”? La cafetera, las llaves, el auto, el paro, los taxis… Ninguna respuesta, tomada sola, hace justicia a lo que pasó. Es un accidente multicausal: lo que importa no es la pieza suelta, sino la configuración del sistema. Y ahí introduce su tesis central: en ciertos sistemas complejos, algunos accidentes no son anomalías, sino “accidentes normales”, resultado esperable de cómo está armado el sistema. De la cocina a Caballito: el día de Cachy Ahora corramos la escena a Buenos Aires, octubre de 1988. Mediodía de primavera sobre la Avenida Rivadavia al 6100, barrio de Caballito. Tránsito denso pero “habitual”: taxis, colectivos parando y arrancando, chicos saliendo del colegio, gente con bolsas de compras, porteros charlando en la vereda. Una vecina de 75 años sale al almacén, pasa por la carnicería, vuelve con las bolsas en la mano. Todo es rutina. En un balcón de un piso 13, un caniche blanco –Cachy– se asoma más de la cuenta. Cae al vacío. La probabilidad de que impacte sobre una persona es baja, pero el tránsito y el flujo de peatones la multiplican. El perro golpea de lleno la cabeza de la mujer. Muerte instantánea para ambos. La escena estalla: gritos, frenadas, gente corriendo, bolsas de compras desparramadas en la vereda. Se forma el clásico círculo de curiosos. Entre ellos, una mujer de 47 años que se acerca a ver “qué pasó”. En medio de bocinazos, maniobras y peatones mal ubicados, el interno 15 de la línea 55 la atropella y la arrastra varios metros. Tercera muerte en el acto: dos humanos y un perro. La esquina de Rivadavia y Morelos no tiene semáforo. Los de las esquinas cercanas no están bien coordinados. El flujo se vuelve errático: algunos autos pasan, otros frenan, las decisiones se toman “a ojo”. Un hombre que presenció las dos escenas comienza a sentirse mal. Cruza la avenida hacia una concesionaria de venta de autos, entra a pedir ayuda, sufre un infarto y muere camino al hospital. Cuatro muertes: Tres humanas y un perro. La lectura espontánea es casi inevitable: “Fue una desgracia absurda. Pura mala suerte”. Cuatro muertes: tres humanas y un perro, una esquina sin semáforo, semáforos vecinos mal sincronizados, tránsito denso, un círculo de curiosos y un infarto. Igual que en la historia de la cafetera, nuestra mente arma una cadena simple: perro que cae → muerte de la vecina → tumulto → atropello → infarto. Eso nos da una sensación de cierre. Pero, desde la mirada de Perrow, esa forma de explicarlo es justamente lo que nos impide aprender. Podríamos consolarnos pensando que historias como la de Cachy o la mañana de la cafetera son tan extrañas que no volverán a ocurrir. Sin embargo, el 29 de agosto de 2025, en Sincelejo (Sucre, Colombia), un pastor alemán llamado “Milán” quedó literalmente colgando del balcón tras perder el equilibrio entre las barandas. Las imágenes se hicieron virales: el perro lucha por sostenerse, ladra, y finalmente su dueña sale, lo rescata y él baja las orejas y mueve la cola al verla. La diferencia entre un video conmovedor y una tragedia como la de Caballito fueron unos centímetros y unos segundos de reacción. Desde una mirada sistémica, estos “casi accidentes” recuerdan algo incómodo: la probabilidad de que ocurra es baja, pero no es cero; si las condiciones se repiten y no cambiamos el sistema (poner redes, rediseñar barandas, crear barreras), el escenario para que el desastre se complete sigue estando ahí. Lo que une a la cafetera y al caniche «Cachy»: sistemas complejos y acoplamientos Perrow propone mirar estas historias no

Explicaciones simples, sistemas complejos

Un nuevo estudio explora por qué las personas suelen preferir explicaciones simples, incluso cuando las explicaciones más complejas podrían ser más precisas. Los investigadores analizaron cómo opera la Navaja de Ockham (también conocida como la ley de parsimonia), el principio que sugiere que: “Pluralitas non est ponenda sine necessitate”, es decir: entre múltiples explicaciones, la más simple suele ser la mejor, dentro del razonamiento humano cotidiano. Era de los más grandes filósofos de la Europa medieval, se llamaba William y como nació en la pequeña aldea de Ockham, en el sur de Inglaterra, pasó a la historia como William de Ockham. Su idea era que los argumentos filosóficos deben mantenerse lo más simples posible, una navaja filosófica es un atajo mental que puede ayudar a llegar a mejores explicaciones de un fenómeno al descartar hipótesis innecesariamente complejas o poco probables. Él mismo practicó severamente con sus teorías y las de sus predecesores: Hitchens, “Aquello que se afirma sin evidencia se puede rechazar sin evidencia”, o la de Hanlon, “Nunca atribuyas a la malicia aquello que puede ser explicado adecuadamente por la estupidez”. Siglos después, cuando ya había sido aplicado por varias mentes brillantes, a esa idea se le daría el nombre de la navaja de Ockham u Occam. Los resultados revelan que la gente prefiere explicaciones simples no solo porque parezcan más probables o más fáciles de entender, sino también porque consideran que estas capturan mejor lo que realmente “importa” en un evento. Esta percepción tiene profundas implicancias para la forma en que razonamos, tomamos decisiones y procesamos la información La historia más simple puede ser cognitivamente eficiente, pero operativamente peligroso. La Simplicidad Contra el Pensamiento Sistémico Durante mucho tiempo, se pensó que la simplicidad servía como un atajo que, aunque no garantiza la verdad, suele acercarse bastante. En otras palabras, al elegir la explicación más simple, aumentaríamos nuestras chances de estar en lo cierto, o al menos de evitar errores graves. Desde esta perspectiva, la simplicidad se justificaría por razones prácticas: reduce la carga cognitiva, mejora la comunicabilidad y suele correlacionar con la verdad. Esta intuición se alinea con la forma en que usamos las explicaciones en la vida diaria: no solo para entender, sino para dar sentido, comunicar, asignar responsabilidad y tomar decisiones. Desde esta mirada, la simplicidad puede verse como una señal de que una explicación está enfocada en los factores causalmente más relevantes, dejando de lado el “ruido”. Siempre se nos enseñó que cuando se trata de explicaciones, menos es más. Pero, ¿por qué tenemos esa intuición? Un nuevo estudio realizado por Thalia Wheatley Vrantsidis (Dartmouth College) y Tania Lombrozo (Princeton University), publicado en la revista Trends in Cognitive Sciences, intenta responder esta pregunta. El trabajo investiga por qué, tanto en la vida cotidiana como en la ciencia, tendemos a preferir explicaciones simples, incluso cuando hay disponibles explicaciones más complejas y, potencialmente, más precisas. Este sesgo, (siempre están), hacia lo simple no es nuevo. Ya en el siglo XIV, el filósofo Guillermo de Ockham propuso lo que hoy conocemos como la Navaja de Ockham: la idea de que, frente a múltiples hipótesis, la más simple suele ser preferible. Pero aunque este principio se utiliza habitualmente en contextos científicos, lo cierto es que también lo aplicamos de manera intuitiva en la vida cotidiana. Lo interesante del estudio de Vrantsidis y Lombrozo es que va más allá de lo obvio. Hasta ahora, se pensaba que preferimos explicaciones simples porque son más fáciles de entender, más probables o cognitivamente menos costosas. Pero esta investigación sugiere algo más profundo, que consideramos que las explicaciones simples son mejores porque creemos que capturan lo esencial de una situación, que nos dicen lo que realmente importa. Desde esta perspectiva, la simplicidad no es solo una cuestión de forma, sino de significado. Qué implica que algo sea “simple” La simplicidad puede presentarse de muchas maneras: menos causas, menos suposiciones, estructuras más limpias. Por ejemplo, si estoy en una casa y escucho un ruido en el techo durante la noche, probablemente voy a asumir que es el viento antes de pensar que se trata de una combinación de viento, algún pájaro y una rama cayendo al mismo tiempo. ¿Por qué? Porque la primera explicación no solo es más fácil de entender, sino que también me parece más adecuada. Pero el estudio revela que esa adecuación no es únicamente una cuestión de probabilidad: la gente cree que la explicación más simple refleja mejor qué fue lo verdaderamente importante para que ocurriera el evento. Un enfoque experimental Para explorar esta intuición, los investigadores diseñaron una serie de experimentos en los que los participantes debían elegir entre explicaciones simples o complejas para distintos eventos. Por ejemplo: ¿por qué un equipo de fútbol ganó un partido? ¿Por qué una persona enfermó? Los resultados mostraron que las personas tienden a elegir la explicación más simple, incluso cuando se les informa que la más compleja es objetivamente más probable. La simplicidad ganaba porque, según los participantes, “iba al grano”, “capturaba la esencia del evento” o “resaltaba la causa más importante”. Simplicidad e intencionalidad Otro hallazgo clave es que solemos asociar las explicaciones simples con una mayor intencionalidad; es decir, tendemos a pensar que alguien o algo hizo que eso ocurriera de forma deliberada. Por ejemplo, si un piloto logra un aterrizaje de emergencia exitoso, la explicación simple podría ser: “porque es un gran piloto”. En cambio, una explicación más compleja tomaría en cuenta múltiples factores, como el entrenamiento, la meteorología, el tipo de aeronave, la coordinación, entre otros. Sin embargo, la primera nos resulta más “satisfactoria”, porque parece resaltar lo central: la habilidad del piloto. El problema aparece cuando el entorno que intentamos explicar no es simple. En aviación, como en cualquier sistema sociotécnico, los eventos no son lineales ni monocausales. Un mismo desenlace puede emerger de la interacción simultánea de factores humanos, tecnológicos, procedimentales y organizacionales. Pero nuestro cerebro, condicionado por años de evolución en entornos de baja complejidad, sigue buscando la causa: Singular.Clara. Simple. Y así, nos encontramos