
Hace unos 400.000 años, un grupo de neandertales consiguió algo que no era “una mejora”: era un cambio de fase. Encender fuego —y hacerlo de forma repetida, generación tras generación— alteró para siempre qué significaba sobrevivir, aprender y transmitir conocimiento.
Hoy estamos frente a otra fogata. No calienta las manos, pero calienta (y acelera) decisiones, textos, código, diagnósticos, diseños, ideas. Y como siempre que aparece una tecnología de uso general, alrededor crece lo mejor y lo peor: gente creativa probando límites; y vendedores de atajos prometiendo riqueza instantánea.
El problema es que solemos mirar el futuro con una regla equivocada: pensamos linealmente en un mundo que se mueve por tramos exponenciales. Esa diferencia —entre “sumar” y “multiplicar”— es la que vuelve tan extraña esta etapa: sentimos que la realidad cambia más rápido que nuestra intuición.
Muchos ya pasaron por esa experiencia: escribirle a un modelo generativo y recibir una respuesta tan coherente que el cerebro hace lo que siempre hace… completar el resto. Donde hay lenguaje, asumimos intención; donde hay fluidez, asumimos comprensión.
Ese reflejo humano es poderoso. Y también peligroso: nos empuja a tratar a la IA como oráculo.
En aviación conocemos bien este fenómeno, aunque no lo llamemos así: cuando un sistema entrega una salida limpia, “bonita”, con números y tono seguro, baja el umbral de desconfianza. La automatización no falla solo por lo que hace: falla por lo que nos hace a nosotros (complacencia, exceso de confianza, pérdida de conciencia situacional). Con la IA generativa, ese sesgo llega empaquetado en frases.
Dar instrucciones a un modelo es prompting: el prompt es la información que le das para que te responda, y el resultado mejora cuando la consigna está bien articulada.
- Dale identidad (rol: “inspector”, “analista”, “instructor”, “auditor”, “redactor técnico”).
- Añadí contexto (objetivo, audiencia, limitaciones, norma aplicable, formato esperado).
- Sé específico (qué sí, qué no, ejemplos, longitud, estructura).
- Iterá (la primera salida rara vez es la buena).
Si lo querés en idioma aeronáutico: no es “pedirle algo”, es briefear. Y después, debriefear. (con perdón de la Real Academia Española)
Me gusta el enfoque de Ethan Mollick porque baja la espuma: propone convivir con IA con sentido común, sin fanatismos. Sus cuatro principios se pueden traducir directo a cultura de seguridad:
- Invitá a la IA a la mesa: probá capacidades, descubrí límites en tus tareas reales.
- Sé el humano en el bucle: la IA se inventa respuestas (alucina); tu trabajo es verificar, entender y asumir responsabilidad.
- Tratala como una persona… pero decile qué persona es: rol/criterio para orientar el tipo de salida.
- Asumí que es la peor IA que vas a usar: lo que hoy parece “magia” mañana será lo básico.
Este punto 2 es el corazón del asunto. En operaciones y seguridad, delegar la responsabilidad no es una opción. Delegar el borrador, sí. Delegar el juicio, no.
Hay un peligro más silencioso que las “alucinaciones”: olvidarnos de pensar. La IA está diseñada para eficiencia y respuesta inmediata, virtudes en ingeniería… pero vicios en el aprendizaje.
Si subís un PDF, pedís una infografía y sentís que “aprendiste”, tu cerebro confunde fluidez con comprensión. La trampa es vieja: creer que reconocer algo equivale a dominarlo.
La IA puede ser un gran compañero intelectual… si la usás para hacer mejor el proceso, no para salteártelo.
Cuando una herramienta produce respuestas fluidas, el ser humano tiende a “subirle” el estatus: de calculadora a consejero, de asistente a oráculo, de software a algo casi sagrado. Ese salto psicológico no viene de la evidencia: viene del misterio.
Confundir la caja negra con magia abre la puerta a una religión secular (“la IA como salvador o destructor”), alimentada por incentivos, marketing y nuestra fascinación por lo invisible.
Una imagen mental útil: el óptimo de uso de IA no es 0% ni 100%. Si la usás para todo, el resultado se llena de “slop”; si la evitás por completo, perdés velocidad, claridad y nuevas posibilidades.
- Tu experiencia en el tema,
- El riesgo asociado al error,
- La trazabilidad exigida,
- y el tipo de salida (creativa vs. normativa vs. técnica).
En aviación, el valor no está en “que la IA escriba”, sino en dónde se integra: mantenimiento predictivo, simulación de escenarios, monitoreo, apoyo al análisis… y, sobre todo, cómo conversa con el SMS sin reemplazar el juicio humano. Esa línea la desarrollé con ejemplos y casos en un artículo anterior sobre IA aplicada a la seguridad operacional: Inteligencia Artificial en la Aviación: Transformando la Seguridad Operacional en la Era Moderna .
En general, hay una lista cotidiana —muy realista— de usos donde la IA funciona como “máquina de primera pasada”: preparar clases, elaborar preguntas, traducir, transformar formatos, evitar la página en blanco, automatizar tareas repetitivas.
- Borradores estructurados: procedimientos, checklist, matrices, cartas, minutas.
- Generación de escenarios: casos de entrenamiento, incidentes simulados, preguntas tipo oral.
- Revisión de claridad: detectar ambigüedades (“esto se puede interpretar de dos maneras”).
- Análisis exploratorio: lista de peligros posibles (para después validar con expertos/datos).
- Traducción y estilo técnico: con verificación posterior y control de terminología.
- Transformación de datos: de texto a tabla, de tabla a JSON, de informe a bullets.
Si tuviera que dejar un mini-SOP mental para IA (no universal, pero útil), sería este:
- Definí el rol: “actuá como instructor de vuelo / auditor SMS / instructor CRM”.
- Limitá el alcance: “no inventes datos; si falta info, preguntá; marcá supuestos”.
- Exigí trazabilidad: “separá hechos, inferencias y recomendaciones”.
- Pedí verificación: “dame una checklist de verificación y posibles puntos débiles”.
- Hacé cross-check: con manuales, normas, datos operativos, SME.
- Nunca uses IA como autoridad final en decisiones safety-critical.
Esto se alinea con una idea simple: quienes mejor provecho sacan son los expertos, porque saben preguntar y evaluar. La IA no reemplaza expertise; lo exige.
La IA puede ser una de las herramientas más potentes que veremos en vida profesional. Pero su poder real depende menos del modelo y más de nuestro modo de uso: si la convertimos en atajo, nos empobrece; si la convertimos en compañero exigente, nos potencia.
La invitación, entonces, no es rendirse a la magia ni negarla por orgullo. Es hacer lo más humano —y lo más aeronáutico— que existe: procedimiento, verificación, criterio y responsabilidad.
- ¿Quién tiene el mando? Inteligencia artificial y conciencia humana en la aviación
- Inteligencia Artificial en la Aviación: Transformando la Seguridad Operacional en la Era Moderna
Referencias
- Mollick, Ethan (2024). Cointeligencia: vivir y trabajar con la IA. Barcelona: Editorial Conecta. ISBN: 978-84-18053-21-4. Enlace al libro
