La nueva fogata: convivir con la IA sin pensamiento mágico

Escucha el artículo

 
 
 

Una guía para usar IA como herramienta de trabajo (y no como oráculo): método, verificación y criterio.

Hace unos 400.000 años, un grupo de neandertales consiguió algo que no era “una mejora”: era un cambio de fase. Encender fuego —y hacerlo de forma repetida, generación tras generación— alteró para siempre qué significaba sobrevivir, aprender y transmitir conocimiento.

Hoy estamos frente a otra fogata. No calienta las manos, pero calienta (y acelera) decisiones, textos, código, diagnósticos, diseños, ideas. Y como siempre que aparece una tecnología de uso general, alrededor crece lo mejor y lo peor: gente creativa probando límites; y vendedores de atajos prometiendo riqueza instantánea.

El problema es que solemos mirar el futuro con una regla equivocada: pensamos linealmente en un mundo que se mueve por tramos exponenciales. Esa diferencia —entre “sumar” y “multiplicar”— es la que vuelve tan extraña esta etapa: sentimos que la realidad cambia más rápido que nuestra intuición.

El primer encuentro: cuando la máquina “parece” pensar

Muchos ya pasaron por esa experiencia: escribirle a un modelo generativo y recibir una respuesta tan coherente que el cerebro hace lo que siempre hace… completar el resto. Donde hay lenguaje, asumimos intención; donde hay fluidez, asumimos comprensión.

Ese reflejo humano es poderoso. Y también peligroso: nos empuja a tratar a la IA como oráculo.

En aviación conocemos bien este fenómeno, aunque no lo llamemos así: cuando un sistema entrega una salida limpia, “bonita”, con números y tono seguro, baja el umbral de desconfianza. La automatización no falla solo por lo que hace: falla por lo que nos hace a nosotros (complacencia, exceso de confianza, pérdida de conciencia situacional). Con la IA generativa, ese sesgo llega empaquetado en frases.

Si querés profundizar en esa tendencia a humanizar lo que no es humano (y en el riesgo operativo de confundir fluidez con comprensión), ya lo trabajé desde una pregunta simple y peligrosa: ¿quién está realmente al mando cuando la automatización se vuelve convincente?

Prompting: hablar con una herramienta que no entiende, pero acierta seguido

Dar instrucciones a un modelo es prompting: el prompt es la información que le das para que te responda, y el resultado mejora cuando la consigna está bien articulada.

Una base útil para promptear bien
  • Dale identidad (rol: “inspector”, “analista”, “instructor”, “auditor”, “redactor técnico”).
  • Añadí contexto (objetivo, audiencia, limitaciones, norma aplicable, formato esperado).
  • Sé específico (qué sí, qué no, ejemplos, longitud, estructura).
  • Iterá (la primera salida rara vez es la buena).

Si lo querés en idioma aeronáutico: no es “pedirle algo”, es briefear. Y después, debriefear. (con perdón de la Real Academia Española)

A veces la diferencia no está en “el prompt perfecto”, sino en convertir esa interacción en un hábito profesional: briefear, iterar, pedir formato, exigir supuestos, y cerrar con verificación. Cuando lo llevás al terreno aeronáutico (SOP, SMS, instrucción, reportes, análisis de riesgo), la IA deja de ser un juguete y pasa a ser un copiloto de escritorio: útil, rápido… y siempre supervisado. En Flap152, de hecho, hay un curso que aterriza estas técnicas específicamente a la actividad aeronáutica, con ejercicios y plantillas para evitar el “copiar y pegar” sin criterio: ChatGPT – Ingeniería de Prompt aplicada a la Actividad Aeronáutica .

Co-inteligencia: cuatro reglas simples para no perderse

Me gusta el enfoque de Ethan Mollick porque baja la espuma: propone convivir con IA con sentido común, sin fanatismos. Sus cuatro principios se pueden traducir directo a cultura de seguridad:

  1. Invitá a la IA a la mesa: probá capacidades, descubrí límites en tus tareas reales.
  2. Sé el humano en el bucle: la IA se inventa respuestas (alucina); tu trabajo es verificar, entender y asumir responsabilidad.
  3. Tratala como una persona… pero decile qué persona es: rol/criterio para orientar el tipo de salida.
  4. Asumí que es la peor IA que vas a usar: lo que hoy parece “magia” mañana será lo básico.

Este punto 2 es el corazón del asunto. En operaciones y seguridad, delegar la responsabilidad no es una opción. Delegar el borrador, sí. Delegar el juicio, no.

El riesgo invisible: sedentarismo cognitivo

Hay un peligro más silencioso que las “alucinaciones”: olvidarnos de pensar. La IA está diseñada para eficiencia y respuesta inmediata, virtudes en ingeniería… pero vicios en el aprendizaje.

Si subís un PDF, pedís una infografía y sentís que “aprendiste”, tu cerebro confunde fluidez con comprensión. La trampa es vieja: creer que reconocer algo equivale a dominarlo.

En seguridad operacional esto se traduce en algo concreto: copiar y pegar no construye criterio; repetir no construye juicio; resumir no construye competencia.

La IA puede ser un gran compañero intelectual… si la usás para hacer mejor el proceso, no para salteártelo.

El otro extremo: pensamiento mágico con estética de tecnología

Cuando una herramienta produce respuestas fluidas, el ser humano tiende a “subirle” el estatus: de calculadora a consejero, de asistente a oráculo, de software a algo casi sagrado. Ese salto psicológico no viene de la evidencia: viene del misterio.

Confundir la caja negra con magia abre la puerta a una religión secular (“la IA como salvador o destructor”), alimentada por incentivos, marketing y nuestra fascinación por lo invisible.

En aviación, esto es incompatible con la cultura justa y la cultura de reporte: necesitamos explicaciones operativas, no relatos místicos.
La pregunta correcta no es “¿la IA es inteligente?”, sino:
¿En qué tarea concreta, con qué controles, bajo qué limitaciones, mejora mi desempeño sin degradar mi juicio?

IA: la curva del “ni todo, ni nada”

Una imagen mental útil: el óptimo de uso de IA no es 0% ni 100%. Si la usás para todo, el resultado se llena de “slop”; si la evitás por completo, perdés velocidad, claridad y nuevas posibilidades.

Lo interesante es que el punto óptimo cambia según
  • Tu experiencia en el tema,
  • El riesgo asociado al error,
  • La trazabilidad exigida,
  • y el tipo de salida (creativa vs. normativa vs. técnica).
La IA es un amplificador. Amplifica tu criterio… o tu confusión.

Usos que sí valen la pena (especialmente en entornos técnicos)

En aviación, el valor no está en “que la IA escriba”, sino en dónde se integra: mantenimiento predictivo, simulación de escenarios, monitoreo, apoyo al análisis… y, sobre todo, cómo conversa con el SMS sin reemplazar el juicio humano. Esa línea la desarrollé con ejemplos y casos en un artículo anterior sobre IA aplicada a la seguridad operacional: Inteligencia Artificial en la Aviación: Transformando la Seguridad Operacional en la Era Moderna .

En general, hay una lista cotidiana —muy realista— de usos donde la IA funciona como “máquina de primera pasada”: preparar clases, elaborar preguntas, traducir, transformar formatos, evitar la página en blanco, automatizar tareas repetitivas.

En aviación, esa “primera pasada” sirve si se usa con disciplina
  • Borradores estructurados: procedimientos, checklist, matrices, cartas, minutas.
  • Generación de escenarios: casos de entrenamiento, incidentes simulados, preguntas tipo oral.
  • Revisión de claridad: detectar ambigüedades (“esto se puede interpretar de dos maneras”).
  • Análisis exploratorio: lista de peligros posibles (para después validar con expertos/datos).
  • Traducción y estilo técnico: con verificación posterior y control de terminología.
  • Transformación de datos: de texto a tabla, de tabla a JSON, de informe a bullets.

“Reglas de cabina” para usar IA sin romper la seguridad

Si tuviera que dejar un mini-SOP mental para IA (no universal, pero útil), sería este:

  • Definí el rol: “actuá como instructor de vuelo / auditor SMS / instructor CRM”.
  • Limitá el alcance: “no inventes datos; si falta info, preguntá; marcá supuestos”.
  • Exigí trazabilidad: “separá hechos, inferencias y recomendaciones”.
  • Pedí verificación: “dame una checklist de verificación y posibles puntos débiles”.
  • Hacé cross-check: con manuales, normas, datos operativos, SME.
  • Nunca uses IA como autoridad final en decisiones safety-critical.

Esto se alinea con una idea simple: quienes mejor provecho sacan son los expertos, porque saben preguntar y evaluar. La IA no reemplaza expertise; lo exige.

Cuatro prompts listos para usar (y un detalle clave)
1) Análisis de riesgos (borrador – SMS / operaciones)
Actuá como analista SMS. Con este escenario [texto], generá: (a) peligros, (b) barreras existentes, (c) degradaciones típicas, (d) controles recomendados. Separá “hechos del escenario” vs “supuestos”. Al final, listá 10 preguntas que debería responder antes de aprobar cualquier control.
2) Revisar un procedimiento (SOP / instructivo)
Actuá como auditor de procedimientos. Leé este borrador y marcá: ambigüedades, pasos no verificables, dependencias ocultas, y puntos donde un operador podría interpretar mal. Proponé redacción alternativa más clara en estilo técnico. Cerrá con una checklist de verificación.
3) Entrenamiento (preguntas que obliguen a pensar)
Actuá como instructor. Generá 12 preguntas socráticas para evaluar comprensión sobre [tema], con respuestas esperadas y errores frecuentes. No des la “clase”; hacé preguntas que obliguen a razonar.
4) Público no aeronáutico (uso cotidiano/profesional)
Actuá como asesor de comunicación. Necesito escribir un mensaje claro y breve para [situación: pedir presupuesto, reclamar una compra, proponer una reunión, disculparme, etc.]. Pedime primero 5 datos clave que te falten. Luego redactá 3 versiones: (a) formal, (b) cordial y directa, (c) muy breve tipo WhatsApp. Señalá posibles malentendidos y cómo evitarlos.

Detalle clave: si la IA te ahorra el esfuerzo cognitivo que necesitás para aprender, te está robando el aprendizaje. Si te sirve este enfoque de prompts como “mini-SOP mental”, podés entrenarlo con más casos (desde lo cotidiano hasta lo operativo) y plantillas reutilizables: en el curso ChatGPT – Ingeniería de Prompt aplicada a la Actividad Aeronáutica tenés muchos más ejemplos listos para adaptar, con la lógica de brief–iteración–verificación que sostiene todo lo anterior.

Cierre: una fogata, no un altar

La IA puede ser una de las herramientas más potentes que veremos en vida profesional. Pero su poder real depende menos del modelo y más de nuestro modo de uso: si la convertimos en atajo, nos empobrece; si la convertimos en compañero exigente, nos potencia.

La invitación, entonces, no es rendirse a la magia ni negarla por orgullo. Es hacer lo más humano —y lo más aeronáutico— que existe: procedimiento, verificación, criterio y responsabilidad.


Para seguir leyendo en Flap152
Y si querés pasar del “buen prompt ocasional” a un método repetible, con más casos y plantillas: ChatGPT – Ingeniería de Prompt aplicada a la Actividad Aeronáutica .

 

Referencias

  • Mollick, Ethan (2024). Cointeligencia: vivir y trabajar con la IA. Barcelona: Editorial Conecta. ISBN: 978-84-18053-21-4. Enlace al libro