En el marco del II Congreso Español de Seguridad Operacional Aeronáutica, celebrado el pasado 30 de mayo, el Teniente Coronel del Ejército del Aire y del Espacio Iván García Luengo abordó el impacto de la inteligencia artificial (IA) en los entornos operativos militares. Durante su exposición, en la mesa dedicada a la seguridad operacional aeroportuaria y la IA, expuso las oportunidades tecnológicas y, sobre todo, los riesgos y retos estratégicos para la aviación militar.
El oficial, que participa como experto en investigación ATM del programa “Cielo Único Europeo” de Eurocontrol, abrió su intervención recordando que la IA “ya está aquí, ha llegado y solo le queda mejorar”. Subrayó que, pese a las expectativas generadas por esta tecnología, todavía se trata de una herramienta cuyo desempeño está condicionado enteramente por el factor humano: “Es el ser humano el que programa la IA, el que limita su código y determina su motivación”, recalcó.
Prioridad en el control humano: la seguridad del espacio aéreo
El Tecol. García Luengo fue rotundo al señalar la máxima prioridad de las Fuerzas Armadas: «La seguridad del espacio aéreo nacional es nuestra responsabilidad absoluta.» Esta premisa, que en el sector se enmarca bajo las disciplinas de “safety” y “security”, implica para el Ejército del Aire no solo la protección ante accidentes, sino también la salvaguarda ante amenazas deliberadas o interferencias externas.
A propósito de las iniciativas para desarrollar operaciones aéreas con un solo piloto, el teniente coronel manifestó que el Ejército del Aire y del Espacio está plenamente informado sobre el concepto de “Single Pilot Operations” (SPO) y que participa en los desarrollos tecnológicos, no obstante, enfatizó que “no queremos entregar un sistema de armas a una inteligencia artificial fácilmente perturbable o interferible mediante guerra electrónica”. En sus palabras, ceder la autonomía completa a sistemas automatizados representa un riesgo inaceptable en un entorno donde el adversario puede evolucionar de aliado a enemigo en un solo día.
Robustez tecnológica y amenazas emergentes
El oficial aludió a proyectos europeos clave, como el Future Combat Air System (FCAS), que prevén la integración de aeronaves pilotadas y vehículos aéreos no tripulados actuando en formación y coordinados mediante IA. Sin embargo, reiteró: “No podemos dejar que nuestras plataformas estén gobernadas por la inteligencia artificial”.
Argumentó que, incluso con los avances experimentados en el sector militar, la vulnerabilidad de los sistemas ante ataques electrónicos, interferencias o usos perniciosos de la tecnología sigue siendo una realidad. Hizo un paralelismo con la integración del GPS en la navegación aérea: “Al principio nadie dudaba de su utilidad, pero la seguridad no fue suficiente hasta que se implantaron garantías adicionales. Algo similar debe ocurrir con la inteligencia artificial”.
En relación con los sistemas embarcados, García Luengo criticó la idea de que la IA, cuando alcance el “Nivel 3”, según la categorización europea, pueda tomar decisiones autónomas no revertibles por un operador humano. “La toma de decisiones debe seguir siendo humana”, insistió, señalando la contradicción entre la madurez real de la tecnología y las expectativas temporales de algunos reguladores, que plantean guías para 2030.
La operación de combate y el factor humano
El teniente coronel también abordó la evolución de los perfiles operativos en la aviación militar, destacando que, aunque el concepto de avión biplaza tiende a reducirse, en determinadas misiones críticas (como las que implican armamento nuclear) sigue siendo indispensable la presencia de más de un operador. Argumentó que la interacción entre varios pilotos y la cooperación son elementos insustituibles, especialmente en situaciones límite.
Apuntó que, pese a la implantación de las tecnologías más avanzadas en el ámbito militar, los patrones de accidentabilidad no difieren significativamente respecto a la aviación civil. “Muchos desarrollos tecnológicos nacen en el ámbito militar, pero no hay una brecha gigantesca en siniestralidad achacable al apoyo tecnológico”, aseguró.
El especialista concluyó que, aunque la tecnología continúa su avance y la IA se perfila como un recurso de valor, “la sociedad y el sector deben decidir hasta dónde permitir su uso”. La misión del Ejército pasa por garantizar que la supervisión y el control humano estén siempre por delante de la automatización, especialmente en entornos donde la toma de decisiones rápida, ética y responsable resulta crítica. (Diego Gómez)
1 comentarios