Un informe sobre el uso de inteligencia artificial en operaciones militares reveló errores significativos en la identificación de objetivos y movimientos, atribuyéndolos a sesgos en los datos de entrenamiento y a la falta de adaptación al terreno.
El despliegue de sistemas de inteligencia artificial en escenarios de conflicto en Medio Oriente registró una serie de errores en la interpretación táctica que afectaron operaciones terrestres. Según el informe ‘Artificial Intelligence in Modern Warfare 2026’, los algoritmos de predicción presentaron fallas al identificar movimientos de tropas, con un margen de error que alcanzó el 40% en las proyecciones de combate.
El documento confirmó que, en varios casos, los sistemas proporcionaron respuestas que se alineaban con las ideas preconcebidas de los comandantes, en lugar de reflejar la situación real en el campo de batalla. Esto llevó, por ejemplo, a que se ordenaran desplazamientos de tropas hacia sectores donde no había presencia enemiga.
Los procesadores de estos sistemas llegaron a ignorar señales térmicas reales, reemplazándolas por proyecciones basadas en datos previos al conflicto. Esta situación, según el análisis, eliminó la objetividad necesaria para la toma de decisiones en contextos de alta presión.
El riesgo de una escalada involuntaria aumentó en un incidente donde un sistema de alerta temprana interpretó erróneamente un convoy civil como una batería de misiles móviles. Expertos señalan que la falta de diversidad en los datos de entrenamiento para entornos desérticos y urbanos específicos de la región redujo la precisión de los modelos, que tampoco computaron adecuadamente tácticas de mimetismo.
Un reporte de la Global Tech Oversight indicó que ‘los modelos replicaron prejuicios estratégicos que se arrastran desde hace décadas en la doctrina militar’. Como consecuencia, la IA no logró discernir de manera fiable entre una retirada táctica y una posible emboscada.
El fenómeno también se manifestó de manera sistemática en las interfaces de realidad aumentada de los soldados de infantería. Cascos inteligentes proyectaron marcadores de enemigos inexistentes debido a fallas en la integración de sensores de movimiento. Ante la detección de que la IA generaba rutas de escape para el enemigo que no existían en la topografía real, los mandos operativos decidieron desactivar los módulos de predicción de comportamiento.
