top of page
Buscar
Foto del escritorDaniel Camargo

La aplicación de la Inteligencia Artificial en el campo de batalla



Por Daniel Camargo*

 

Para aquellos que intentan analizar las oportunidades, amenazas y el alboroto que plantea la Inteligencia Artificial (IA), el momento actual no es solo desalentador sino desorientador. En el acelerado avance de la innovación de la técnica y la tecnología de nuestros días, la IA está a punto de revolucionar paradigmas arraigados sobre múltiples aspectos de la actividad humana, desde el trabajo, la justicia, la creatividad, la administración pública y la guerra. En este último frente los conflictos que van desde Armenia hasta Ucrania y Siria, parecen apuntar hacia campos de batalla administrados por la ciencia de datos, con objetivos militares, disparos de drones y evaluación de daños de manera instantánea, minimizando la necesidad de intervención y supervisión humana.

Las aplicaciones militares de la IA no se limitan exclusiva o estrictamente a la selección de objetivos tácticos y el comportamiento operativo. La automatización vincula tareas de nivel estratégico, desde el control y comando hasta la gestión, la logística y la capacitación, para las cuales la calidad y veracidad de los datos extraídos de los campos de batalla y del enemigo son fundamentales. Incluso más allá de estas funciones de alto nivel, la IA plantea preguntas fundamentales sobre una cuestión fundamental: la intencionalidad. ¿El juicio humano seguirá siendo central para la estrategia, la diplomacia, el arte de gobernar y las relaciones internacionales?

 

Hacer más oscura la “niebla de guerra” 

 

Destacados teóricos de las relaciones internacionales, desde Jervis hasta Schelling, han examinado el papel de la percepción entre los Estados. Las implicaciones son a menudo existenciales: particularmente para las potencias nucleares, la forma en que los líderes militares y de seguridad nacional reaccionan frente a las posturas de sus homólogos foráneos representa complejas ramificaciones para prevalecer y evitar crisis en los conflictos. Incluso los términos utilizados para describir estas dinámicas “modelo de actor racional” o “teoría de juegos”, hacen hincapié en el papel central de la intencionalidad, la simbología, y la interpretación humana. Por ejemplo, durante la crisis de los misiles cubanos, los estudiosos militares señalan que la pregunta central para el presidente Kennedy no era si había o no misiles con capacidad nuclear en la isla. Más bien, la pregunta era hasta dónde estaba dispuesta a llegar la Unión Soviética con el lanzamiento del material nuclear. En consecuencia, los tomadores de decisiones en la cúpula militar y política estadounidense lo que necesitaban entender era la resolución de la escalada y no las estimaciones del número de misiles, procesos doctrinales para dispararlos y tiempos de vuelo y objetivos probables.

 

La construcción de la resolución del adversario nunca fue infalible

 

Los humanos somos volubles, torpes, predecibles e incluso estratégicamente contraproducentes. En un mundo donde se espera que la toma de decisiones sea cada vez más automatizada e instantánea, los márgenes de consecuencias imprevistas e involuntarias también pueden ampliarse. En un mundo en donde la ciencia de datos y la aplicación de IA gestionan tanto la guerra, como la inteligencia estratégica del campo de batalla, podría paradójicamente disminuir la capacidad de los Estados para entender la intencionalidad y para enviar y discernir señales de manera efectiva que desescalen las hipótesis de conflictos. El teórico militar Martin Van Creveld examinó esta relación entre tecnología y guerra, llegando a la conclusión en donde “la eficiencia, lejos de ser simplemente conducente a la efectividad, puede actuar como su opuesto”.

 

La tecnología diseñada para reducir la oscuridad de la guerra sólo podría ensombrecer el panorama

 

El politólogo Michael Mazarr llama a estos problemas tecnológicos que inducen a la complejidad de entender la intencionalidad, "sistemas abstractos depredadores", caracterizados por reglas y procedimientos autorreplicantes que son indescifrables para los externos. En cierto punto, el nudo gordiano tecnológico se vuelve tan denso y complejo, que se perpetúa a sí mismo con tal eficiencia que cualquier cúpula militar o Comandante en Jefe podría abandonar la escena del campo de batalla y la máquina de guerra seguirá funcionando de una manera sistematizada y automatizada.

El resultado, para quienes toman decisiones desde el campo de batalla hasta la silla del comandante, es una relación de autoridad complicada y desigual con la automatización que posibilita la IA. En situaciones de crisis, los tomadores de decisión pueden estar menos inclinados a intensificar sus esfuerzos en respuesta a errores humanos (como el derribo accidental de un avión), pero menos misericordiosos con los sistemas dirigidos por IA. En otras palabras, las represalias pueden surgir principalmente del deseo y la necesidad de “castigar al rival por delegar la toma de decisiones letales a una máquina”.

Cuanto más complejos son los sistemas de IA, más borrosas e intangibles se vuelven las líneas de autoridad para la toma de decisiones y la responsabilidad de sus consecuencias. Los actores humanos relevantes (operadores, reguladores y diseñadores) se fusionan algorítmicamente en un agente colectivo súper potente y relativamente novedoso llamado IA, que, al igual que “el sistema de mercado” o los “aparatos burocráticos”, resultan difíciles de controlar preventivamente o responsabilizar post hoc por la toma de decisiones nefastas contra la sociedad civil. 

Históricamente, la delegación de autoridad a la tecnología ha estado impulsada por el deseo de eliminar la falibilidad humana, haciendo que la conducción de la guerra sea menos violenta, más precisa, menos destructiva y costosa, manteniendo de alguna manera su capacidad para lograr objetivos estratégicos. Pero esta cosmovisión es ilusoria. La subjetividad y la ambigüedad son una parte constitutiva e inmutable de la condición humana: ocultables, tal vez, bajo densas e inentendibles capas de algoritmos y automatización, pero aún omnipresentes, acechando en la selección y categorización de los datos recopilados y el desarrollo de aplicaciones. No se trata de una veneración para sentirse bien por la razón humana que con frecuencia se enfrenta a una complejidad e incertidumbre irreductibles (como cuidadosamente lo pensó Immanuel Kant ), sino más bien un constante recordatorio para distinguirla del tipo de “razonamiento” exhibido por la IA: encontrar patrones en un conjunto de datos, seleccionados y considerados por sus desarrolladores sean suficientemente representativos de la experiencia para otorgar a tales patrones poder predictivo. Estos “modelos simplificados de la realidad” pueden llamar la atención hacia indicadores que tienen sentido dentro de los límites de un conjunto de datos determinado, pero que podrían ser engañosos o irrelevantes para el mundo real. Mientras tanto, en medio de crisis de seguridad internacional y el surgimiento de un mundo multipolar, los tomadores de decisiones no tienen ni el tiempo ni la inclinación para verificar la cordura de los modelos de capacitación automatizados. 

 

Lograr el equilibrio adecuado entre humanos y máquinas

 

Por muy entusiasta que resulte a las fuerzas militares de todo el mundo la aplicación IA, la toma de decisiones de mando no es simplemente sinónimo de inferencia estadística ni los campos de batalla son simplemente un conjunto de puntos de datos no estructurados. El comportamiento y la cognición humana no siguen leyes fijas como la física newtoniana. La experta en tecnología Marta Peirano considera una amenaza actual que este pensamiento autómata pudiera erosionar “nuestro sentido del valor de los elementos cualitativos en una situación (...) y que la computadora que se alimenta de datos cuantificables pueda brindar soluciones y consuelo a quienes piensan que pueden aprender todas las cosas importantes de la vida dividiendo la experiencia en sus partes cuantificables”. Atribuir (o seguir) tal metodología del comportamiento humano sería adaptar a los hombres a la maquinaria en lugar de adaptar la maquinaria a los contornos de una situación humana.

En este sentido, una menor intervención humana en contextos militares probablemente requiera una mayor intervención en contextos diplomáticos, regulatorios, legislativos. Durante la Guerra Fría, los déficits de confianza entre adversarios podían superarse, al menos momentáneamente, mediante negociaciones taimadas y profundas desconfianzas (el supuesto de intencionalidad). Es probable que las armas y la inteligencia asistidas por IA otorguen aún más urgencia a estos contactos bilaterales y multilaterales, tanto para sortear las tensiones de lo totalmente involuntario como para mitigar malas intenciones explícitas.

En última instancia, las administraciones públicas deben determinar y comunicar tanto a los aliados como a los adversarios cómo es la división apropiada del trabajo entre humanos y máquinas y qué políticas deberían derivarse de ello. La adicción a más automatización sólo agravará la incertidumbre epistémica, la falta de señalización y la falta de responsabilidad por los errores. Los líderes de la industria prometen que la IA mejorará la toma de decisiones en la guerra al cambiar la forma en que traducimos los datos en conocimiento. ¿Debemos creer entonces en la cosmovisión de un grupo de empresarios dueños de las grandes plataformas tecnológicas? Cabe preguntarse: ¿cuál es la diferencia estratégica, moral y comercial de un fabricante de armas a un desarrollador de IA aplicada al desarrollo de conflictos militares?

En la medida en que los Estados quieren evitar percepciones erróneas, una escalada y un deslizamiento automático hacia la guerra es necesario mecanismos regulatorios más sólidos, profesionales y capacitados frente al avance de la gestión tecnológica; mecanismos supranacionales dispuestos a la cooperación internacional y sin duda alguna, la aplicación de la protección de los derechos humanos en su grande espectro, frente al avance de los gigantes tecnológicos.

 

 

* Licenciado en Ciencia Política (UBA). Su campo de investigación es la tecnología y el orden internacional.

Comentários


bottom of page