Autor

Inteligencia Artificial y Desinformación: Papel en los Conflictos del Siglo XXI

Este artículo ha sido publicado inicialmente en la Revista Seguridad y Poder Terrestre
Vol. 3 No. 3 (2024): julio a septiembre
https://doi.org/10.56221/spt.v3i3.66


Resumen

Los recientes conflictos en el mundo demuestran que la tecnología es fundamental para el desarrollo de las campañas bélicas. El uso de tecnología de punta no se limita exclusivamente a los actores tradicionales del Derecho Internacional Humanitario (DIH), sino que la emplean actores no estatales, los cuales cuestionan la eficacia del marco legal internacional, abren el camino a acciones ilegítimas e ilegales y amplían la zona gris entre la paz y la guerra. En este entorno confuso y cada vez más peligroso, la información y la desinformación se han utilizado como armas estratégicas. Estas incluyen tácticas de engaño, medios de desestabilización, generadores de caos y división social, mecanismos de evasión de responsabilidades y sanciones, e instrumentos para la creación de realidades a medida (posverdad). Por lo tanto, el objetivo de este trabajo es comprender el uso militar de una tecnología disruptiva como la inteligencia artificial (IA) e identificar el potencial de la desinformación y la información como herramientas estratégicas.

Palabras Clave: Inteligencia Artificial, Desinformación, Conflicto, Seguridad internacional, Tecnología Bélica, Armas Autónomas.

Introducción

Los recientes conflictos ocurridos alrededor del mundo demuestran que la tecnología es un elemento esencial para el desarrollo de las diferentes campañas bélicas. El uso de tecnología de punta no es exclusivo de los actores tradicionales del DIH, sino que es empleada por actores no estatales. Estos cuestionan la eficacia del marco legal internacional, abren el camino a acciones ilegítimas e ilegales y amplían la zona gris entre la paz y la guerra.

En este entorno confuso y cada vez más peligroso, la información y la desinformación se han utilizado como medios para generar controversias, manipular mentes, desacreditar a figuras políticas, dividir sociedades, enmascarar los verdaderos objetivos, iniciar conflictos y, por supuesto, como armas de alto impacto. Las grandes campañas de desinformación y manipulación social utilizan IA para lograr sus objetivos con precisión, de manera masiva, en poco tiempo y con gran alcance. Esto evidencia cómo la tecnología potencia estrategias y tácticas de guerra convencionales, como la propaganda y la contrapropaganda. Así, se identifica una convergencia de tecnologías disruptivas con formas efectivas de desinformación en campañas políticas, acciones sociales, actividades económicas y operaciones militares, con la IA como protagonista.

La investigación se basa en el método científico, específicamente en la investigación bibliográfica sobre avances en tecnología militar, IA y ejemplos de aplicación práctica. A esto se añade el análisis literario, de discurso e histórico de diversos documentos oficiales, académicos, tecnológicos y mediáticos desde una perspectiva realista. Es un estudio documental y descriptivo, que intenta recolectar datos publicados en fuentes primarias y secundarias especializadas en derecho internacional, defensa y estrategia militar basada en el uso intensivo de Tecnologías de la Información y las Comunicaciones (TIC), IA e infraestructura de comunicaciones.

Lo anterior permite formular la pregunta guía de este trabajo: ¿Cuál es el papel que juegan tanto la IA como la desinformación en los conflictos del siglo XXI? Este cuestionamiento se realiza con el objetivo de comprender el uso militar de una tecnología disruptiva como la IA e identificar el potencial de la desinformación y la información como armas en el campo de batalla. El texto comprende cinco secciones. La primera parte busca establecer el contexto tecnológico en el cual se encuentra inmerso el mundo, caracterizado por la llegada de la Cuarta Revolución Industrial. La segunda sección intenta detallar la IA y la desinformación, sentando las bases para la comprensión de estos fenómenos. La tercera sección analiza y expone algunos de los roles que desempeñan tanto la IA como la desinformación en los conflictos del siglo XXI. La cuarta presenta argumentos a favor y en contra del uso de la IA y la desinformación en conflictos bélicos actuales. Finalmente, en la quinta sección se emiten algunas conclusiones relativas al presente trabajo.

El Contexto Tecnológico del Siglo XXI

El panorama predominante a principios del siglo XXI se encuentra saturado de avances tecnológicos, cuyo objetivo final es la automatización y digitalización de diversas tareas productivas, administrativas, políticas y gubernamentales. En realidad, se sostiene que el mundo está viviendo lo que se denomina la Cuarta Revolución Industrial, la cual se caracteriza por la digitalización y automatización, impulsadas por tecnologías disruptivas como el internet, la nube, la coordinación digital, los sistemas ciberfísicos, la robótica y la IA. Todo esto resulta en una hiperconexión global y plantea nuevos desafíos a la sociedad. Cabe aclarar que este contexto digitalizado es resultado de la evolución experimentada por las diversas industrias a nivel internacional, que pasaron de una era mecanizada a una era eléctrica y, posteriormente, a una era informática (conocidas como la 1ª, 2ª y 3ª Revolución Industrial, respectivamente). En cada una de estas etapas se experimentaron progresos y surgieron innovaciones importantes en el uso de la tecnología en todos los ámbitos.

Sin embargo, a pesar de sus buenos propósitos y progreso, la Cuarta Revolución Industrial trajo consigo una serie de retos entre los que se incluyen: a) la aceleración tecnológica, que conlleva una rápida innovación y adopción de tecnologías que generan desafíos en la gestión de riesgos y protección de datos; b) el cambio en la fuerza laboral, que se ha visto impactado por la automatización y la adopción de la IA, lo que requiere que los empleados adquieran nuevas habilidades y los Estados actualicen sus políticas laborales; c) la evolución del panorama empresarial, donde surgen nuevos modelos de negocio y se intensifica la competencia, creando desafíos para la protección de la propiedad intelectual, los derechos digitales, la privacidad y la seguridad; y, d) la creciente complejidad para dar respuesta a las amenazas sin precedentes que surgen del y toman forma en el ciberespacio.

En el ámbito militar, las características predominantes de hiperconexión y dependencia en los medios tecnológicos han impactado la forma de hacer la guerra, que ahora incluye operaciones en el ciberespacio y a través de los medios de comunicación. Esto utiliza la IA y la desinformación como elementos fundamentales, tanto estratégicos como tácticos, para lograr objetivos políticos. Incluso líderes mundiales como Vladímir Putin han afirmado que quien domine la IA controlará el mundo (Univisión, 2017)[1]. Asimismo, la Organización de las Naciones Unidas (ONU) considera a la desinformación como una de las más grandes amenazas a la seguridad internacional (ONU, 2017).[2] Estas declaraciones permiten cuestionarse: ¿Cuáles son los usos de la IA y la desinformación en los conflictos del siglo XXI? Para responder a esta pregunta es necesario profundizar sobre estos fenómenos, mostrando los detalles generales de la IA y las capacidades de la desinformación.

La IA y la Desinformación

De manera sencilla y quizás reduccionista, la IA se define como la capacidad que se otorga a las máquinas o sistemas para tomar decisiones por sí mismas, realizar tareas y, en teoría, mejorar su desempeño sin la intervención del ser humano, a partir de uno o varios algoritmos programados para cumplir con un objetivo. Hoy en día, en el contexto de la Cuarta Revolución Industrial, la IA se ha convertido en un elemento de gran utilidad y relevancia en la transformación digital. Debido a su evolución e implementación en diversas actividades, vivimos en un mundo automatizado, altamente dependiente de la tecnología, en el cual la IA juega un papel cada vez más protagónico.

Gracias al conocimiento del progreso de la IA, es posible categorizar esta tecnología en función a sus características y objetivos. Según la literatura, existen diversas formas de clasificar la IA. Por ejemplo, una primera taxonomía menciona tres grandes categorías: 1) IA estrecha, 2) IA general y 3) Super IA. Una segunda forma de agrupar la IA menciona cuatro elementos: 1) máquinas reactivas, 2) máquinas con memoria limitada, 3) teoría de la mente y 4) máquinas autoconscientes. Una tercera manera de ordenar la IA incluye sistemas que: 1) piensan como humanos, 2) actúan como humanos, 3) usan la lógica racional y 4) actúan racionalmente. Sin importar cuál de las clasificaciones se utilice, se identifica que la IA emula el actuar de los seres humanos, mejora la productividad, evita el error humano, supera por mucho las tareas realizadas por los seres humanos y busca lograr lo que estos no han alcanzado: el autoconocimiento.

Debido al avance en su estudio e implementación, en años recientes, la IA Generativa ha despuntado como la opción para lograr ventajas en todas las áreas del quehacer humano, sobre potenciales oponentes. Esta se caracteriza principalmente por su uso eficiente de los datos (considerados el «oro digital») para generar contenidos en formato de texto, video, imágenes, música, audios y programas de computadora. Estos contenidos pueden ser utilizados tanto como medios de desarrollo y progreso, como armas de guerra. Entre las características relevantes se encuentran la imitación del ser humano, el empleo del procesamiento de lenguaje natural, el entrenamiento con gran cantidad de datos, la reutilización de datos para solucionar nuevos problemas y la aceleración de la investigación y la creación de nuevos dispositivos, contenidos, obras de arte, teorías y programas de computadora. No obstante, se incluyen algunos sesgos de sus creadores que invariablemente estarán presentes.

Algunos de los ejemplos en donde se utiliza la IA comprenden las redes sociales, los buscadores predictivos, los asistentes personales, las recomendaciones instantáneas de productos, la atención al cliente en medios de comunicación, el monitoreo de actividades, la toma de decisiones automatizadas y el asesoramiento en línea. Servicios, procesos y productos de IA encuentran aplicación en chatbots, la creación de medios, el desarrollo y diseño de productos, la mejora y aceleración de la investigación, la optimización de procesos, el análisis de grandes cantidades de datos, los sistemas de seguridad, el aumento de la productividad, los sistemas de defensa y en los Sistemas de Armas Autónomas Letales (SAAL).

Durante los últimos conflictos, se ha detectado que la IA Generativa (IAG) se ha convertido en una herramienta útil para producir grandes cantidades de “noticias falsas” (deepfakes), evidenciando la fórmula destructiva entre la IA Generativa y la desinformación. En dicho contexto, la IA utiliza masivamente la información como un arma de disuasión, engaño, manipulación, control o desestabilización, potencializando su alcance y diversificando sus impactos. La desinformación creada con IA paraliza la acción internacional, intensifica las controversias, manipula las acciones, justifica atrocidades, genera confusión, expone un doble discurso y divide las opiniones. Bajo estas condiciones, se puede afirmar que los conflictos armados están permeados por información falsa generada con IA. Dado el uso intensivo de la desinformación en la guerra potencializada con IA, ahora se requieren contramedidas eficientes y eficaces para preservar la integridad y seguridad no solo de los actores del conflicto, sino del sistema internacional.

Temporalmente, la decisión sobre el uso de la IA e información para hacer el bien o destruir aún le pertenece a la humanidad. Sin embargo, en los escenarios actuales, donde el respeto por el marco legal es endeble, la participación de empresas tecnológicas (civiles) en la guerra es real, la zona gris se ha ampliado, las operaciones encubiertas son la norma, la ética ha sido olvidada y el uso intensivo de la tecnología de guerra, junto con la poca efectividad de los organismos internacionales, ha quedado de manifiesto. ¿Por cuánto tiempo más será esto posible? ¿Está el ser humano dispuesto a ceder las decisiones de vida o muerte a una computadora? ¿Podrá la sociedad internacional revertir esta tendencia?

La desinformación, concebida por la ONU como la información inexacta “que tiene por objetivo engañar y se difunde con el fin de causar graves prejuicios” (ONU, s.f.),[3] ha sido amplificada por la llegada de la IAG y se ha convertido en una variable de los conflictos actuales, “socavando las respuestas a las políticas públicas o amplificando las tensiones en tiempos de emergencia o conflicto armado” (ONU, s.f.)[4]. Su impacto en la seguridad internacional en momentos trascendentales es tal que la ONU la considera una de las mayores amenazas para la estabilidad del sistema internacional y una preocupación crucial para preservar la estabilidad política.

Funciona como un elemento de propaganda y contrapropaganda que impide a los ciudadanos del mundo contar con información veraz y oportuna que les permita construir sus opiniones a partir de los hechos. En consecuencia, no tiene una definición única, y abarca un “empleo irrestricto” en “cuestiones tan diversas como los procesos electorales, la salud pública, los conflictos armados o el cambio climático” (ONU, s.f.).[5] Es un instrumento para el engaño, la mentira, la difamación y la manipulación, utilizado tanto por actores estatales como no estatales. Por ello, la ONU ha declarado que “las “noticias falsas” se han convertido en un tema de preocupación mundial, debido a que pueden conducir a la censura, la supresión del pensamiento crítico y a otras contravenciones de las leyes de derechos humanos” (ONU, 2017)[6]. Ejemplos del empleo de la desinformación son visibles en eventos militares como la anexión de Crimea por Rusia en 2014 y en las elecciones presidenciales de EE. UU. en 2016.

La atención a las causas y consecuencias de la desinformación se complica, ya que se debe tener mucho cuidado de continuar respetando tanto la libertad de expresión como el libre acceso a bases de datos e información. Por lo tanto, definir con claridad los mecanismos para contrarrestar la desinformación es particularmente importante para la libertad de expresión, pues en esta se encuentran expresiones sociales, culturales, religiosas y ancestrales que podrían ser restringidas erróneamente bajo el pretexto de combatir la desinformación. La dificultad que entraña su atención no impide que se realicen esfuerzos internacionales para regular la desinformación en momentos de paz o en situaciones de conflicto. Diversas investigaciones buscan encontrar una fórmula eficaz para mitigar el impacto de la información falsa en la mente de los ciudadanos, aunque, hasta ahora, no se ha logrado una solución de aplicación universal. Gracias a estos estudios, se afirma que la desinformación tiene impactos sociales, psicológicos, económicos, diplomáticos, políticos y militares. Estos últimos permiten hablar del papel de la desinformación en la “guerra híbrida” y en la “guerra sin contacto”, dos formas de hacer la guerra presente en los conflictos del siglo XXI, y su estrecha relación con la IA.

¿Cómo se Utiliza la IA y la Desinformación en el Medio Militar?

La fascinación del ser humano por emplear la IA para alcanzar objetivos político-militares no es algo nuevo. Los “robots asesinos” y los SAAL han sido tanto fuente de temor como objeto de fascinación durante décadas. En cierto grado, se ha logrado controlar los efectos que dichos artilugios pueden generar. Por ende, explorar las capacidades que acompañan a estos sistemas de armas autónomas para localizar, centrar y eliminar sin la participación humana ha sido una constante en los programas de desarrollo de nuevos armamentos. Esta tendencia se puede observar en los diversos conflictos actuales y es muy probable que constituyan un aspecto fundamental de los conflictos futuros.

En consecuencia, la IA y la (des)información se consolidarán como las armas preferidas en los conflictos del siglo XXI, debido especialmente a su efectividad, alcance, costo-beneficio, capacidad de destrucción y furtividad. No obstante, considerando que por ahora es complicado contrarrestar los efectos y atribuir su carácter bélico a estas nuevas formas de utilizar medios tecnológicos en el campo de batalla, la comunidad internacional tiene mucho por hacer para limitar su uso irrestricto en las operaciones militares. ¿Podrá hacerlo a tiempo? ¿Cuál será la respuesta de los desarrolladores de IA? ¿Estarán dispuestas las fuerzas armadas a prescindir de esta tecnología en el combate? ¡La moneda está en el aire!

La IA en el Contexto Bélico del Siglo XXI

Aunque son variados los usos potenciales de la IA en el ámbito militar, este trabajo aborda solo algunos ejemplos representativos. El propósito de esta muestra es provocar reflexión, debate y fomentar una investigación más profunda sobre el tema para desarrollar argumentos sólidos sobre las oportunidades y riesgos que la IA presenta para la sociedad internacional durante los conflictos armados. Se enfatiza el papel de la IA como multiplicador de fuerzas, facilitador de la simulación de escenarios, ampliador del alcance de las armas, generador de «armas inteligentes», herramienta para mitigar riesgos y mecanismo para llevar a cabo ataques quirúrgicos. Todo esto con el fin de destacar algunas de las características que convierten a la IA en un medio para lograr la superioridad tecnológica.

La IA es una herramienta tecnológica que potencia el poder militar y las capacidades de las fuerzas armadas que la emplean, tanto en sistemas de carácter no letal como letal. Un ejemplo de los primeros son los sistemas que graban y analizan datos de aeronaves para monitorizar y mejorar el rendimiento de sus motores. En contraste, los SAAL son ejemplos destacados de aplicaciones letales, montados en drones o vehículos autónomos (terrestres, marítimos, aéreos, aeroespaciales o cibernéticos), diseñados para identificar y potencialmente destruir objetivos enemigos. Por tanto, la IA actúa como multiplicador de fuerza al proporcionar capacidades superiores a las fuerzas armadas para agilizar y mejorar el reconocimiento de objetivos militares, la vigilancia de blancos prioritarios, la comunicación en el teatro de operaciones, la eficiencia logística, la minimización de pérdidas humanas, la mitigación de amenazas cibernéticas, la optimización del uso de información en la guerra híbrida y el desarrollo de nuevas estrategias, métodos y armas de combate.

Por consiguiente, varios Estados en el mundo tienen programas dedicados a la investigación y desarrollo de IA para mejorar la productividad y eficiencia, así como para su implementación en operaciones militares. Por ejemplo, el Departamento de Defensa de los Estados Unidos (DOD por sus siglas en inglés) cuenta con múltiples programas de investigación en IA aplicada al ámbito militar con presupuestos que alcanzan varios miles de millones de dólares. Además, es crucial destacar el uso humanitario de la IA en salvaguarda de víctimas, lo cual justifica las significativas inversiones internacionales en investigación y desarrollo. Así, la IA no solo multiplica la fuerza y alcance del DIH en la protección de no combatientes y víctimas inocentes de conflictos armados; también desempeña un papel fundamental en la protección humanitaria global.

En primer lugar, la IA permite la simulación de escenarios de conflicto. A nivel estratégico, ofrece la capacidad de modelar y simular campos de batalla, proporcionando la oportunidad de probar hipótesis de respuesta ante posibles ataques, ya sean con armas convencionales, armas nucleares o ciberarmas. Según autoridades chinas, la IA puede ser un estratega superior a los seres humanos (Kardoudi, 2023)[7]. De esta manera, en la simulación de conflictos ficticios a gran escala, sugiere estrategias y planes militares que responden en tiempo real a diversas situaciones, superando incluso los límites de la imaginación. Sin embargo, es crucial destacar que la IA no muestra reticencia al actuar y se ha documentado que, en ejercicios de simulación, ha recomendado el uso de armas nucleares para mantener la paz y la seguridad internacionales (Díaz, 2023;[8] Rivera et al., 2024).[9] Este es un escenario inaceptable para la sociedad internacional. ¿Estamos enfrentando una Destrucción Mutua Asegurada por Computadora (DMAC)? ¿Deberíamos considerar la guerra como un juego?

En segundo lugar, la IA amplía el alcance de las armas a través del control remoto. Utiliza infraestructuras de comunicación y computación a nivel nacional e internacional para operar SAAL a distancia, superando así obstáculos geográficos, políticos, legales, meteorológicos y tecnológicos que podrían obstaculizar la efectividad de las armas. Ejemplos de esto incluyen drones de diversas categorías, armas de acción programada, ciberarmas y armamentos adaptados para ser activados remotamente por dispositivos electromecánicos, incluso a miles de kilómetros de distancia. Por ejemplo, Estados Unidos (EE. UU.) ha empleado IA para atacar a los rebeldes hutíes en Yemen sin necesidad de ocupar territorialmente sus tropas (DW, 2024),[10] mientras que Israel ha llevado a cabo operaciones en Irán para eliminar científicos. Lamentablemente, todo indica que la humanidad se está adentrando plenamente en la era de la guerra a control remoto, donde las barreras físicas se desvanecen y los autómatas toman el control con la aprobación humana.

En tercer lugar, la IA genera «armas inteligentes». De esta manera, se reduce significativamente el tiempo de reacción, permitiendo que lo que un humano podría hacer en una hora, la IA lo pueda realizar en tan solo unos segundos. Por ejemplo, el sistema de defensa israelí conocido como Cúpula de Hierro intercepta proyectiles aéreos gracias al uso de IA, que determina el tipo, destino e incluso los potenciales daños que podrían causar. Aunque la IA amplifica las capacidades y crea armas sofisticadas, con frecuencia el operador de estos sistemas tiene limitada experiencia, poco tiempo para tomar decisiones cruciales y carece de autoridad para detener un ataque con implicaciones legales significativas. Esto cuestiona el grado de control que se puede ejercer sobre las armas potenciadas por IA. En esta coyuntura, la IA desarrolla «armas inteligentes» que toman decisiones sobre quién vive o muere, en lugar de fortalecer la toma de decisiones humanas (hoy convertidos en fieles seguidores). Esta situación plantea la pregunta de a quién se puede responsabilizar por las fallas de las «armas inteligentes» y si estas son realmente fortuitas o están programadas.

En cuarto lugar, la IA realiza tareas peligrosas e increíbles para el ser humano. En el ámbito de la tecnología y seguridad, se afirma que las máquinas son mejores que los humanos para llevar a cabo actividades que se engloban en las 3D (por sus siglas en inglés, Dull, Dirty and Dangerous) que definen tareas aburridas, sucias y peligrosas. Según algunos autores, estas deben ser complementadas con una cuarta “D” (Difficult) para las tareas difíciles que las máquinas pueden realizar con la ayuda de la IA (Porcelli, 2021).[11] Por consiguiente, las fuerzas armadas pueden proteger y preservar a su personal de difícil reemplazo, a sus especialistas de alto nivel y a sus líderes estratégicos. Asimismo, el uso de robots y autómatas se está generalizando para cubrir las tareas de las tres “H” (hot (calientes), heavy (pesadas) y hazardous (riesgosas) (Kalpakjan & Schmid, 2002),[12] lo que busca reducir los costos por daños a la salud y garantizar la existencia de los especialistas de las fuerzas armadas.

Para concluir esta sección, la IA permite llevar a cabo ataques de precisión quirúrgica. Hay evidencias en todo el mundo que mencionan nuevas plataformas de IA capaces de diferenciar con exactitud entre objetivos militares y civiles. Según la compañía australiana Athena IA, su sistema está diseñado para asistir a los operadores y tiene la habilidad de buscar, identificar y geolocalizar objetos en el terreno, verificar si un objeto se encuentra en una zona sin impacto, así como realizar análisis y estimaciones sobre los daños colaterales. Según la empresa, esto representa el ideal de cualquier fuerza armada que desee implementar IA para mejorar la precisión de sus ataques, cumplir con el marco legal vigente y adherirse a los principios de la guerra. No obstante, aún existen desafíos éticos y políticos que deben ser abordados, como la regulación del uso de datos privados y la información de la población mundial para alimentar la IA, evitar la violación del derecho internacional, la creación de mentiras creíbles o una realidad alternativa, así como participar en conflictos. Es crucial recordar el dicho «la información es poder». A continuación se presentan algunos ejemplos de lo mencionado anteriormente.

Ejemplos Prácticos del Uso de IA en Operaciones Militares

1. En noviembre de 2020, el científico nuclear iraní Mohsen Fakhrizadeh fue asesinado mediante el uso de una ametralladora montada en un vehículo abandonado estratégicamente en su ruta diaria al trabajo. Lo sorprendente e inesperado de este ataque fue que, según los reportes oficiales presentados por el gobierno de Irán y algunos medios internacionales, no hubo una persona que activara el disparador para eliminar al renombrado científico. Según investigaciones posteriores, el ataque fue ejecutado por un arma de fuego operada a control remoto (supuestamente desde Israel) con tal precisión que no causó daño alguno a la esposa del científico, quien viajaba en el asiento de pasajero. Evidentemente, la única manera en que esta arma, convertida en un dispositivo robótico, pudo ser activada a control remoto es mediante tecnología avanzada para la transmisión y acción de su mecanismo, la cual, sin duda, tiene por base a la IA.

Aunque por un tiempo se mantuvo en secreto la autoría de dicho crimen, no tardaron en surgir afirmaciones y revelaciones sobre el sofisticado ataque con un «arma inteligente» realizado por el Instituto de Inteligencia y Operaciones Especiales, (conocido como Mosad o Mossad). Según algunos expertos y el informe presentado por medios de comunicación internacionales, este tipo de acciones fomenta el debate sobre la moralidad, legalidad y practicidad de los armamentos que utilizan IA. Además, se infiere que este tipo de actos contra figuras prominentes de otros Estados, como Irán, contaron con la «aprobación» del presidente estadounidense en turno y de algunos otros líderes mundiales, lo que evidencia una doble moral entre los líderes globales. No obstante, a pesar de las numerosas justificaciones sobre la efectividad, eficacia, precisión y objetividad de dicho ataque, todo lo mencionado anteriormente subraya el uso de tecnología avanzada para violar el DIH y socavar con total impunidad la autoridad de los organismos internacionales encargados de la paz y la seguridad internacionales.

2. El ataque contra el consulado iraní en Damasco dejó inicialmente siete muertos, incluido el general Mohammed Reza Zahedi, un destacado líder militar de la Guardia Revolucionaria Iraní (Fassilhi, 2024).[13] Este acto se suma a otras acciones destinadas a debilitar la capacidad militar de Irán mediante operaciones encubiertas de alto impacto. El incidente fue particularmente significativo debido a que ocurrió en un complejo diplomático, violando el marco legal internacional vigente. Se presume que el reconocimiento facial, la inteligencia de señales, la recolección y procesamiento de grandes volúmenes de información, así como el uso de bombas inteligentes, posiblemente involucraron tecnologías de IA para asegurar el éxito del bombardeo.

3. En los últimos meses, dos medios independientes han acusado al gobierno israelí de utilizar IA para llevar a cabo operaciones contra objetivos en la Franja de Gaza (Stop Killer Robots, 2024).[14] Estas acciones llevaron al Secretario General de la ONU, António Manuel de Oliveira Guterres, a expresar profunda perturbación por el alto número de víctimas civiles, afirmando que “ninguna parte de las decisiones de vida o muerte que tienen un impacto en familias enteras debería delegarse al frío cálculo de los algoritmos” (SWI, 2024).[15]

Recientemente, se ha informado que el ejército israelí está utilizando un sistema de procesamiento de datos conocido como Lavanda (Lavender en inglés) para recibir recomendaciones y tomar decisiones sobre objetivos para atacar. Este ejemplo subraya cómo los ejércitos emplean toda la información disponible, legal o ilegalmente, en conjunto con la IA para la consecución de sus propósitos.

Estas prácticas suscitan profundas preocupaciones sobre el uso de la IA para la ejecución de asesinatos selectivos. Además del potencial sesgo inherente a la automatización, existe una preocupación por la deshumanización digital y la pérdida de control sobre la IA. Estos temas deben ser abordados urgentemente por la sociedad internacional antes de que sea demasiado tarde. Representan un desafío significativo para el marco legal vigente y los organismos internacionales, cuya autoridad se ve cuestionada frente a estas nuevas realidades de los conflictos armados.

¿Podrá la sociedad internacional controlar eficazmente el uso de la IA en los conflictos actuales y futuros? ¿Estamos enfrentando el riesgo de una anarquía impulsada por la IA? ¿Será posible para los seres humanos establecer límites claros al uso de la IA en armamentos? Adicionalmente, se suma la complejidad del uso de la información como arma, especialmente a través de la desinformación facilitada por las TIC, que se ha convertido en un medio para librar guerras contemporáneas.

El Papel de la Desinformación en los Conflictos del Siglo XXI

La protección de los no combatientes es un principio fundamental del DIH que todos los involucrados en conflictos armados deben respetar. Aparentemente, el uso de IA para el reconocimiento efectivo de individuos peligrosos podría facilitar este objetivo, pero ha resultado en falsos positivos que han etiquetado erróneamente a civiles como objetivos militares. Este tipo de acciones por parte de las fuerzas armadas reduce a los seres humanos a un conjunto de datos y representa una preocupación en torno a tres aspectos: 1) cumplimiento del DIH, 2) respeto de los derechos digitales y 3) deshumanización digital; fenómenos del presente que se han visto profundizados aún más por el uso de la desinformación como un arma o para justificar acciones contrarias al marco legal vigente alegando confusión e ignorancia.

A pesar de que la tecnología, incluida la IA, ha sido desarrollada para promover la paz, la justicia y los derechos humanos, cada vez más se utiliza para operaciones autónomas destructivas, aumentando la desigualdad y fortaleciendo la opresión. La información se utiliza para sembrar incertidumbre y caos. La desinformación evidencia que la IA es una herramienta de doble filo, capaz de potenciar tanto la capacidad humana de construir como la de destruir. Este riesgo es particularmente evidente porque la IAG tiene capacidad de generar contenidos de alto nivel que aceleran los procedimientos, mejoran la productividad e incrementan las ganancias; al mismo tiempo que genera contenidos que promueven odio, incertidumbre, desinformación e incluso muerte. La penúltima de las mencionadas representa una de las amenazas surgidas del entorno digital y de la era de la comunicación, la cual está siendo utilizada intensamente para doblegar voluntades antes de cualquier conflicto, un principio bélico antiguo y efectivo.

No es la intención de este trabajo enumerar todas las posibilidades de uso poco ortodoxo de la información y/o desinformación, sino ofrecer una muestra de sus múltiples aplicaciones en operaciones militares, así como los riesgos y desafíos para la seguridad de los Estados. La desinformación puede funcionar como arma estratégica, estrategia de engaño, medio de desestabilización, generador de caos y división social, herramienta para evadir responsabilidades o sanciones, y un instrumento para crear realidades a medida (posverdad). A continuación, se presenta un breve análisis de cada una de estas situaciones.

1. La Desinformación como Arma Estratégica. Sus características como arma estratégica provienen de su alcance, impacto, utilidad y poder destructivo. La desinformación se genera de manera intencional para dañar, desmentir, debilitar y calumniar tanto a personas como a sociedades. Entre sus objetivos principales se encuentra desestabilizar sociedades fomentando el caos y la incertidumbre social, alimentados por una notoria polarización en el interior de los pueblos. En última instancia, es preciso reconocer que la desinformación se utiliza como arma para manipular, explotar o intensificar divisiones en las sociedades con el fin de avanzar en objetivos políticos, militares, religiosos, sociales o comerciales. En la desinformación, todo es estrategia; busca dominar la mente de los oponentes, inducir el error y socavar su voluntad de lucha antes de iniciar un enfrentamiento directo. Es ganar la guerra sin disparar una sola vez, gracias a la capacidad de engaño y a las múltiples tácticas o procedimientos retóricos que ofrece un conocimiento profundo de los detalles.

2. La Desinformación como Estrategia de Engaño. Se refiere a información engañosa y malintencionada, diseñada con el único propósito de enaltecer las emociones, explotar los miedos, alterar las opiniones, servir como herramienta de contrapropaganda, frustrar las estrategias de los adversarios, burlar las defensas, jugar con la mente del oponente y potenciar las capacidades propias. De hecho, para Sun Tzu, todo en el arte de la guerra se basa en el engaño convirtiéndose en una estrategia esencial para lograr la victoria. Es precisamente en este punto donde la desinformación cobra verdadera importancia en los conflictos actuales, y los Estados deben prestar atención, ya que el ardid facilita la sorpresa.

3. La Desinformación como Medio de Desestabilización. Funciona para informar erróneamente, engañar e inducir al error a la población objetivo. Es un excelente instrumento de propaganda política que puede estar orientado a grupos de líderes gubernamentales, sociedad civil o audiencias masivas en cualquier parte del mundo. Su capacidad para desestabilizar individuos, organismos y Estados surge de la dificultad para verificar la veracidad de la información. Su finalidad consiste en engañar al receptor para que crea en la veracidad del mensaje, satanice las acciones de los grupos antagónicos, ponga en duda la credibilidad del blanco y actúe en favor de los intereses del actor/victimario a cargo de la operación de desestabilización. Al generar desconfianza e incertidumbre, se facilitan las acciones de desestabilización, ya que se pone en entredicho el discurso oficial y el prestigio de las personas. De acuerdo con Jiménez Soler (2020),[16] “la desinformación es el principal elemento de desestabilización geopolítica y empresarial… Es un fantasma que está presente en cualquier parte del mundo”, y Forbes señala la preocupación de la ONU sobre el uso potencial de la IA para la desinformación en elecciones (Forbes, 2024).[17]

4. La Desinformación como Generador de Caos y División Social. Cumple una función dentro de la estrategia de inteligencia y contrainteligencia, la cual consiste en insertar datos engañosos o falsos que sean fácilmente creíbles por la opinión pública. Irónicamente, en la era de la Información, la desinformación ha aumentado debido a la facilidad para difundirla, la accesibilidad de los medios de comunicación, el uso intensivo de internet para transmitir noticias falsas y la dificultad para controlar la veracidad de lo que se publica. Gracias a estas capacidades otorgadas por la tecnología y su dominio de la técnica, algunos países considerados autoritarios llevan a cabo la guerra híbrida como una estrategia para difundir tanto propaganda como mentiras que buscan debilitar la confianza de la ciudadanía en sus instituciones, generar caos e incertidumbre sobre los objetivos nacionales y debilitar los sistemas políticos. Un ejemplo de esto fue lo ocurrido durante la anexión de Crimea por Rusia.

5. La Desinformación como un Medio de Evasión de Responsabilidades y Sanciones. La falta de certeza sobre los hechos, la creación de una realidad alterna, el uso faccioso de la información, la abundancia de datos y la facilidad para mentir contribuyen a que ciertos delitos queden impunes. Utilizar la desinformación como herramienta para evadir responsabilidades o sanciones ha sido una forma eficaz de obstruir o evitar la aplicación de la ley. En toda actividad humana existen diversas realidades para interpretar un acto, lo cual brinda opacidad a la reconstrucción de los hechos y en ocasiones contrapone opiniones e interpretaciones del mismo acto. Por ejemplo, debido a la técnica de la demonización, se aplica la interpretación teórica respecto a “nosotros y los otros”, lo cual genera equívocos en su comprensión. Así, algunos actos bélicos a nivel internacional son castigados y condenados por la comunidad internacional, mientras que otros de naturaleza similar o aún más graves quedan sin castigo alguno. De este modo, la desinformación fortalece el doble discurso de ciertos actores internacionales y evidencia la impunidad existente.

6. La Desinformación es un Instrumento de Creación de Realidades a Medida o una Posverdad. El término “posverdad” fue utilizado por primera vez por Steve Tesich en 1992, cuando se refirió al escándalo Irán-Contras para evidenciar la predisposición de la opinión pública a admitir como verdad absoluta las mentiras de sus gobernantes (Romero, 2019).[18] El trabajo de Tesich fue continuado por autores como Ralph Keyes (2004)[19] y Eric Alterman (2005)[20] a principios del siglo XXI para brindar mayores detalles sobre la posverdad. Es precisamente por su capacidad de describir la situación actual de manera engañosa, empleando la desinformación, que a la posverdad se le puede llamar incluso “mentira emotiva”, lo cual implica la distorsión deliberada de la realidad para moldear la opinión pública y ganar la mente de aquellos ciudadanos que han puesto su confianza en alguien más.

Para cerrar, la desinformación contribuye a la creación de una realidad donde los hechos objetivos y las referencias fácticas tienen menos impacto que la información que apela a las emociones, las preferencias personales y los objetivos comunes. Esto recuerda lo mencionado por Nietzsche (2018),[21] quien afirmó que los hechos no existen, solo interpretaciones, sugiriendo que el ganador o el poder crea la verdad. Bajo esta perspectiva de verdad poliédrica, se ha socavado la confianza en los expertos con el apoyo de los medios de comunicación, que emiten grandes cantidades de información poco confiable. Hoy, el problema no es la falta de información, sino la dificultad para distinguir la verdad de la mentira. De alguna manera, la tecnología ha complicado la identificación de la verdad y ha generado divisiones en la sociedad.

Posiciones Encontradas debido al Uso no Ético de la IA y la Desinformación en Operaciones Militares

Como resultado del uso intensivo y aún no regulado ni de la IA ni de la desinformación, se genera un debate inconcluso tanto en los diversos organismos internacionales, implicados en la preservación de la seguridad internacional, como en los foros de discusión pública. En estos lugares se confrontan las posturas de quienes apoyan y de aquellos que se oponen a la implementación de la IA y/o la desinformación en las operaciones militares.

Por ejemplo, los críticos del uso ilegítimo de la IA argumentan que los seres humanos nunca deben delegar decisiones de vida o muerte en manos de una computadora, lo cual representa una amenaza no solo para los potenciales enemigos de cualquier actor internacional, sino para la humanidad en su conjunto. De alguna manera, para muchos, el empleo que hacen las potencias mundiales de los SAAL ha cruzado la línea ética y ha transformado la naturaleza de la guerra. A esto se añaden dilemas éticos que requieren ser resueltos, como el sesgo en la IA, su uso en sistemas jurídicos, su capacidad para crear arte y la posibilidad de actuación autónoma que podría dañar a los seres humanos. Lo que buscan, en cierta forma, es evitar una brutalidad irrestricta, como alguna vez sugirió Mass (2019)[22] al afirmar que «el desarrollo y la proliferación de nuevas tecnologías militares han permitido una brutalidad imprevista en varias guerras sistémicas», algo que ha empezado a manifestarse, tanto en teoría como en la práctica, en los conflictos del siglo XXI.

De igual forma, los detractores del uso de la información como arma argumentan que podría crearse un mundo ficticio basado en múltiples verdades, lo cual podría dificultar reconocer los hechos reales al final del camino. También advierten sobre el potencial riesgo de un efecto boomerang, donde la difusión de mentiras podría llevar a las personas a creer sus propias falsedades y distorsionar la realidad hasta caer en un limbo informativo. Además, según estudios internacionales, la IA está promoviendo la generación de contenido falso en momentos cruciales para el desarrollo, la prosperidad y la seguridad de diversos actores internacionales. Los opositores señalan que esta tecnología emergente facilita la creación de deepfakes que amenazan la integridad y seguridad de personas, instituciones y gobiernos.

En este caso y como evidencia del argumento, en octubre de 2023, el Secretario General de la ONU expresó preocupación por los posibles daños provocados por la IA entre los que se encuentran la desinformación, el sesgo, la discriminación, la vigilancia continua, invasión de la privacidad, el fraude y otras transgesiones de los derechos humanos (ONU,2023).[23] Estos sucesos ponen en riesgo la supervivencia e integridad de las personas y evidencian cómo la IA amplifica el uso de información sensible en manos de particulares o gobiernos. También, se argumenta la falta de una ética en el uso de la IA, lo cual podría violar los derechos humanos e incluso convertir a los seres humanos en víctimas de su propia creación.

Bajo las condiciones de automatización y digitalización predominantes, no se puede negar que la IA, cuando se utiliza en pro del progreso, fomenta la mejora continua, fortalece objetivos globales comunes y promueve avances en investigación y desarrollo. Sin embargo, cuando se emplea para debilitar la gobernanza, puede generar retroceso, desconfianza, conflicto, caos e incertidumbre. Además, es evidente que la IA potencia el uso de bases de datos e información, influyendo significativamente en la construcción de discursos y narrativas, sea para bien o para mal. En otras palabras, la IA es una herramienta sumamente útil para la generación de noticias falsas y constituye un arma efectiva en la actualidad. Es precisamente este uso potencialmente ilícito lo que motiva a la sociedad internacional a levantar la voz en busca de respuestas y soluciones efectivas para mitigar los impactos negativos de la tecnología y la desinformación en los conflictos actuales.

Por otro lado, los defensores del uso de la IA y la desinformación en los conflictos del siglo XXI sostienen que los seres humanos son capaces de controlar el desarrollo tecnológico y mantenerlo sujeto a la supervisión de operadores humanos. En el contexto de los conflictos armados, se afirma que la IA podría prever futuros conflictos y actuar de manera preventiva, algo reminiscente de la película de ciencia ficción «Minority Report», donde la capacidad de prevenir delitos impedía que las infracciones ocurrieran al leer la mente de los futuros victimarios antes de la puesta en marcha de sus planes. No obstante, es importante señalar que siempre existe la posibilidad de fallos en el sistema.

Adicionalmente, los defensores argumentan que los SAAL, impulsados por IA, permiten cumplir con los principios del DIH de manera automatizada, reduciendo el error humano, alcanzando objetivos sin causar grandes daños colaterales, identificando blancos con eficacia y adhiriéndose a los principios del combate. Sin embargo, esta situación podría cambiar con la llegada de los SAAL catalogados como autónomos,[24] donde la máquina actúa de manera independiente y adaptable al entorno para contrarrestar riesgos, mitigar impactos y eliminar amenazas, lo cual implica que el autómata terminará, en algún momento, combatiendo contra un ser humano, quien evidentemente se encontrará en desventaja. Lo antes mencionado invita a preguntar ¿Debe permitirse que un autómata acabe con la vida de un soldado? ¿Es justo enfrentar al ser humano contra una máquina/autómata? ¿Debe limitarse el uso de los SAAL en el campo de batalla?

En el mismo sentido y con el objetivo de ampliar el uso de la IA para abordar problemas internacionales, se señala que la IA tiene el potencial de reforzar el avance de los 17 Objetivos de Desarrollo Sostenible (ODS) al proporcionar soluciones efectivas a los desafíos globales prioritarios. En este contexto, el 26 de octubre de 2023, la ONU presentó un nuevo Cuerpo Asesor Interno compuesto por 39 expertos de diversas partes del mundo, cuya misión es aprovechar la IA en beneficio del bien común. Los defensores subrayan que organizaciones como la ONU destacan que la IA ofrece oportunidades significativas en áreas como la salud, el medio ambiente, la ayuda humanitaria, la educación, la agricultura y, evidentemente, en los conflictos armados (ONU, 2023).[25]

De igual manera, parte de la sociedad internacional respalda el uso de la desinformación como una herramienta de guerra debido a los beneficios que ofrece a quienes la emplean. Por ejemplo, altera percepciones, facilita acciones, previene pérdidas mayores, tiene un carácter tanto ofensivo como defensivo, aumenta la moral, oculta intenciones, construye realidades y permite actuar con sorpresa. Estos aspectos buscan reducir pérdidas humanas y los altos costos de conflictos prolongados. De acuerdo con los defensores del empleo de la desinformación como arma de guerra, esto permite ganar los corazones y las mentes de las sociedades para vencer al enemigo sin necesidad de combatir y alcanzar los objetivos propuestos con eficiencia y efectividad, un principio estratégico ampliamente reconocido que sigue siendo relevante, a pesar de los cambios en la sociedad internacional.

Se puede afirmar que el debate continuará y el contexto internacional seguirá configurando el nuevo marco jurídico necesario para los conflictos del siglo XXI. A medida que esta discusión se desarrolla, tanto la IA como la desinformación seguirán siendo medios fundamentales para la conducción de operaciones militares en los conflictos actuales. Además, serán impulsores clave del cambio en la estrategia bélica de este siglo.

Conclusiones

El mundo está experimentando una transformación digital y la automatización de actividades productivas, administrativas, políticas y gubernamentales. Esta evolución ha reconfigurado los medios de hacer la guerra, incorporando la IA y la desinformación en los arsenales. Además, las grandes compañías tecnológicas han ganado un papel crucial en los conflictos, modificando estrategias y tácticas militares y presentando nuevos desafíos al sistema internacional.

El empleo de la IA en el campo de batalla por las diversas fuerzas armadas y actores involucrados en conflictos armados se ha convertido en la norma sin que la humanidad esté plenamente consciente de las consecuencias que esto pudiera traer para los directamente implicados ni para la sociedad internacional en su conjunto. Evidentemente, la IA se ha transformado en el arma por excelencia de las guerras del siglo XXI; no obstante, genera una gran cantidad de cuestionamientos e inquietudes como resultado del riesgo existente de una escalada que ponga de manifiesto el predominio de la máquina sobre el ser humano. Lo anterior posibilita la reflexión sobre la siguiente interrogante: ¿Está el ser humano en control de la IA o viceversa? Con seguridad en los próximos años y futuros conflictos se dará respuesta a esta pregunta.

No existe una forma correcta y única de dirigir la información ni de hacer frente a la desinformación. Las mejores armas con las que cuenta el ser humano para contrarrestar los efectos de la desinformación son su pensamiento crítico, conciencia social, convicción y fortaleza respecto a sus principios. Al final, la búsqueda de la verdad es un trabajo inacabado e incluyente; la verdad es dinámica y construida por todos los involucrados. Cabe señalar que el eslabón más débil ante la desinformación lo constituye el ser humano, debido a las imperfecciones y vulnerabilidades inherentes a su propia existencia. Particularmente, porque el individuo construye una realidad a partir de información incompleta, imprecisa, poco confiable y difícil de comprobar, recurriendo a atajos mentales para cubrir sus deficiencias. Lo anterior provoca que la persona tome decisiones equivocadas, irracionales y potencialmente manipuladas.

De igual manera, en este entorno confuso y cada vez más peligroso, la información o desinformación han sido utilizadas como un medio para generar controversias, manipular mentes, desacreditar a figuras políticas, generar división entre las sociedades, enmascarar los verdaderos objetivos, iniciar guerras y, por supuesto, como armas de alto impacto. Incluso, existen desafíos éticos y políticos que deben ser subsanados. Falta establecer cómo regular el uso de datos privados y la información de la población mundial para alimentar la IA, asesinar personas, violar el derecho internacional, generar mentiras creíbles o una realidad alterna y librar batallas.

Finalmente, es preciso reconocer que la desinformación se utiliza como arma para manipular, explotar o intensificar divisiones en las sociedades con la finalidad de avanzar en objetivos políticos, militares, religiosos, sociales o comerciales. En cierta forma, fortalece el doble discurso de algunos actores internacionales y hace patente la impunidad existente. En la desinformación todo es estrategia, ya que busca dominar la mente de los oponentes, inducir el error y doblegar su voluntad de lucha antes de haber iniciado un enfrentamiento directo. Esto representa un desafío para el marco legal vigente y los organismos internacionales, los cuales deben ser adecuados o actualizados para responder a las nuevas realidades de los conflictos armados y han visto su autoridad menoscabada, respectivamente.

La IA y/o la desinformación son medios privilegiados para hacer la guerra. Esto se debe a su gran poder destructivo, alta eficiencia, facilidad de implementación, capacidad para el engaño y sorpresa, coste económico relativamente bajo, superioridad tecnológica, enfoque en las debilidades humanas, posibilitando la violación del marco legal impunemente, la capacidad para evadir la responsabilidad ante la sociedad internacional, la utilidad, tanto estratégica como táctica, y el alto grado de flexibilidad. Por lo tanto, se espera que estos medios sean utilizados de manera más intensiva en los conflictos del siglo XXI para lograr superioridad tecnológica, vencer al enemigo sin luchar, eludir sanciones internacionales, imponer la voluntad sobre los adversarios y llevar a cabo operaciones de guerra a control remoto.

Notas finales:

  1. Univisión, «Para Putin, la nación que domine a la inteligencia artificial dominará al mundo” (Univision.com, 15 de abril de 2024), https://www.univision.com/explora/para-putin-la-nacion-que-domine-a-la-inteligencia-artificial-dominara-al-mundo.
  2. Organización de las Naciones Unidas (ONU), 3 de marzo de 2017, “Contrarrestar la desinformación” ONU [Edición digital]. Recuperado el 16 de abril de 2024, de https://news.un.org/es/story/2017/03/1374761.
  3. Organización de las Naciones Unidas (ONU). (s.f.). “Contrarrestar la desinformación”, https://www.un.org/es/countering-disinformation.
  4. Ibid.
  5. Ibid.
  6. Organización de las Naciones Unidas (ONU), 3 de marzo de 2017, “Contrarrestar la desinformación”. ONU [Edición digital]. Recuperado el 16 de abril de 2024, de https://news.un.org/es/story/2017/03/1374761.
  7. Kardoudi, O, “La inteligencia artificial militar ya gana a estrategas humanos en juegos de guerra” (El Confidencial, 27 de febrero de 2023), https://www.elconfidencial.com/tecnologia/novaceno/2023-02-27/inteligencia-artificial-tecnologia-tactica-militar_3582592/.
  8. Díaz Herreros, R., «La IA lanza bombas nucleares durante una simulación de guerra para ‘mantener la paz en el mundo” (Vandal Random, 29 de febrero de 2024), https://vandal.elespanol.com/noticia/r25039/la-ia-lanza-bombas-nucleares-durante-una-simulacion-de-guerra-para-mantener-la-paz-en-el-mundo
  9. Rivera, Juan Pablo, Ghislaine Mukobi, Antoine Reuel, Markus Lamparth, Christopher Smith, & Jörn Schneider (2024). Escalation Risks from Language Models in Military and Diplomatic Decision-Making. arXiv preprint arXiv:2401.03408.
  10. DW, “EE.UU. ataca drones hutíes y una base en Yemen: militares” (1 de febrero de 2024).
  11. Alejandro Porcelli, «La inteligencia artificial aplicada a la robótica en los conflictos armados. Debates sobre los sistemas de armas letales autónomas y la (in) suficiencia de los estándares del derecho internacional humanitario«. Estudios Socio-Jurídicos 23, no. 1 (2021): 483-530.
  12. Kalpakjian, S., & Schmid, S., “Manufactura, ingeniería y tecnología” (Pearson Educación, 2002).
  13. Farnaz Fassihi, «Lo que sabemos sobre los comandantes iraníes muertos en el ataque de Israel en Siria” (The New York Times, 15 de abril de 2024), https://www.nytimes.com/es/2024/04/03/espanol/iran-comandantes-siria-ataque-israel.html.
  14. Stop Killer Robots, «Uso del sistema de procesamiento de datos Lavender en Gaza» (Stop Killer Robots, 18 de abril de 2024), https://www.stopkillerrobots.org/es/noticias/uso-del-sistema-de-procesamiento-de-datos-de-lavanda-en-gaza/.
  15. SWI, «Jefe de ONU ‘profundamente preocupado’ por informes de que Israel usa IA en Gaza» (SWI swissinfo.ch, 10 de abril de 2024), https://www.swissinfo.ch/spa/jefe-de-onu-%22profundamente-preocupado%22-por-informes-de-que-israel-usa-ia-en-gaza/75145654.
  16. Ignacio Jiménez Soler, “La nueva desinformación: veinte ensayos breves contra la manipulación” (Ediciones Península, 2020).
  17. Forbes Staff, «ONU advierte sobre el uso potencial de IA para desinformación en elecciones» (Forbes, 15 de abril de 2024), https://www.forbes.com.mx/onu-advierte-sobre-el-uso-potencial-de-ia-para-desinformacion-en-elecciones/.
  18. Juan Antonio Ortega Romero, «Desinformación: concepto y perspectivas”. Análisis del Real Instituto Elcano (ARI), no. 41 (2019): 1.
  19. Ralph Keyes, “The Post-Truth Era: Dishonesty and Deception in Contemporary Life” (St. Martin’s Press, 2004).
  20. Eric Alterman, “When presidents lie: A history of official deception and its consequences” (Penguin, 2005).
  21. Friedrich Wilhelm Nietzsche, “La voluntad de poder” (Edaf, 2018).
  22. Matthius M Maas, “International Law Does Not Compute: Artificial Intelligence and the Development, Displacement or Destruction of the Global Legal Order”. Melbourne Journal of International War, no. 20 (2019): 1-29. https://law.unimelb.edu.au/__data/assets/pdf_file/0005/3144308/Maas.pdf
  23. Organización de las Naciones Unidas (ONU), “Un nuevo órgano consultivo aprovechará la inteligencia artificial para potenciar el desarrollo sostenible” (ONU, 16 de abril de 2024), https://news.un.org/es/story/2023/10/1525252
  24. Department of Defense, “Autonomy and law in warfare: A report on the legal and ethical implications of autonomous weapons” (U.S. Government Printing Office, 2012),13-14.
  25. Organización de las Naciones Unidas (ONU), “Un nuevo órgano consultivo aprovechará la inteligencia artificial para potenciar el desarrollo sostenible” (ONU, 16 de abril de 2024), https://news.un.org/es/story/2023/10/1525252

 

COMPARTIR

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Las ideas contenidas en este análisis son responsabilidad exclusiva del autor, sin que refleje necesariamente el pensamiento del CEEEP ni del Ejército del Perú

Imagen: CEEEP

NEWSLETTER