Este artigo foi publicado inicialmente na revista Seguridad y Poder Terrestre
Vol. 3 Nº 3 (2024): julho a setembro
https://doi.org/10.56221/spt.v3i3.66
Resumo
Conflitos recentes em todo o mundo demonstram que a tecnologia é fundamental para a condução de campanhas de guerra. O uso de tecnologia de ponta não se limita exclusivamente aos atores tradicionais do Direito Internacional Humanitário (DIH), mas também é empregado por atores não estatais, que desafiam a eficácia da estrutura jurídica internacional, abrem caminho para ações ilegítimas e ilegais e expandem a zona cinzenta entre a paz e a guerra. Nesse ambiente confuso e cada vez mais perigoso, a informação e a desinformação têm sido usadas como armas estratégicas. Elas incluem táticas de engano, meios de desestabilização, geradores de caos e divisão social, mecanismos de evasão de responsabilidade e sanções e instrumentos para a criação de realidades sob medida (pós-verdade). Portanto, o objetivo deste documento é entender o uso militar de uma tecnologia disruptiva como a inteligência artificial (IA) e identificar o potencial da desinformação e da informação como ferramentas estratégicas.
Palavras-chave: Inteligência Artificial, Desinformação, Conflito, Segurança Internacional, Tecnologia de Guerra, Armas Autônomas.
Introdução
Conflitos recentes em todo o mundo demonstram que a tecnologia é um elemento essencial na condução de diferentes campanhas de guerra. O uso de tecnologia de ponta não é exclusivo dos atores tradicionais do DIH, mas também é empregado por atores não estatais. Eles desafiam a eficácia da estrutura jurídica internacional, abrem caminho para ações ilegítimas e ilegais e expandem a zona cinzenta entre a paz e a guerra.
Nesse ambiente confuso e cada vez mais perigoso, a informação e a desinformação têm sido usadas como um meio de gerar controvérsias, manipular mentes, desacreditar figuras políticas, dividir sociedades, mascarar objetivos reais, iniciar conflitos e, é claro, como armas de alto impacto. As principais campanhas de desinformação e manipulação social usam a IA para atingir seus objetivos com precisão, em massa, em um curto espaço de tempo e com grande alcance. Essa é uma evidência de como a tecnologia fortalece as estratégias e táticas de guerra convencionais, como propaganda e contrapropaganda. Ela identifica uma convergência de tecnologias disruptivas com formas eficazes de desinformação em campanhas políticas, ações sociais, atividades econômicas e operações militares, tendo a IA como protagonista.
A pesquisa é baseada no método científico, especificamente na pesquisa bibliográfica sobre desenvolvimentos em tecnologia militar, IA e exemplos de aplicação prática. A isso se acrescenta a análise literária, discursiva e histórica de vários documentos oficiais, acadêmicos, tecnológicos e da mídia a partir de uma perspectiva realista. Trata-se de um estudo documental e descritivo, que tenta coletar dados publicados em fontes primárias e secundárias especializadas em direito internacional, defesa e estratégia militar com base no uso intensivo da Tecnologia da Informação e Comunicação (TIC), IA e infraestrutura de comunicações.
O exposto acima nos permite formular a pergunta norteadora deste artigo: Qual é o papel da IA e da desinformação nos conflitos do século XXI? Essa pergunta é feita com o objetivo de compreender o uso militar de uma tecnologia disruptiva como a IA e identificar o potencial da desinformação e da informação como armas no campo de batalha. O texto é composto por cinco seções. A primeira parte procura estabelecer o contexto tecnológico no qual o mundo está imerso, caracterizado pelo advento da Quarta Revolução Industrial. A segunda seção procura detalhar a IA e a desinformação, estabelecendo as bases para a compreensão desses fenômenos. A terceira seção analisa e define algumas das funções da IA e da desinformação nos conflitos do século XXI. A quarta seção apresenta argumentos a favor e contra o uso da IA e da desinformação nos conflitos atuais. Por fim, a quinta seção traz algumas conclusões sobre este trabalho.
O contexto tecnológico do século XXI
O cenário predominante no início do século XXI está saturado de avanços tecnológicos, cujo objetivo final é a automação e a digitalização de várias tarefas produtivas, administrativas, políticas e governamentais. De fato, argumenta-se que o mundo está vivenciando a chamada Quarta Revolução Industrial, caracterizada pela digitalização e automação, impulsionada por tecnologias disruptivas, como a Internet, a nuvem, a coordenação digital, os sistemas ciberfísicos, a robótica e a IA. Tudo isso resulta em uma hiperconexão global e impõe novos desafios à sociedade. Deve-se esclarecer que esse contexto digitalizado é o resultado da evolução experimentada por vários setores em nível internacional, que passaram de uma era mecanizada para uma era elétrica e, posteriormente, para uma era de computadores (conhecidas como 1ª, 2ª e 3ª Revolução Industrial, respectivamente). Em cada uma dessas etapas, houve progresso e grandes inovações no uso da tecnologia em todas as áreas.
No entanto, apesar de suas boas intenções e progresso, a Quarta Revolução Industrial trouxe consigo uma série de desafios, incluindo: (a) a aceleração tecnológica, levando à rápida inovação e adoção de tecnologias que criam desafios no gerenciamento de riscos e na proteção de dados; b) a força de trabalho em transformação, que foi impactada pela automação e pela adoção de IA, exigindo que os funcionários adquiram novas habilidades e que os Estados atualizem suas políticas trabalhistas; c) o cenário de negócios em evolução, em que surgem novos modelos de negócios e a concorrência se intensifica, criando desafios para a proteção da propriedade intelectual, dos direitos digitais, da privacidade e da segurança; e d) a crescente complexidade de responder a ameaças sem precedentes que surgem e tomam forma no espaço cibernético.
En el ámbito militar, las características predominantes de hiperconexión y dependencia en los medios tecnológicos han impactado la forma de hacer la guerra, que ahora incluye operaciones en el ciberespacio y a través de los medios de comunicación. Esto utiliza la IA y la desinformación como elementos fundamentales, tanto estratégicos como tácticos, para lograr objetivos políticos. Incluso líderes mundiales como Vladímir Putin han afirmado que quien domine la IA controlará el mundo (Univisión, 2017)[1]. Da mesma forma, a Organização das Nações Unidas (ONU) considera a desinformação como uma das maiores ameaças à segurança internacional (ONU, 2017).[2] Essas declarações levantam a questão: quais são os usos da IA e da desinformação nos conflitos do século XXI? Para responder a essa pergunta, é necessário se aprofundar nesses fenômenos, mostrando os detalhes gerais das capacidades de IA e desinformação.
IA e desinformação
De forma simples e talvez reducionista, a IA é definida como a capacidade dada a máquinas ou sistemas de tomar decisões por conta própria, executar tarefas e, em teoria, melhorar seu desempenho sem intervenção humana, com base em um ou mais algoritmos programados para atingir uma meta. Hoje, no contexto da Quarta Revolução Industrial, a IA se tornou um elemento muito útil e relevante na transformação digital. Devido à sua evolução e implementação em várias atividades, vivemos em um mundo automatizado, altamente dependente da tecnologia, no qual a IA desempenha um papel cada vez mais importante.
Graças ao conhecimento do progresso da IA, é possível categorizar essa tecnologia de acordo com suas características e objetivos. De acordo com a literatura, há várias maneiras de classificar a IA. Por exemplo, uma primeira taxonomia menciona três categorias amplas: 1) IA estreita, 2) IA geral e 3) super IA. Uma segunda maneira de agrupar a IA menciona quatro elementos: 1) máquinas reativas, 2) máquinas com memória limitada, 3) teoria da mente e 4) máquinas autoconscientes. Uma terceira maneira de ordenar a IA inclui sistemas que: 1) pensam como humanos, 2) agem como humanos, 3) usam lógica racional e 4) agem racionalmente. Independentemente da classificação utilizada, a IA é identificada como emuladora das ações dos seres humanos, melhorando a produtividade, evitando erros humanos, excedendo em muito as tarefas realizadas pelos seres humanos e buscando alcançar o que os seres humanos não alcançaram: a autoconsciência.
Devido ao progresso em seu estudo e implementação, nos últimos anos, a IA generativa surgiu como a opção para obter vantagens sobre os possíveis oponentes em todas as áreas do esforço humano. Ela se caracteriza principalmente pelo uso eficiente de dados (considerados o “ouro digital”) para gerar conteúdo na forma de texto, vídeo, imagens, música, áudio e programas de computador. Esse conteúdo pode ser usado tanto como um meio de desenvolvimento e progresso quanto como uma arma de guerra. Os recursos relevantes incluem imitar humanos, usar processamento de linguagem natural, treinar com grandes quantidades de dados, reutilizar dados para resolver novos problemas e acelerar a pesquisa e a criação de novos dispositivos, conteúdo, obras de arte, teorias e software. No entanto, isso inclui alguns preconceitos de seus criadores que estarão invariavelmente presentes.
Entre os exemplos de uso da IA estão redes sociais, mecanismos de busca preditiva, assistentes pessoais, recomendações instantâneas de produtos, atendimento ao cliente pela mídia, monitoramento de atividades, tomada de decisões automatizada e aconselhamento on-line. Os serviços, processos e produtos de IA encontram aplicação em chatbots, criação de mídia, desenvolvimento e design de produtos, aprimoramento e aceleração de pesquisas, otimização de processos, análise de big data, sistemas de segurança, aumento de produtividade, sistemas de defesa e em sistemas de armas letais autônomas (SAAL).
Durante conflitos recentes, foi detectado que a IA generativa (GAI) se tornou uma ferramenta útil para produzir grandes quantidades de “deepfakes”, evidenciando a fórmula destrutiva entre a IA generativa e a desinformação. Nesse contexto, a IA usa maciçamente a informação como arma de dissuasão, engano, manipulação, controle ou desestabilização, maximizando seu alcance e diversificando seus impactos. A desinformação criada com a IA paralisa a ação internacional, intensifica controvérsias, manipula ações, justifica atrocidades, gera confusão, expõe um discurso duplo e divide opiniões. Nessas condições, pode-se argumentar que os conflitos armados são permeados pela desinformação gerada pela IA. Dado o uso intensivo da desinformação na guerra movida por IA, agora são necessárias contramedidas eficientes e eficazes para preservar a integridade e a segurança não apenas dos atores do conflito, mas também do sistema internacional.
Temporariamente, a decisão sobre o uso da IA e das informações para fazer o bem ou destruir ainda pertence à humanidade. No entanto, nos cenários atuais, em que o respeito à estrutura jurídica é fraco, o envolvimento de empresas (civis) de tecnologia na guerra é real, a zona cinzenta se expandiu, as operações secretas são a norma, a ética foi esquecida e o uso intensivo da tecnologia de guerra, juntamente com a ineficácia dos órgãos internacionais, tornou-se aparente. Por quanto tempo mais isso será possível? O ser humano está disposto a ceder decisões de vida e morte a um computador? A sociedade internacional será capaz de reverter essa tendência?
A desinformação, concebida pela ONU como informação imprecisa “que tem a intenção de enganar e é disseminada para causar sérios prejuízos” (ONU, n.d.),[3] foi ampliada pelo advento da AGI e se tornou uma variável nos conflitos atuais, “minando as respostas das políticas públicas ou ampliando as tensões em tempos de emergência ou conflito armado” (ONU, n.d.)[4]. Seu impacto sobre a segurança internacional em momentos importantes é tal que a ONU o considera uma das maiores ameaças à estabilidade do sistema internacional e uma preocupação crucial para a preservação da estabilidade política.
Ela funciona como um elemento de propaganda e contrapropaganda que impede que os cidadãos do mundo tenham informações precisas e oportunas que lhes permitam formar suas opiniões com base em fatos. Consequentemente, ela não tem uma definição única e abrange “uso irrestrito” em “questões tão diversas quanto processos eleitorais, saúde pública, conflitos armados ou mudanças climáticas” (ONU, n.d.).[5] É um instrumento para enganar, mentir, difamar e manipular, usado por atores estatais e não estatais. Como tal, a ONU declarou que “as notícias falsas se tornaram uma questão de preocupação global porque podem levar à censura, à supressão do pensamento crítico e a outras violações das leis de direitos humanos” (ONU, 2017)[6]. Exemplos do uso da desinformação são visíveis em eventos militares, como a anexação da Crimeia pela Rússia em 2014 e a eleição presidencial dos EUA em 2016.
A abordagem das causas e consequências da desinformação é complicada pelo fato de que é preciso tomar muito cuidado para continuar a respeitar tanto a liberdade de expressão quanto o livre acesso a bancos de dados e informações. Portanto, definir claramente os mecanismos para combater a desinformação é particularmente importante para a liberdade de expressão, pois ela contém expressões sociais, culturais, religiosas e ancestrais que podem ser erroneamente restringidas sob o pretexto de combater a desinformação. A dificuldade de abordá-la não exclui os esforços internacionais para regular a desinformação em tempos de paz ou conflito. Diversas pesquisas buscam encontrar uma fórmula eficaz para atenuar o impacto da desinformação na mente dos cidadãos, embora, até o momento, nenhuma solução universalmente aplicável tenha sido encontrada. Esses estudos mostram que a desinformação tem impactos sociais, psicológicos, econômicos, diplomáticos, políticos e militares. Esses últimos tornam possível falar sobre o papel da desinformação na “guerra híbrida” e na “guerra sem contato”, duas formas de guerra presentes nos conflitos do século XXI, e sua estreita relação com a IA.
Como a IA e a desinformação são usadas no ambiente militar?
O fascínio humano pelo emprego da IA para atingir objetivos político-militares não é novo. Os “robôs assassinos” e os SAALs têm sido uma fonte de medo e um objeto de fascínio há décadas. Até certo ponto, os efeitos que esses dispositivos podem gerar foram controlados. Assim, explorar os recursos que acompanham esses sistemas de armas autônomas para localizar, mirar e matar sem o envolvimento humano tem sido uma constante nos programas de desenvolvimento de novas armas. Essa tendência pode ser observada em vários conflitos atuais e provavelmente será um aspecto fundamental de conflitos futuros.
Consequentemente, a IA e a (des)informação se estabelecerão como as armas preferidas nos conflitos do século XXI, especialmente devido à sua eficácia, alcance, custo-benefício, capacidade de destruição e furtividade. No entanto, considerando que, por enquanto, é difícil neutralizar os efeitos e atribuir seu caráter bélico a essas novas formas de usar meios tecnológicos no campo de batalha, a comunidade internacional tem muito a fazer para limitar seu uso irrestrito em operações militares. Será que ela conseguirá fazer isso a tempo? Qual será a resposta dos desenvolvedores de IA? As forças armadas estarão dispostas a dispensar essa tecnologia em combate? A moeda está no ar!
A IA no contexto de guerra do século XXI
Embora os possíveis usos da IA no domínio militar sejam variados, este documento aborda apenas alguns exemplos representativos. O objetivo desta exposição é provocar reflexão, debate e incentivar mais pesquisas sobre o tema, a fim de desenvolver argumentos sólidos sobre as oportunidades e os riscos que a IA apresenta para a sociedade internacional durante conflitos armados. Ela enfatiza o papel da IA como multiplicador de forças, facilitador da simulação de cenários, extensor do alcance das armas, gerador de “armas inteligentes”, ferramenta para mitigação de riscos e mecanismo para ataques cirúrgicos. Tudo isso com o objetivo de destacar algumas das características que fazem da IA um meio de superioridade tecnológica.
A IA é uma ferramenta tecnológica que aumenta o poder militar e as capacidades das forças armadas que a empregam, tanto em sistemas não letais quanto letais. Exemplos do primeiro caso são os sistemas que registram e analisam dados de aeronaves para monitorar e melhorar o desempenho do motor. Por outro lado, os SAALs são exemplos proeminentes de aplicações letais, montados em drones ou veículos autônomos (terrestres, marítimos, aéreos, aeroespaciais ou cibernéticos), projetados para identificar e potencialmente destruir alvos inimigos. Assim, a IA atua como um multiplicador de forças, fornecendo recursos superiores às forças armadas para agilizar e melhorar o reconhecimento de alvos militares, a vigilância de alvos prioritários, a comunicação no teatro de operações, a eficiência logística, a minimização de perdas humanas, a mitigação de ameaças cibernéticas, a otimização do uso de informações na guerra híbrida e o desenvolvimento de novas estratégias, métodos e armas de combate.
Consequentemente, vários países em todo o mundo têm programas dedicados à pesquisa e ao desenvolvimento de IA para melhorar a produtividade e a eficiência, bem como para implementação em operações militares. Por exemplo, o Departamento de Defesa dos EUA (DOD) tem vários programas militares de pesquisa de IA com orçamentos que chegam a vários bilhões de dólares. Além disso, é fundamental destacar o uso humanitário da IA no socorro a vítimas, o que justifica investimentos internacionais significativos em pesquisa e desenvolvimento. Assim, a IA não apenas multiplica a força e o escopo do IHL na proteção de não combatentes e vítimas inocentes de conflitos armados; ela também desempenha um papel fundamental na proteção humanitária global.
Primeiro, a IA permite a simulação de cenários de conflito. Em nível estratégico, ela oferece a capacidade de modelar e simular campos de batalha, proporcionando a oportunidade de testar respostas hipotéticas a possíveis ataques, seja com armas convencionais, armas nucleares ou armas cibernéticas. De acordo com autoridades chinesas, a IA pode ser um estrategista superior aos humanos (Kardoudi, 2023)[7]. Assim, na simulação de conflitos fictícios de larga escala, ela sugere estratégias e planos militares que respondem em tempo real a várias situações, superando até mesmo os limites da imaginação. No entanto, o mais importante é que a IA não demonstra relutância em agir e foi documentado em exercícios de simulação que ela recomenda o uso de armas nucleares para manter a paz e a segurança internacionais (Díaz, 2023;[8] Rivera et al., 2024).[9] Esse é um cenário inaceitável para a sociedade internacional. Estamos diante da Destruição Mútua Assegurada por Computador (MADC)? Devemos considerar a guerra como um jogo?
Em segundo lugar, a IA amplia o alcance das armas por meio do controle remoto. Ela usa infraestruturas nacionais e internacionais de comunicação e computação para operar o SAAL remotamente, superando assim obstáculos geográficos, políticos, legais, meteorológicos e tecnológicos que poderiam impedir a eficácia das armas. Os exemplos incluem drones de várias categorias, armas de ação programada, armas cibernéticas e armamentos adaptados para serem ativados remotamente por dispositivos eletromecânicos, mesmo a milhares de quilômetros de distância. Por exemplo, os Estados Unidos (EUA) empregaram a IA para atacar os rebeldes Houthi no Iêmen sem ocupação territorial (DW, 2024),[10] enquanto Israel realizou operações no Irã para eliminar cientistas. Infelizmente, tudo indica que a humanidade está entrando totalmente na era da guerra controlada remotamente, em que as barreiras físicas desaparecem e os autômatos assumem o controle com a aprovação humana.
Em terceiro lugar, a IA gera “armas inteligentes”. Dessa forma, o tempo de reação é significativamente reduzido, permitindo que o que um ser humano poderia fazer em uma hora seja feito pela IA em apenas alguns segundos. Por exemplo, o sistema de defesa israelense conhecido como Iron Dome intercepta projéteis aéreos por meio do uso de IA, que determina o tipo, o alvo e até mesmo o dano potencial que eles podem causar. Embora a IA amplie os recursos e crie armas sofisticadas, o operador desses sistemas geralmente tem experiência limitada, pouco tempo para tomar decisões cruciais e nenhuma autoridade para interromper um ataque com implicações legais significativas. Isso questiona o grau de controle que pode ser exercido sobre as armas alimentadas por IA. Nesse momento, a IA desenvolve “armas inteligentes” que tomam decisões sobre quem vive ou morre, em vez de capacitar a tomada de decisão humana (agora convertida em seguidores leais). Essa situação levanta a questão de quem pode ser responsabilizado pelas falhas das “armas inteligentes” e se elas são realmente fortuitas ou programadas.
Quarto, a IA realiza tarefas perigosas e impensáveis para os seres humanos. No campo da tecnologia e da segurança, afirma-se que as máquinas são melhores do que os seres humanos na execução de atividades que se enquadram na categoria 3D (Dull, Dirty and Dangerous), que define tarefas monótonas, sujas e perigosas. De acordo com alguns autores, essas tarefas devem ser complementadas com um quarto “D” (Difficult, difícil) para tarefas difíceis que as máquinas podem realizar com a ajuda da IA (Porcelli, 2021).[11] Consequentemente, as forças armadas podem proteger e preservar seu pessoal difícil de substituir, especialistas de alto nível e líderes estratégicos. Além disso, o uso de robôs e autômatos está se difundindo para cobrir as três tarefas “H” (quentes, pesadas e perigosas) (Kalpakjan & Schmid, 2002),[12] o que visa reduzir os custos de danos à saúde e garantir a existência de especialistas nas forças armadas.
Para concluir esta seção, a IA permite ataques de precisão cirúrgica. Evidências de todo o mundo citam novas plataformas de IA capazes de diferenciar com precisão entre alvos militares e civis. De acordo com a empresa australiana Athena AI, seu sistema foi projetado para auxiliar os operadores e tem a capacidade de procurar, identificar e localizar geograficamente objetos no solo, verificar se um objeto está em uma zona não atingida, bem como realizar análise e estimativa de danos colaterais. De acordo com a empresa, isso representa o ideal para qualquer força armada que deseje implementar a IA para melhorar a precisão de seus ataques, cumprir a estrutura legal atual e aderir aos princípios da guerra. No entanto, ainda há desafios éticos e políticos que precisam ser abordados, como a regulamentação do uso de dados privados e informações da população mundial para alimentar a IA, evitando a violação do direito internacional, a criação de mentiras confiáveis ou uma realidade alternativa, bem como o envolvimento em conflitos. É fundamental lembrar o ditado “informação é poder”. Abaixo estão alguns exemplos do que foi dito acima.
Exemplos práticos do uso de IA em operações militares
1. Em novembro de 2020, o cientista nuclear iraniano Mohsen Fakhrizadeh foi morto com o uso de uma metralhadora montada em um veículo estrategicamente abandonado em sua rota diária para o trabalho. O que foi surpreendente e inesperado nesse ataque foi que, de acordo com os relatórios oficiais apresentados pelo governo iraniano e por alguns meios de comunicação internacionais, não houve uma pessoa que acionou o gatilho para eliminar o renomado cientista. De acordo com investigações posteriores, o ataque foi executado por uma arma de fogo operada remotamente (supostamente de Israel) com tanta precisão que não causou nenhum dano à esposa do cientista, que estava no banco do passageiro. Evidentemente, a única maneira pela qual essa arma, convertida em um dispositivo robótico, poderia ter sido ativada por controle remoto é por meio de tecnologia avançada para a transmissão e a ação de seu mecanismo, que, sem dúvida, é baseado em IA.
Embora os autores do crime tenham sido mantidos em segredo por algum tempo, logo surgiram alegações e revelações sobre o sofisticado ataque com “armas inteligentes” do Instituto de Inteligência e Operações Especiais (conhecido como Mossad ou Mossad). De acordo com alguns especialistas e com a mídia internacional, tais ações incentivam o debate sobre a moralidade, a legalidade e a praticidade do armamento de IA. Além disso, infere-se que tais atos contra figuras proeminentes de outros países, como o Irã, foram “aprovados” pelo presidente dos EUA em exercício e por alguns outros líderes mundiais, o que evidencia um duplo padrão entre os líderes globais. Entretanto, apesar das inúmeras justificativas para a eficácia, a eficiência, a precisão e a objetividade de tal ataque, tudo o que foi dito acima ressalta o uso de tecnologia avançada para violar o DIH e minar impunemente a autoridade dos órgãos internacionais encarregados da paz e da segurança internacionais.
O ataque ao consulado iraniano em Damasco deixou inicialmente sete mortos, incluindo o general Mohammed Reza Zahedi, um importante líder militar da Guarda Revolucionária Iraniana (Fassilhi, 2024). Esse ato se soma a outras ações destinadas a enfraquecer as capacidades militares do Irã por meio de operações secretas de alto impacto. O incidente foi particularmente significativo porque ocorreu em um complexo diplomático, violando a estrutura jurídica internacional existente. Presume-se que o reconhecimento facial, a inteligência de sinais, a coleta e o processamento de grandes volumes de informações, bem como o uso de bombas inteligentes, possivelmente envolveram tecnologias de IA para garantir o sucesso do bombardeio.
3. Nos últimos meses, dois meios de comunicação independentes acusaram o governo israelense de usar IA para realizar operações contra alvos na Faixa de Gaza (Stop Killer Robots, 2024).[13] Essas ações levaram o Secretário-Geral da ONU, António Manuel de Oliveira Guterres, a expressar profunda preocupação com o alto número de vítimas civis, afirmando que “nenhuma parte das decisões de vida e morte que têm impacto sobre famílias inteiras deve ser delegada ao cálculo frio de algoritmos” (SWI, 2024).[14]
Recentemente, foi relatado que o exército israelense está usando um sistema de processamento de dados conhecido como Lavender para receber recomendações e tomar decisões sobre alvos a serem atacados. Esse exemplo destaca como os exércitos usam todas as informações disponíveis, legal ou ilegalmente, em conjunto com a IA para atingir seus objetivos.
Essas práticas levantam grandes preocupações sobre o uso da IA para assassinatos direcionados. Além do possível viés inerente à automação, há a preocupação com a desumanização digital e a perda de controle sobre a IA. Essas questões devem ser abordadas com urgência pela sociedade internacional, antes que seja tarde demais. Elas representam um desafio significativo para a estrutura jurídica existente e para os órgãos internacionais, cuja autoridade é desafiada diante dessas novas realidades do conflito armado.
Será que a sociedade internacional conseguirá controlar efetivamente o uso da IA nos conflitos atuais e futuros, será que estamos diante do risco de uma anarquia impulsionada pela IA e será possível que os seres humanos estabeleçam limites claros para o uso da IA em armamentos? Além disso, há a complexidade do uso da informação como arma, especialmente por meio da desinformação facilitada pelas TICs, que se tornou um meio de travar as guerras contemporâneas.
O papel da desinformação nos conflitos do século XXI
A proteção de não combatentes é um princípio fundamental do IHL que todos os envolvidos em conflitos armados devem respeitar. Ostensivamente, o uso da IA para o reconhecimento efetivo de indivíduos perigosos poderia facilitar esse objetivo, mas resultou em falsos positivos que rotularam erroneamente civis como alvos militares. Essas ações das forças armadas reduzem os seres humanos a um conjunto de dados e representam uma preocupação em torno de três questões: 1) conformidade com o DIH, 2) respeito aos direitos digitais e 3) desumanização digital; fenômenos atuais que foram ainda mais aprofundados pelo uso da desinformação como arma ou para justificar ações contrárias à estrutura jurídica existente com base na confusão e na ignorância.
Embora a tecnologia, inclusive a IA, tenha sido desenvolvida para promover a paz, a justiça e os direitos humanos, ela é cada vez mais usada para operações autônomas destrutivas, aumentando a desigualdade e fortalecendo a opressão. As informações são usadas para semear a incerteza e o caos. A desinformação deixa claro que a IA é uma ferramenta de dois gumes, capaz de fortalecer tanto a capacidade humana de construir quanto a capacidade humana de destruir. Esse risco é particularmente evidente porque a AGI tem a capacidade de gerar conteúdo de alto nível que acelera os procedimentos, melhora a produtividade e aumenta os lucros; ao mesmo tempo, gera conteúdo que promove o ódio, a incerteza, a desinformação e até mesmo a morte. O penúltimo dos itens acima representa uma das ameaças decorrentes do ambiente digital e da era da comunicação, que está sendo usada intensamente para dobrar vontades antes de qualquer conflito, um princípio antigo e eficaz de guerra.
Não é intenção deste documento listar todas as possibilidades de uso não ortodoxo da informação e/ou desinformação, mas oferecer uma amostra de suas múltiplas aplicações em operações militares, bem como os riscos e desafios para a segurança do Estado. A desinformação pode funcionar como uma arma estratégica, uma estratégia de engano, um meio de desestabilização, um gerador de caos e divisão social, uma ferramenta para evitar responsabilidades ou sanções e um instrumento para criar realidades sob medida (pós-verdade). A seguir, uma breve análise de cada uma dessas situações.
1. A desinformação como arma estratégica. Suas características como arma estratégica decorrem de seu alcance, impacto, utilidade e poder destrutivo. A desinformação é gerada intencionalmente para prejudicar, refutar, minar, enfraquecer e caluniar indivíduos e sociedades. Um de seus principais objetivos é desestabilizar as sociedades, fomentando o caos social e a incerteza, alimentados por uma notória polarização entre os povos. Em última análise, é preciso reconhecer que a desinformação é usada como uma arma para manipular, explorar ou intensificar as divisões nas sociedades a fim de promover objetivos políticos, militares, religiosos, sociais ou comerciais. A desinformação tem tudo a ver com estratégia; ela busca dominar as mentes dos oponentes, induzir ao erro e minar sua vontade de lutar antes de se envolver em um confronto direto. É vencer a guerra sem disparar um único tiro, graças à capacidade de enganar e às várias táticas ou procedimentos retóricos oferecidos por um conhecimento profundo dos detalhes.
2. A desinformação como uma estratégia de enganação. Refere-se a informações enganosas e maliciosas, criadas com o único objetivo de aumentar as emoções, explorar medos, alterar opiniões, servir como ferramenta de contrapropaganda, frustrar as estratégias dos adversários, enganar as defesas, brincar com a mente do oponente e aprimorar as próprias capacidades. De fato, para Sun Tzu, tudo na arte da guerra se baseia no engano como uma estratégia essencial para alcançar a vitória. É exatamente nesse ponto que a desinformação é de real importância nos conflitos atuais, e os Estados devem prestar atenção, pois o engano facilita a surpresa.
3. A desinformação como meio de desestabilização. funciona para desinformar, enganar e iludir a população-alvo. É um excelente instrumento de propaganda política que pode ser direcionado a grupos de líderes governamentais, à sociedade civil ou a públicos de massa em qualquer lugar do mundo. Sua capacidade de desestabilizar indivíduos, organizações e Estados decorre da dificuldade de verificar a veracidade das informações. Seu objetivo é induzir o destinatário a acreditar na veracidade da mensagem, demonizando as ações de grupos antagônicos, questionando a credibilidade do alvo e agindo de acordo com os interesses do ator/vítima responsável pela operação de desestabilização. Ao gerar desconfiança e incerteza, as ações de desestabilização são facilitadas, pois o discurso oficial e o prestígio dos indivíduos são questionados. De acordo com Jiménez Soler (2020),[15] “a desinformação é o principal elemento de desestabilização geopolítica e empresarial”…. É um espectro que está presente em todos os lugares do mundo”, e a Forbes observa a preocupação da ONU com o possível uso da IA para desinformação nas eleições (Forbes, 2024).[16]
4. A desinformação como geradora de caos e divisão social. Ela desempenha um papel na estratégia de inteligência e contra-inteligência, que consiste em inserir informações enganosas ou falsas que são facilmente acreditadas pelo público. Ironicamente, na Era da Informação, a desinformação aumentou devido à facilidade de disseminação, à acessibilidade da mídia, ao uso intensivo da Internet para transmitir notícias falsas e à dificuldade de controlar a veracidade do que é publicado. Graças a esses recursos concedidos pela tecnologia e seu domínio técnico, alguns países considerados autoritários realizam a guerra híbrida como uma estratégia para disseminar propaganda e mentiras que buscam enfraquecer a confiança dos cidadãos em suas instituições, gerar caos e incerteza sobre os objetivos nacionais e enfraquecer os sistemas políticos. Um exemplo disso ocorreu durante a anexação da Crimeia pela Rússia.
5. A desinformação como meio de evitar a responsabilidade e as sanções. A falta de certeza sobre os fatos, a criação de uma realidade alternativa, o uso faccioso de informações, a abundância de dados e a facilidade de mentir contribuem para que certos crimes fiquem impunes. O uso da desinformação como ferramenta para fugir da responsabilidade ou das sanções tem sido uma maneira eficaz de obstruir ou evitar a aplicação da lei. Em todas as atividades humanas, há diferentes realidades na interpretação de um ato, o que torna a reconstrução dos fatos opaca e, às vezes, leva a opiniões e interpretações conflitantes do mesmo ato. Por exemplo, devido à técnica de demonização, a interpretação teórica de “nós e os outros” é aplicada, o que gera mal-entendidos. Assim, alguns atos de guerra em nível internacional são punidos e condenados pela comunidade internacional, enquanto outros de natureza semelhante ou ainda mais grave ficam impunes. Dessa forma, a desinformação fortalece o discurso duplo de certos atores internacionais e destaca a impunidade existente.
6. A desinformação é um instrumento para a criação de realidades sob medida ou uma pós-verdade. O termo “pós-verdade” foi usado pela primeira vez por Steve Tesich em 1992, quando ele se referiu ao escândalo Irã-Contras para destacar a predisposição da opinião pública em admitir como verdade absoluta as mentiras de seus governantes (Romero, 2019).[17] O trabalho de Tesich foi continuado por autores como Ralph Keyes (2004)[18] y Eric Alterman (2005)[19] no início do século XXI para fornecer mais detalhes sobre a pós-verdade. É precisamente por causa de sua capacidade de descrever a situação atual de forma enganosa, usando desinformação, que a pós-verdade pode até ser chamada de “mentira emotiva”, o que implica a distorção deliberada da realidade para moldar a opinião pública e conquistar a mente dos cidadãos que depositaram sua confiança em outra pessoa.
Para concluir, a desinformação contribui para a criação de uma realidade em que fatos objetivos e referências factuais têm menos impacto do que informações que apelam para emoções, preferências pessoais e metas comuns. Isso é uma reminiscência de Nietzsche (2018),[20] que afirmou que os fatos não existem, apenas interpretações, sugerindo que o vencedor ou o poder cria a verdade. Sob essa perspectiva de verdade poliédrica, a confiança nos especialistas foi minada com o apoio da mídia, que transmite grandes quantidades de informações não confiáveis. Hoje, o problema não é a falta de informações, mas a dificuldade de distinguir a verdade das mentiras. De certa forma, a tecnologia complicou a identificação da verdade e criou divisões na sociedade.
Posições encontradas devido ao uso antiético de IA e desinformação em operações militares
Como resultado do uso intensivo e ainda não regulamentado da IA e da desinformação, um debate inacabado está ocorrendo nos vários órgãos internacionais envolvidos na preservação da segurança internacional e nos fóruns de discussão pública. Nesses locais, as posições daqueles que apóiam e daqueles que se opõem à implementação da IA e/ou da desinformação em operações militares se confrontam.
Por exemplo, os críticos do uso ilegítimo da IA argumentam que os seres humanos nunca deveriam delegar decisões de vida ou morte nas mãos de um computador, o que representa uma ameaça não apenas para os possíveis inimigos de qualquer ator internacional, mas para a humanidade como um todo. De certa forma, para muitos, o uso de SAALs pelas potências mundiais cruzou a linha ética e transformou a natureza da guerra. Além disso, há dilemas éticos que precisam ser resolvidos, como a parcialidade da IA, seu uso em sistemas jurídicos, sua capacidade de criar arte e a possibilidade de ações autônomas que possam prejudicar os seres humanos. O que eles buscam, de certa forma, é evitar a brutalidade desenfreada, como Mass (2019)[21] sugeriu certa vez ao afirmar que “o desenvolvimento e a proliferação de novas tecnologias militares permitiram uma brutalidade imprevista em várias guerras sistêmicas”, algo que começou a se manifestar, tanto na teoria quanto na prática, nos conflitos do século XXI.
Da mesma forma, os críticos do uso da informação como arma argumentam que ela poderia criar um mundo fictício baseado em várias verdades, o que poderia dificultar o reconhecimento dos fatos reais no final do caminho. Eles também alertam para o risco potencial de um efeito bumerangue, em que a disseminação de mentiras poderia levar as pessoas a acreditar em suas próprias falsidades e distorcer a realidade em um limbo de informações. Além disso, de acordo com estudos internacionais, a IA está promovendo a geração de conteúdo falso em momentos cruciais para o desenvolvimento, a prosperidade e a segurança de vários atores internacionais. Os oponentes apontam que essa tecnologia emergente facilita a criação de deepfakes que ameaçam a integridade e a segurança de indivíduos, instituições e governos.
Nesse caso, e como evidência do argumento, em outubro de 2023, o Secretário-Geral da ONU expressou preocupação com os possíveis danos causados pela IA, incluindo desinformação, preconceito, discriminação, vigilância contínua, invasão de privacidade, fraude e outras transgressões aos direitos humanos (ONU,2023).[22] Esses eventos colocam em risco a sobrevivência e a integridade das pessoas e mostram como a IA amplia o uso de informações confidenciais nas mãos de indivíduos ou governos. Argumenta-se também que há uma falta de ética no uso da IA, que pode violar os direitos humanos e até mesmo transformar os seres humanos em vítimas de sua própria criação.
Sob as condições predominantes de automação e digitalização, não há como negar que a IA, quando usada para o progresso, promove a melhoria contínua, fortalece as metas globais comuns e promove avanços em pesquisa e desenvolvimento. Entretanto, quando usada para minar a governança, pode gerar reações adversas, desconfiança, conflito, caos e incerteza. Além disso, está claro que a IA potencializa o uso de bancos de dados e informações, influenciando significativamente a construção de discursos e narrativas, seja para o bem ou para o mal. Em outras palavras, a IA é uma ferramenta extremamente útil para a geração de notícias falsas e é uma arma eficaz atualmente. É justamente esse uso potencialmente ilícito que motiva a sociedade internacional a levantar sua voz em busca de respostas e soluções eficazes para mitigar os impactos negativos da tecnologia e da desinformação nos conflitos atuais.
Por outro lado, os defensores do uso da IA e da desinformação nos conflitos do século XXI argumentam que os seres humanos são capazes de controlar o desenvolvimento tecnológico e mantê-lo sob a supervisão de operadores humanos. No contexto de conflitos armados, argumenta-se que a IA poderia prever conflitos futuros e agir preventivamente, lembrando o filme de ficção científica Minority Report, em que a capacidade de prevenir crimes impedia a ocorrência de delitos ao ler as mentes dos possíveis criminosos antes que seus planos fossem colocados em ação. Entretanto, é importante observar que sempre há a possibilidade de falha do sistema.
Além disso, os defensores argumentam que os SAALs alimentados por IA permitem a conformidade automatizada com os princípios do DIH, reduzindo o erro humano, atingindo alvos sem causar danos colaterais extensos, identificando alvos de forma eficaz e aderindo aos princípios de engajamento. No entanto, essa situação pode mudar com o advento dos SAALs categorizados como autônomos,[23] em que a máquina age de forma independente e adaptável ao ambiente para combater riscos, mitigar impactos e eliminar ameaças, o que implica que o autômato acabará, em algum momento, lutando contra um ser humano, que obviamente estará em desvantagem. Isso levanta a questão: um autômato deve ter permissão para matar um soldado, é justo colocar um humano contra uma máquina/autômato e o uso de SAALs no campo de batalha deve ser limitado?
Na mesma linha, e com o objetivo de expandir o uso da IA para tratar de problemas internacionais, observa-se que a IA tem o potencial de reforçar o avanço dos 17 Objetivos de Desenvolvimento Sustentável (ODS) ao fornecer soluções eficazes para desafios globais prioritários. Nesse contexto, em 26 de outubro de 2023, a ONU lançou um novo Órgão Consultivo Interno composto por 39 especialistas de várias partes do mundo, cuja missão é aproveitar a IA para o benefício do bem comum. Os defensores enfatizam que organizações como a ONU destacam que a IA oferece oportunidades significativas em áreas como saúde, meio ambiente, ajuda humanitária, educação, agricultura e, é claro, conflitos armados (ONU, 2023).[24]
Da mesma forma, parte da sociedade internacional apóia o uso da desinformação como uma ferramenta de guerra devido aos benefícios que ela oferece àqueles que a empregam. Por exemplo, ela altera as percepções, facilita as ações, evita grandes perdas, tem caráter ofensivo e defensivo, aumenta o moral, oculta as intenções, constrói realidades e permite ações de surpresa. Esses aspectos buscam reduzir as perdas humanas e os altos custos de conflitos prolongados. De acordo com os defensores do uso da desinformação como arma de guerra, isso permite conquistar os corações e as mentes das sociedades para derrotar o inimigo sem lutar e atingir os objetivos propostos de forma eficiente e eficaz, um princípio estratégico amplamente reconhecido que permanece relevante, apesar das mudanças na sociedade internacional.
Sem dúvida, o debate continuará e o contexto internacional continuará a moldar a nova estrutura jurídica necessária para os conflitos do século XXI. À medida que essa discussão se desenrola, tanto a IA quanto a desinformação continuarão sendo meios fundamentais para a condução de operações militares nos conflitos atuais. Eles também serão os principais impulsionadores da mudança na estratégia de guerra neste século.
Conclusões
O mundo está passando por uma transformação digital e pela automação de atividades produtivas, administrativas, políticas e governamentais. Essa evolução reformulou os meios de guerra, incorporando IA e desinformação aos arsenais. Além disso, as grandes empresas de tecnologia ganharam um papel crucial nos conflitos, mudando as estratégias e táticas militares e apresentando novos desafios ao sistema internacional.
O uso da IA no campo de batalha pelas várias forças armadas e atores envolvidos em conflitos armados tornou-se a norma sem que a humanidade esteja totalmente ciente das consequências para os diretamente envolvidos e para a sociedade internacional como um todo. Claramente, a IA se tornou a arma por excelência da guerra do século XXI; no entanto, ela levanta muitas questões e preocupações devido ao risco de uma escalada que revelaria o domínio da máquina sobre o ser humano. Isso levanta a seguinte questão: os humanos estão no controle da IA ou vice-versa? Essa pergunta certamente será respondida nos próximos anos e em conflitos futuros.
Não existe uma maneira única e correta de lidar com as informações e com a desinformação. As melhores armas que os seres humanos têm para combater os efeitos da desinformação são o pensamento crítico, a consciência social, a convicção e a força de princípios. No final, a busca pela verdade é um trabalho inacabado e inclusivo; a verdade é dinâmica e construída por todos os envolvidos. Deve-se observar que o elo mais fraco diante da desinformação é o ser humano, devido às imperfeições e vulnerabilidades inerentes à sua própria existência. Principalmente porque o indivíduo constrói uma realidade com base em informações incompletas, imprecisas, não confiáveis e difíceis de verificar, recorrendo a atalhos mentais para cobrir suas deficiências. Isso faz com que a pessoa tome decisões erradas, irracionais e potencialmente manipuladas.
Da mesma forma, nesse ambiente confuso e cada vez mais perigoso, a informação ou a desinformação têm sido usadas como meio de gerar controvérsias, manipular mentes, desacreditar figuras políticas, dividir sociedades, mascarar objetivos reais, iniciar guerras e, é claro, como armas de alto impacto. Existem até mesmo desafios éticos e políticos que precisam ser abordados. Ainda não se sabe como regulamentar o uso de dados privados e das informações da população mundial para alimentar a IA, assassinar pessoas, violar o direito internacional, gerar mentiras confiáveis ou uma realidade alternativa e travar batalhas.
Por fim, é preciso reconhecer que a desinformação é usada como uma arma para manipular, explorar ou intensificar as divisões nas sociedades a fim de promover objetivos políticos, militares, religiosos, sociais ou comerciais. De certa forma, ela fortalece o discurso duplo de alguns atores internacionais e destaca a impunidade existente. A desinformação tem tudo a ver com estratégia, pois busca dominar as mentes dos oponentes, induzir ao erro e quebrar sua vontade de lutar antes mesmo do início de um confronto direto. Isso representa um desafio para a estrutura jurídica existente e para as organizações internacionais, que precisam ser adaptadas ou atualizadas para responder às novas realidades dos conflitos armados e que tiveram sua autoridade enfraquecida, respectivamente.
A IA e/ou a desinformação são meios privilegiados de fazer guerra. Isso se deve ao seu grande poder destrutivo, à alta eficiência, à facilidade de implementação, à capacidade de enganar e surpreender, ao custo econômico relativamente baixo, à superioridade tecnológica, ao foco nas fraquezas humanas, possibilitando a violação da estrutura legal com impunidade, à capacidade de evitar a prestação de contas à sociedade internacional, à utilidade, tanto estratégica quanto tática, e ao alto grau de flexibilidade. Portanto, espera-se que esses meios sejam usados com mais intensidade nos conflitos do século XXI para alcançar a superioridade tecnológica, derrotar o inimigo sem lutar, contornar as sanções internacionais, impor vontade aos adversários e conduzir operações de guerra com controle remoto.
Notas de fim:
- Univisión, “Para Putin, la nación que domine a la inteligencia artificial dominará al mundo” (Univision.com, 15 de abril de 2024), https://www.univision.com/explora/para-putin-la-nacion-que-domine-a-la-inteligencia-artificial-dominara-al-mundo. ↑
- Organización de las Naciones Unidas (ONU), 3 de marzo de 2017, “Contrarrestar la desinformación” ONU [Edición digital]. Recuperado el 16 de abril de 2024, de https://news.un.org/es/story/2017/03/1374761. ↑
- Organización de las Naciones Unidas (ONU). (s.f.). “Contrarrestar la desinformación”, https://www.un.org/es/countering-disinformation. ↑
- Ibid. ↑
- Ibid. ↑
- Organización de las Naciones Unidas (ONU), 3 de marzo de 2017, “Contrarrestar la desinformación”. ONU [Edición digital]. Recuperado el 16 de abril de 2024, de https://news.un.org/es/story/2017/03/1374761. ↑
- Kardoudi, O, “La inteligencia artificial militar ya gana a estrategas humanos en juegos de guerra” (El Confidencial, 27 de febrero de 2023), https://www.elconfidencial.com/tecnologia/novaceno/2023-02-27/inteligencia-artificial-tecnologia-tactica-militar_3582592/. ↑
- Díaz Herreros, R., “La IA lanza bombas nucleares durante una simulación de guerra para ‘mantener la paz en el mundo” (Vandal Random, 29 de febrero de 2024), https://vandal.elespanol.com/noticia/r25039/la-ia-lanza-bombas-nucleares-durante-una-simulacion-de-guerra-para-mantener-la-paz-en-el-mundo ↑
- Rivera, Juan Pablo, Ghislaine Mukobi, Antoine Reuel, Markus Lamparth, Christopher Smith, & Jörn Schneider (2024). Escalation Risks from Language Models in Military and Diplomatic Decision-Making. arXiv preprint arXiv:2401.03408. ↑
- DW, “EE.UU. ataca drones hutíes y una base en Yemen: militares” (1 de febrero de 2024). ↑
- Alejandro Porcelli, “La inteligencia artificial aplicada a la robótica en los conflictos armados. Debates sobre los sistemas de armas letales autónomas y la (in) suficiencia de los estándares del derecho internacional humanitario“. Estudios Socio-Jurídicos 23, no. 1 (2021): 483-530. ↑
- Kalpakjian, S., & Schmid, S., “Manufactura, ingeniería y tecnología” (Pearson Educación, 2002). ↑
- Stop Killer Robots, “Uso del sistema de procesamiento de datos Lavender en Gaza” (Stop Killer Robots, 18 de abril de 2024), https://www.stopkillerrobots.org/es/noticias/uso-del-sistema-de-procesamiento-de-datos-de-lavanda-en-gaza/. ↑
- SWI, “Jefe de ONU ‘profundamente preocupado’ por informes de que Israel usa IA en Gaza” (SWI swissinfo.ch, 10 de abril de 2024), https://www.swissinfo.ch/spa/jefe-de-onu-%22profundamente-preocupado%22-por-informes-de-que-israel-usa-ia-en-gaza/75145654. ↑
- Ignacio Jiménez Soler, “La nueva desinformación: veinte ensayos breves contra la manipulación” (Ediciones Península, 2020). ↑
- Forbes Staff, “ONU advierte sobre el uso potencial de IA para desinformación en elecciones” (Forbes, 15 de abril de 2024), https://www.forbes.com.mx/onu-advierte-sobre-el-uso-potencial-de-ia-para-desinformacion-en-elecciones/.
↑ - Juan Antonio Ortega Romero, “Desinformación: concepto y perspectivas”. Análisis del Real Instituto Elcano (ARI), no. 41 (2019): 1. ↑
- Ralph Keyes, “The Post-Truth Era: Dishonesty and Deception in Contemporary Life” (St. Martin’s Press, 2004). ↑
- Eric Alterman, “When presidents lie: A history of official deception and its consequences” (Penguin, 2005). ↑
- Friedrich Wilhelm Nietzsche, “La voluntad de poder” (Edaf, 2018). ↑
- Matthius M Maas, “International Law Does Not Compute: Artificial Intelligence and the Development, Displacement or Destruction of the Global Legal Order”. Melbourne Journal of International War, no. 20 (2019): 1-29. https://law.unimelb.edu.au/__data/assets/pdf_file/0005/3144308/Maas.pdf ↑
- Organización de las Naciones Unidas (ONU), “Un nuevo órgano consultivo aprovechará la inteligencia artificial para potenciar el desarrollo sostenible” (ONU, 16 de abril de 2024), https://news.un.org/es/story/2023/10/1525252 ↑
- Department of Defense, “Autonomy and law in warfare: A report on the legal and ethical implications of autonomous weapons” (U.S. Government Printing Office, 2012),13-14. ↑
- Organización de las Naciones Unidas (ONU), “Un nuevo órgano consultivo aprovechará la inteligencia artificial para potenciar el desarrollo sostenible” (ONU, 16 de abril de 2024), https://news.un.org/es/story/2023/10/1525252 ↑