Por:

Centro de Estudios Hemisféricos de Defensa William J. Perry Washington, DC

Inteligencia Artificial Generativa: Un Análisis Prospectivo de sus Implicaciones para la Seguridad y Defensa

El presente artículo ha sido publicado originalmente en la Revista Seguridad y Poder Terrestre:

Thumbnail

Publicada por el Centro de Estudios Estratégicos del Ejército del Perú.

Resumen

Actualmente, la humanidad experimenta la denominada Cuarta Revolución Industrial (4RI), la cual representa una ruptura profunda con el pasado. Mientras las revoluciones anteriores se manifestaron en ámbitos intelectuales, económicos, tecnológicos y, en algunos casos, políticos y sociales, esta nueva etapa se distingue por el despliegue acelerado, exponencial y convergente de tecnologías disruptivas. Durante los primeros 25 años del siglo XXI se vive lo que Fareed Zakaria denomina “la era de las revoluciones”, caracterizada por transformaciones profundas en la política, la cultura, la identidad y la geopolítica, impulsadas por un entorno digital que ha duplicado los avances de los últimos 250 años. Es imprescindible comprender los efectos físicos y psicológicos de estos cambios, los cuales generan consecuencias tanto positivas como negativas para la sociedad. Entre las innovaciones más relevantes destacan la inteligencia artificial generativa (IAG) y la computación cuántica, que constituyen, por un lado, un reto existencial y, por otro, una oportunidad para el avance en diversos campos del conocimiento. En particular, la IAG se erige como un elemento clave en el ámbito militar y estratégico, ya que transforma la formulación de decisiones y la administración de conflictos, al tiempo que introduce riesgos inéditos en materia de ciberseguridad, desinformación y carrera armamentista. La falta de equilibrio entre el progreso tecnológico y la supervisión humana podría afectar gravemente la estabilidad global. Finalmente, este artículo analiza la IAG desde una perspectiva prospectiva, evaluando las amenazas, desafíos y oportunidades que plantea en el ámbito de la seguridad y la defensa, tanto en el presente como en el futuro próximo.

Palabras clave: Inteligencia artificial generativa (IAG), seguridad y defensa, ciberseguridad, Cuarta Revolución Industrial (4RI), amenazas y oportunidades

Introducción

Hace unos años, la inteligencia artificial (IA), en particular la Inteligencia Artificial Generativa (IAG), ocupaba un espacio marginal en el debate público. Sin embargo, en noviembre de 2022, la empresa tecnológica OpenAI presentó un programa informático capaz de simular una conversación con un usuario: el chatbot conversacional ChatGPT, denominado así por sus siglas en inglés de Generative Pre-trained Transformer o Transformador Preentrenado Generativo.[1] En la actualidad, después de los avances registrados en los últimos dos años, la IA se ha convertido en un tema central en los medios de comunicación a nivel global, generando preocupación entre líderes de la ciencia, los negocios, el periodismo, el servicio público, la educación, la seguridad, la defensa y la política internacional.

En su obra Superagency, Reid Hoffman y Greg Beato destacan la singularidad de ChatGPT en comparación con otras tecnologías, subrayando su capacidad para interactuar de manera fluida y accesible con el público. Este sistema, versátil y convincente, permite explicar con claridad conceptos complejos como la mecánica cuántica o la composición de índices de precios al consumidor. No obstante, el fenómeno de las “alucinaciones” —errores en la generación de información— suscita tanto asombro como preocupación.[2]

Dentro del contexto de la transformación digital acelerada, la IAG se erige como una tecnología fundamental en el ámbito militar y estratégico. Su capacidad para generar conocimiento, analizar grandes volúmenes de datos y crear simulaciones avanzadas la convierte en una herramienta esencial para la toma de decisiones tácticas y estratégicas. Sin embargo, su empleo implica riesgos significativos, tales como la propagación de información errónea, la vulnerabilidad ante ciberataques y el aceleramiento de la carrera armamentista basada en IA. La competencia global por el liderazgo en esta tecnología podría generar tensiones geopolíticas, redefiniendo las dinámicas de poder y transformando la seguridad y la defensa en un entorno altamente automatizado e impredecible.

Si la humanidad no logra establecer un equilibrio entre el avance tecnológico y el control humano, se corre el riesgo de que su propia creación represente una amenaza. La falta de paridad entre el desarrollo de la IAG y la capacidad humana para supervisarla puede derivar en escenarios en los que la tecnología tome decisiones sin la intervención de la razón y la ética. Este riesgo es particularmente crítico en el ámbito de la seguridad y la defensa, donde la automatización sin supervisión podría comprometer la estabilidad global. En este sentido, la IAG no solo constituye una oportunidad para mejorar la eficiencia operativa, sino un desafío urgente en términos de gobernanza, regulación y control estratégico.

El público en general, al igual que numerosos especialistas en el tema, continúa ignorando aspectos significativos de esta nueva era de la IAG. Las innovadoras capacidades y las reacciones humanas ante ellas tienen el potencial de cambiar la relación entre las personas, la realidad y la verdad. La indagación del conocimiento, junto con la evolución física de la humanidad, la dinámica de la diplomacia, el sistema internacional, así como la seguridad y defensa, constituyen temas fundamentales para las próximas décadas que deberían ser prioritarios para los líderes en todos los sectores en la actualidad.

Las capacidades de la IAG, por más impresionantes que sean, pueden parecer insuficientes debido a su acelerado crecimiento. Poderes que aún no se han imaginado y cuyo alcance no se comprende están destinados a impactar la vida cotidiana. Los sistemas futuros facilitarán avances significativos y mayormente beneficiosos que redundarán en la mejora de la salud y en la generación de riqueza. No obstante, estas capacidades conllevan riesgos técnicos y humanos, tanto conocidos como desconocidos. La IAG y otras tecnologías convergen y operan de manera que sus creadores no previeron y, en algunos casos, ni comprenden, siendo probable que este patrón continúe.

Muchos de los desafíos actuales en esta tecnología persisten, como en el caso de los agentes conversacionales similares a ChatGPT. Estos se basan en grandes modelos de lenguaje, conocidas como Large Language Models (LLM, por sus siglas en inglés). Este tipo específico de construcción de aprendizaje automático, un programa de IA, está diseñado para el procesamiento lingüístico, ya que puede reconocer y producir texto. Estas estructuras procesan y generan lenguaje utilizando una arquitectura de red neuronal, en la que múltiples nodos (neuronas conectadas) realizan una serie compleja de cálculos interconectados.

La IAG parece comprimir las escalas temporales humanas. Los objetivos propuestos para el futuro se presentan más próximos de lo que se podría pensar. Por ejemplo, las máquinas capaces de definir sus propios objetivos se encuentran más próximas de lo previsto. Si se desea estar a la altura de los riesgos que ello implica, es necesario reaccionar y actuar en el plazo más breve posible. A medida que la relación entre humanos y máquinas se vuelve omnipresente, la sociedad deberá determinar la naturaleza adecuada de dicha relación.

A pesar de los obstáculos, resulta indispensable regular la IAG. Los estudios y propuestas legislativas en los países democráticos requieren una mayor voluntad política. Se han registrado comentarios de líderes políticos, entre ellos, el presidente de Colombia, Gustavo Petro, quien, en una intervención con los medios de comunicación, manifestó que las potencias mundiales, las más adineradas, disponen de espacios digitales denominados “nubes”, los cuales controlan de forma discrecional y por cuyos servicios cobran. Ante dicho panorama distópico, Petro propuso que “las nubes sean de propiedad común, a fin de garantizar que las personas accedan al conocimiento desarrollado por la humanidad sin que se cobre por ello”. Estas declaraciones evidencian la falta de comprensión de la magnitud del reto que enfrenta la humanidad, debido al desconocimiento del potencial de la tecnología digital emergente, acelerada, exponencial y convergente, en particular de la IAG, tal como se describe en este artículo.[3]

La legislación más ambiciosa hasta la fecha es la adoptada por la Unión Europea (UE) en 2024, tras un extenso proceso de deliberación. La investigación y el despliegue de la IAG se clasifican según una escala basada en niveles de riesgo. Se considera inaceptable cualquier uso que cause daño directo, vulnere derechos humanos fundamentales o comprometa sistemas e infraestructuras críticas, así como el transporte público, la salud o el bienestar. Asimismo, las aplicaciones de alto riesgo quedan sujetas a estrictos mecanismos de supervisión y rendición de cuentas. En este contexto, la IAG de alto riesgo debe ser transparente, segura, estar sometida al control humano y contar con la documentación adecuada.

Las regulaciones para el uso de la IAG en el ámbito de la seguridad y la defensa no se limitan a la promulgación de nuevas normativas. También abarcan la implementación de estructuras de gobernanza, códigos de conducta, procedimientos de arbitraje, mecanismos de cumplimiento contractual y sistemas de supervisión. La integración de estos elementos requiere la participación activa de la ciudadanía, con el fin de garantizar un uso apropiado de esta tecnología en un área de alta sensibilidad.[4]

Las respuestas a estas interrogantes pueden abordarse desde la perspectiva de la seguridad y la eficiencia a lo largo de la historia o bien desde un enfoque filosófico. Tanto los individuos como las sociedades, naciones, culturas y religiones deberán establecer los límites, si los hubiere, de la autoridad de la IAG en el ámbito de la seguridad. De la misma manera, será necesario decidir si se permitirá que esta tecnología actúe como intermediaria entre los seres humanos y la realidad.

En un futuro próximo, la humanidad se verá obligada a decidir entre preservar la función tradicional del emprendimiento —lo que podría implicar transferir la primacía en la generación de nuevos saberes a la IAG— o, en contraposición, renunciar a las limitaciones del intelecto biológico en favor de una alianza renovada con la IAG en el ámbito del pensamiento avanzado. Por lo tanto, la sociedad deberá optar entre definir sus objetivos y utilizar la IAG para alcanzarlos o permitir que esta tecnología colabore en la determinación de dichos fines. Lo más urgente es que la humanidad otorgue a la dignidad humana una definición moderna y sostenible, capaz de proporcionar una guía filosófica para las decisiones futuras en esta materia.

En consecuencia, la sociedad se encontrará en la disyuntiva de establecer sus metas y utilizar la IAG como instrumento para alcanzarlas o, en su defecto, delegar en esta tecnología la formulación de dichos objetivos. Resulta imperativo redefinir el concepto de dignidad humana de manera contemporánea y sostenible, estableciendo un marco filosófico que oriente las decisiones futuras en esta materia.

En el marco del avance de la IAG y sus capacidades presentes y futuras, Henry Kissinger, estudioso de la geopolítica y el conflicto global, sostiene que es necesario replantear estratégicamente los enfoques en defensa, seguridad y diplomacia. La IAG se perfila como un factor determinante en las relaciones internacionales, caracterizado por su inmunidad al miedo y la parcialidad. Esta tecnología introduce una nueva posibilidad de objetividad en la toma de decisiones estratégicas, lo que puede beneficiar tanto a actores beligerantes como pacifistas. No obstante, resulta fundamental preservar la subjetividad inherente a la sabiduría humana para garantizar un uso responsable de la fuerza en situaciones de conflicto. En cualquier escenario, la IAG revelará tanto las mejores como las peores expresiones de la humanidad.[5]

La Era de la IAG y la Ciberseguridad

La IAG es una tecnología concebida para ejecutar tareas que tradicionalmente demandan inteligencia humana, consolidándose rápidamente como una realidad. El aprendizaje automático, proceso mediante el cual esta tecnología adquiere conocimientos y desarrolla habilidades en períodos considerablemente más breves que los del aprendizaje humano, se ha extendido de forma sostenida en múltiples aplicaciones, destacándose en áreas como la seguridad y la defensa.

En la actualidad, el aprendizaje automático que utiliza redes neuronales profundas ha producido conocimientos e innovaciones que durante mucho tiempo han eludido a los pensadores humanos, generando texto, imágenes y videos que parecen haber sido creados por seres humanos. La IAG, impulsada por nuevos algoritmos y una potencia informática cada vez más abundante y asequible, se está volviendo omnipresente. Un ejemplo de la competencia tecnológica entre China y EE. UU. es el revuelo entre las empresas tecnológicas chinas, que han desarrollado sus propios chatbots impulsados por IA. Los dos modelos chinos de IAG, DeepSeek-V3 y DeepSeek-R1, han lanzado una campaña publicitaria basada en elogios de sus capacidades tecnológicas, comparándolas con las estadounidenses, como OpenAI y Meta (Hoskins y Rahman-Jones 2025). Sin embargo, actualmente se ha denunciado y abierto una investigación por la supuesta sustracción de tecnología de empresas estadounidenses por parte de DeepSeek.[6]

La humanidad, en colaboración con la IAG, ha desarrollado un mecanismo innovador y sumamente poderoso para explorar y organizar la realidad. Este resulta, en muchos aspectos, inescrutable para la comprensión humana. La IAG accede a la realidad de un modo distinto al de los seres humanos. Si las hazañas realizadas por esta tecnología se convierten en referencia, podrá acceder a aspectos de la realidad de forma única. Su funcionamiento presagia un avance hacia la esencia de las cosas, un progreso que filósofos, teólogos y científicos han perseguido con éxitos parciales durante siglos. No obstante, como ocurre con toda tecnología, la IAG se vincula tanto a sus capacidades y promesas como a su efectividad práctica.

El advenimiento es de gran relevancia tanto histórica como filosóficamente. Los intentos de detener los avances de esta tecnología, si se materializan, permitirán a futuras generaciones, capacitadas para ello, enfrentar las implicancias de su propia inventiva y mantenerla bajo control. Se han creado formas no humanas de lógica, con alcance y agudeza que superan a los humanos. Sin embargo, hasta la fecha, la IAG es compleja e inconsistente. Los esfuerzos exitosos por limitar el progreso de esta tecnología permitirán a las generaciones venideras, capacitadas para ello, gestionar las implicaciones de sus propias creaciones y mantenerlas bajo control. En consecuencia, esto asegurará un futuro más equilibrado entre innovación y responsabilidad.

El avance de la IAG puede ser inevitable, pero su destino no está sellado. Su advenimiento resulta significativo tanto desde el punto de vista histórico como filosófico. Los intentos de detener el desarrollo de esta tecnología, en caso de materializarse, permitirán que futuras generaciones, debidamente capacitadas, enfrenten las implicancias de su propia inventiva y mantengan la tecnología bajo control. Se han desarrollado formas de lógica no humana, dotadas de un alcance y una agudeza que superan las capacidades humanas. Pese a ello, hasta el momento, la IAG se muestra compleja e inconsistente. En algunos casos alcanza niveles de desempeño sobrehumanos, mientras que en otros incurre en errores básicos, con resultados totalmente absurdos. Ante la posibilidad de que un software intangible asuma funciones sociales tradicionalmente reservadas a los humanos, se plantea la interrogante de cómo influirá la evolución de la IAG en la percepción, la cognición y la interacción humanas.

Conforme la humanidad se aproxima a los límites de su capacidad cognitiva, se ha optado por utilizar computadoras para potenciar el pensamiento y superar dichas restricciones. Estas herramientas han configurado un entorno digital distinto del ámbito físico en el que tradicionalmente se desarrollaba la actividad humana. A medida que crece la dependencia de la tecnología digital, se inaugura una nueva era en la que la mente racional ya no es la única responsable de descubrir, comprender y catalogar los elementos que conforman el mundo y su realidad.

La digitalización ha transformado todos los niveles de la organización y del conocimiento humano. Los dispositivos electrónicos, como computadoras y teléfonos, brindan un acceso sin precedentes a la información. Las empresas se han convertido en recolectoras de datos en el entorno digital, aprovechando motores de búsqueda y la información generada por los usuarios. Esta situación otorga a las corporaciones un poder e influencia superiores a los de numerosos estados soberanos. Temerosos de transferir poder al sector privado, los gobiernos han comenzado a aprovechar este ámbito, aplicando menos normas y restricciones. Además, han designado el ciberespacio como un dominio estratégico en el que deben innovar para superar a sus competidores, lo que constituye uno de los grandes desafíos para la asociación público-privada, fundamental para el uso adecuado y seguro del ciberespacio.

La sociedad, en general, ha comprendido poco lo ocurrido y lo que ocurre en el ciberespacio. Esto se explica, en parte, por la velocidad de los sucesos y la abundancia de información. A pesar de los logros alcanzados, el proceso de digitalización ha propiciado a una menor contextualización y conceptualización. Las nuevas generaciones digitales, al menos por ahora, no consideran necesaria la formulación de conceptos que, a lo largo de la historia, han compensado las limitaciones de la memoria colectiva. Dichos motores de búsqueda emplean IAG para contestar las consultas. En este proceso, los seres humanos delegan aspectos relevantes de su pensamiento a la tecnología; sin embargo, la información obtenida no se explica por sí sola, pues depende del contexto. Para resultar útil o, al menos, significativa, debe interpretarse a través de los lentes de la cultura y la historia.

La ventaja de contextualizar la información reside en que inicia un proceso que transforma la información en comprensión. A su vez, esta facilita la formación de convicciones que se traducen en sabiduría. Sin embargo, internet proporciona información proveniente de millones de fuentes y usuarios, lo que priva a los individuos de la soledad y del tiempo necesario para una reflexión sostenida, elemento que históricamente ha sido crucial para el desarrollo de convicciones. A medida que disminuyen la soledad y el tiempo, se debilitan tanto la fortaleza de las convicciones como la fidelidad a ellas. Estos elementos, combinados con la sabiduría, facilitan el acceso a nuevos horizontes y su exploración.

El mundo digital y, en particular la IAG, demuestra escasa paciencia hacia la sabiduría. Sus valores se configuran en función de la aprobación y no de la introspección. Esta realidad contradice la idea ilustrada de que la razón constituye el componente primordial de la consciencia. Asimismo, las restricciones históricas impuestas por la distancia, el tiempo y el lenguaje han quedado obsoletas, puesto que el ámbito digital ofrece una conectividad inherente de notable relevancia.

Con la expansión de la información, se ha recurrido a programas informáticos destinados a clasificar, refinar y evaluar datos mediante patrones, orientando la respuesta a las consultas dirigidas a la IAG (la cual completa las frases enviadas por mensaje de texto, identifica el libro o establecimiento buscado e incorpora sugerencias de artículos y entretenimiento según los patrones de comportamiento observados). Con el creciente uso de la IAG en la vida cotidiana, se transforma el rol tradicional de la mente humana en la configuración, organización y valoración de las decisiones y acciones.

Seguridad, Defensa y Tecnología en el Nuevo Orden Mundial

A lo largo de la historia, la seguridad y la defensa han sido pilares fundamentales para la supervivencia de cualquier sociedad organizada. Mientras la cultura ha evolucionado en sus valores y la política en sus intereses y aspiraciones, la necesidad de autodefensa, sea de manera autónoma o mediante alianzas, ha permanecido inalterable.

En cada época, los avances tecnológicos han fortalecido la seguridad al mejorar la vigilancia de las amenazas, aumentar las capacidades y proyectar influencia más allá de las fronteras. En tiempos de guerra, estos progresos han sido decisivos para lograr un máximo alistamiento operativo. Un ejemplo claro fue el inicio de la era moderna, cuando la introducción de armas de fuego, cañones navales y navegación por instrumentos cambió la forma de los conflictos. En este contexto, Carl von Clausewitz destacó que la fuerza se equipa con las invenciones del arte y la ciencia para contrarrestar a la fuerza opuesta.

Durante el siglo XX, las capacidades, propósitos y estrategias de las naciones se establecieron, al menos en teoría, en un equilibrio de poder. A pesar de ello, la calibración de los medios y fines estratégicos se descontroló. Las tecnologías utilizadas para garantizar la seguridad y la defensa se multiplicaron y adquirieron un mayor potencial destructivo. Paralelamente, los métodos empleados para alcanzar los objetivos definidos se tornaron más esquivos.

En la actualidad, la irrupción de las capacidades cibernéticas y la IAG ha añadido niveles extraordinarios de complejidad a estos cálculos. La utilidad de los sistemas cibernéticos radica, en gran medida, en su opacidad y capacidad de negación de servicio, operando en ocasiones en las ambiguas fronteras del ciberespacio: desinformación, recopilación de inteligencia, sabotaje y conflicto tradicional sin una doctrina reconocida. Sin embargo, cada avance ha traído consigo nuevas vulnerabilidades.

El empleo de la IAG conlleva el riesgo de complejizar aún más los enigmas de la estrategia moderna, superando la intencionalidad y comprensión humana. La convergencia de las armas nucleares con la IAG representa un peligro significativo, pues amplifica las capacidades convencionales, atómicas y digitales, dificultando la predicción y mantenimiento de las relaciones de seguridad entre rivales, así como la contención de conflictos. Además, las funciones defensivas deben operar a diversos niveles, lo que hace indispensable su implementación.

La solución a esta complejidad no consiste en eliminar o desarmar las capacidades tecnológicas existentes. En el presente, las tecnologías nucleares, cibernéticas y de IAG desempeñan un papel ineludible en la estrategia global. Si ciertos países optan por frenar el avance de estas herramientas y rechazan las implicancias de sus capacidades, el resultado no será un mundo más pacífico, sino uno aún más desequilibrado, en el cual el desarrollo y la aplicación de las capacidades estratégicas más formidables se realizan con menor respeto por los principios de responsabilidad, democracia y equilibrio internacional. En este contexto, tanto el interés nacional como el imperativo moral recomiendan que los EE. UU. no cedan ni un ápice en estos ámbitos —nuclear, cibernético e IAG—, sino que se esfuercen por consolidarlos y continuar liderando a nivel mundial.

En este momento, previo a la convergencia de la IAG y la computación cuántica, se enfrenta un dilema de seguridad de naturaleza existencial. Si se observa una competencia cerrada entre China y EE. UU. para liderar y dominar una IAG única, perfecta e indiscutiblemente dominante, ¿cuáles serían las consecuencias? Según el Dr. Henry Kissinger, Craig Mundie y Eric Schmidt, autores del libro Genesis. Artificial Intelligence, Hope, and The Human Spirit,[7] se plantean varios escenarios posibles:

1. La humanidad perderá el control en una carrera existencial entre múltiples actores inmersos en un dilema de seguridad.

2. La humanidad sufrirá el ejercicio de una hegemonía suprema por parte de un vencedor que no se encuentre sometido a los controles y equilibrios tradicionalmente requeridos para garantizar un mínimo de seguridad a los demás.

3. No existirá una única instancia suprema de IAG, sino diversas manifestaciones de IAG superiores a nivel mundial.

4. Las empresas que desarrollan y proveen IAG podrán acumular un poder social, económico, militar y político de carácter totalitario.

5. Las corporaciones privadas podrían emplear su influencia en asuntos de defensa en combinación con sus intereses comerciales, lo que derivaría en un conflicto de intereses con las instituciones gubernamentales.

6. La IAG podría alcanzar su mayor relevancia y expresarse de forma más extendida y duradera en estructuras no nacionales, tales como las religiosas.

7. El acceso descontrolado y el uso de código abierto de la IAG podrían potenciar las capacidades de los delincuentes para perpetrar delitos tanto en el ciberespacio como en el mundo físico.

Conclusiones

A menudo se mide el progreso de la IAG comparándola con la capacidad de un ser humano para realizar tareas específicas, y las investigaciones se centran en su rendimiento sobrehumano en actividades como la traducción de idiomas o la conducción de vehículos. No obstante, estas evaluaciones pasan por alto que la fuerza más poderosa reside en la coordinación de grupos de individuos para alcanzar objetivos compartidos. En este sentido, organizaciones como empresas, Fuerzas Armadas (FF. AA.) y burocracias deben unir esfuerzos mediante el uso de IAG y el procesamiento de grandes volúmenes de datos en torno a metas específicas, siendo fundamental comprender esta tecnología para moldearla, dado que su evolución transforma el mundo de manera constante. La IAG ha de emplearse para potenciar lo mejor de la humanidad, abrir nuevos caminos para la creatividad y la cooperación, y fortalecer los aspectos más valiosos de la vida y las relaciones humanas, constituyendo el complemento definitivo del esfuerzo humano y de un estilo de vida óptimo, siempre bajo parámetros definidos democráticamente y sujetos a debate público. Aunque la regulación por sí sola no resulta suficiente, representa un primer paso esencial, por lo que se requieren medidas audaces y una comprensión profunda de lo que está en juego en los próximos años en un mundo donde la contención parece inalcanzable, marcando el inicio de un futuro en el que la supervivencia y el bienestar puedan coexistir con los beneficios de la IAG. La falta de control no obliga a abandonar la razón ni a renunciar al compromiso con la acción en el mundo real, ya que la dignidad humana permite reconocer la sinergia entre seres humanos e IAG y aceptar la necesidad de una postura de fe para enfrentar los desafíos venideros,[8] a medida que la ciencia avanza y revela misterios cada vez mayores. En este contexto, Stuart Russell, experto en IAG, en su obra Human Compatible,[9] señala que es necesario desarrollar una nueva relación entre humanos y máquinas que permita gestionar con éxito las transformaciones de las próximas décadas.[10]

Notas finales:

  1. Ajay Agrawal, Joshua Gans, y Avi Goldfarb, «ChatGPT and How AI Disrupts Industries», Harvard Business Review, 2022, visitado el 27 de febrero de 2025, https://hbr.org/2022/12/chatgpt-and-how-ai-disrupts-industries.
  2. Carl von Clausewitz, On War, editado y traducido por Michael Howard y Peter Paret (Princeton, NJ: Princeton University Press, 1989), 75.
  3. Hoffman, Reid y Beato, Greg. 2025. Superagency: What Could Possibly go Right with Our AI Future. Authors Equity.
  4. Peter Hoskins y Imran Rahman-Jones, “Nvidia shares sink as Chinese AI app Spooks Markets”, BBC, visitado el 26 de febrero de 2025, https://www.bbc.com/news/articles/c0qw7z2v1pgo.
  5. Pedro Huichalaf, “Irrupción de modelos de IA chinos: Guerra fría Tecnológica”, Huichalaf.cl, visitado el 26 de febrero de 2025, https://www.huichalaf.cl/irrupcion-de-modelos-de-ia-chinos-guerra-fria-tecnologica/.
  6. Henry A. Kissinger, Craig Mundie, y Eric Schmidt, Genesis: Artificial Intelligence, Hope, and The Human Spirit (New York: Little, Brown and Company, 2024).
  7. José David Rodriguez, “Petro aseguró que hay ‘feudalismo’ cibernético con las nubes digitales”, Infobae, visitado el 26 de febrero de 2025, www.infobae.com/colombia/2025/01/30/petro-aseguro-que-hay-feudalismo-cibernetico-con-las-nubes-digitales/.
  8. Stuart Russell, Human Compatible: AI and the Problem of Control (Allen Lane, 2019).
  9. Mustafa Suleyman y Michael Bhaskar, The Coming Wave: Technology, Power, and The Twenty-First Century’s Greatest Dilemma (Crown, 2023).
  10. Fareed Zakaria, Age of Revolutions: Progress Backlash from 1600 to the Present (New York: W.W. Norton & Company, 2024).

COMPARTIR

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Las ideas contenidas en este análisis son responsabilidad exclusiva del autor, sin que refleje necesariamente el pensamiento del CEEEP ni del Ejército del Perú

NEWSLETTER