Si los drones han sido la contribución de la guerra de Ucrania al inventario de la industria armamentística, la de la presente guerra de Irán parece vaya a ser el uso de la inteligencia artificial. Estados Unidos ha confirmado que, efectivamente, está utilizando diversas herramientas de IA en su guerra contra el régimen de los ayatolás.
Brad Cooper, jefe del Comando Central de EEUU, declaró el miércoles que la IA estaba ayudando a los soldados a procesar una gran cantidad de datos. «Estamos utilizando diversas herramientas avanzadas de IA. Nos ayudan a analizar grandes cantidades de datos en segundos para que nuestros líderes puedan distinguir entre el ruido y tomar decisiones más inteligentes con mayor rapidez que la reacción del enemigo», declaró Cooper en un mensaje de vídeo.
El jefe del comando ha querido enfatizar que los seres humanos toman las decisiones finales sobre los objetivos. «Los humanos siempre tomarán las decisiones finales sobre qué disparar, qué no disparar y cuándo hacerlo, pero las herramientas avanzadas de IA pueden convertir procesos que solían tomar horas, e incluso días, en segundos», dijo Cooper.
EEUU utiliza Claude… pero dejará de hacerlo
Contra Irán, el ejército estadounidense está utilizando el modelo de inteligencia artificial Claude, de la empresa Anthropic. Lo está usando a pesar de la prohibición gubernamental de esta tecnología, anunciada tras una disputa con el Pentágono la semana pasada. El conflicto se centró en el empeño de Anthropic para establecer salvaguardas que impidan explícitamente que el ejército pueda utilizar Claude para la vigilancia masiva de ciudadanos estadounidenses o para alimentar armas totalmente autónomas.
Los humanos siempre tomarán las decisiones finales sobre qué disparar, qué no disparar y cuándo hacerlo»
El Pentágono exigió la posibilidad de utilizar a Claude para «todos los fines legales» y defendió que las preocupaciones de Anthropic sobre su uso no eran relevantes. Esgrimen los militares estadounidenses que ya es ilegal que puedan hacer una vigilancia masiva de los estadounidenses, y las políticas internas restringen el uso de armas totalmente autónomas por parte de las fuerzas armadas.
El director ejecutivo de Anthropic, Dario Amodei, declaró que Anthropic había buscado establecer límites claros en el uso de su tecnología por parte del gobierno porque «creemos que cruzar esos límites es contrario a los valores estadounidenses, y queríamos defenderlos». Dice Amodei que «disentir con el gobierno es lo más estadounidense del mundo… Y somos patriotas. En todo lo que hemos hecho aquí, hemos defendido los valores de este país».
El secretario de Defensa, Pete Hegseth, busca situar la inteligencia artificial en el centro de las operaciones de combate del ejército de EEUU. Sin embargo, su departamento ha señalado oficialmente a Anthropic como un riesgo para la cadena de suministro y la empresa ha respondido demandando a la administración estadounidense.
El presidente Donald Trump ordenó a las agencias federales que dejen de usar la tecnología de Anthropic, y les dio seis meses para su eliminación gradual. Pero el Pentágono podría tardar tres meses o más en reemplazar las capacidades de Claude con otra plataforma de IA, según informa Defense One, web de noticias sobre seguridad nacional.
Proyecto Maven, el antecedente
Pero el Pentágono lleva ya unos años utilizando tecnología IA o pre-IA. Lo ha hecho a través del Proyecto Maven. Entre otras funciones, implica el uso del aprendizaje automático y la fusión de datos para procesar informaciones de muchas fuentes, identificar objetivos potenciales, mostrar información a través de una interfaz de usuario y transmitir decisiones humanas a los sistemas de armas.
Maven comenzó en 2017 y ya se ha utilizado en varios conflictos militares en los que ha estado involucrado EEUU. El primero, en 2021, fue la evacuación de Afganistán. Luego, en 2022, durante la invasión rusa de Ucrania, EEUU usó inteligencia satelital y el sistema inteligente Maven para proporcionar la ubicación de equipos rusos a las fuerzas ucranianas.
En febrero de 2024, se utilizó para delimitar objetivos para ataques aéreos en Irak y Siria. También se utilizó para localizar lanzacohetes en Yemen y buques en el Mar Rojo. Pese a la llegada de Claude, Maven ha seguido siendo útil en la actual guerra contra Irán.
La imprescindible ayuda de Palantir
Los militares estadounidenses hacen uso de la IA a través de un intermediario. Es Palantir Technologies, empresa fundada en 2003 por un grupo de emprendedores e inversores. Entre ellos está Peter Thiel, miembro de la llamada «mafia de PayPal» y uno de los primeros miembros de la élite de Silicon Valley en apoyar a Trump cuando se convirtió en candidato presidencial en 2016.
Palantir no vende datos, sino la capacidad de darles sentido. «Sí, nuestra tecnología se usa para matar a gente», dijo su CEO y cofundador, Alex Karp, en una entrevista con Axios. Su software ha sido acusado de violaciones a los derechos humanos por Amnistía Internacional y otros grupos defensores de la privacidad y los derechos de las personas.
Lo cierto es que mientras el Pentágono busca un recambio para Claude, Palantir lo sigue utilizando. Lo dijo Karp esta semana: «El Departamento de Guerra está planeando eliminar gradualmente a Anthropic; actualmente, no está eliminado«. En declaraciones a la CNBC aseguró que sus productos «están integrados con Anthropic, y en el futuro, probablemente se integrarán con otros modelos de lenguaje de gran tamaño».
La administración militar de Trump ha buscado un mayor acceso a herramientas tecnológicas para uso militar. Sin embargo, entre los expertos en derechos humanos crece la preocupación por el uso de la inteligencia artificial en la guerra.
Dudas, salvaguardas y transparencia
Persiste la preocupación de que depender de la IA para ciertas operaciones o la toma de decisiones pueda provocar errores en operaciones militares. El Departamento de Defensa y empresas como Anthropic, pero también OpenAI, han declarado públicamente que los sistemas de IA actuales no deberían poder matar sin la aprobación humana.
A medida que la IA adquiere un papel más importante en el campo de batalla, los legisladores exigen una mayor atención a las protecciones que deben regir su uso y una mayor transparencia sobre el grado de control que se le otorga a esta tecnología. Miembros del Congreso de EEUU exigen salvaguardias y una mayor supervisión del uso de esta tecnología en la guerra.
«Necesitamos una revisión completa e imparcial para determinar si la IA ya ha perjudicado o puesto en peligro vidas en la guerra con Irán», declaró a NBC News la representante Jill Tokuda, demócrata por Hawái y miembro del Comité de Servicios Armados de la Cámara de Representantes. «El juicio humano debe seguir siendo fundamental en las decisiones de vida o muerte», aseguró.
Preocupa el uso de estas herramientas por parte de las fuerzas armadas sin salvaguardas claras para garantizar que los humanos sigan participando en las decisiones de vida o muerte en el campo de batalla. «Las herramientas de IA no son 100% fiables; pueden fallar de maneras sutiles y, sin embargo, los operadores siguen confiando excesivamente en ellas», declaró Sara Jacobs, demócrata por California en la Cámara de Representantes.
Mientras, crece la preocupación porque depender de la IA para tomar decisiones pueda provocar errores en operaciones militares.
Si los drones han sido la contribución de la guerra de Ucrania al inventario de la industria armamentística, la de la presente guerra de Irán parece vaya a ser el uso de la inteligencia artificial. Estados Unidos ha confirmado que, efectivamente, está utilizando diversas herramientas de IA en su guerra contra el régimen de los ayatolás.
Brad Cooper, jefe del Comando Central de EEUU, declaró el miércoles que la IA estaba ayudando a los soldados a procesar una gran cantidad de datos. «Estamos utilizando diversas herramientas avanzadas de IA. Nos ayudan a analizar grandes cantidades de datos en segundos para que nuestros líderes puedan distinguir entre el ruido y tomar decisiones más inteligentes con mayor rapidez que la reacción del enemigo», declaró Cooper en un mensaje de vídeo.
El jefe del comando ha querido enfatizar que los seres humanos toman las decisiones finales sobre los objetivos. «Los humanos siempre tomarán las decisiones finales sobre qué disparar, qué no disparar y cuándo hacerlo, pero las herramientas avanzadas de IA pueden convertir procesos que solían tomar horas, e incluso días, en segundos», dijo Cooper.
EEUU utiliza Claude… pero dejará de hacerlo
Contra Irán, el ejército estadounidense está utilizando el modelo de inteligencia artificial Claude, de la empresa Anthropic. Lo está usando a pesar de la prohibición gubernamental de esta tecnología, anunciada tras una disputa con el Pentágono la semana pasada. El conflicto se centró en el empeño de Anthropic para establecer salvaguardas que impidan explícitamente que el ejército pueda utilizar Claude para la vigilancia masiva de ciudadanos estadounidenses o para alimentar armas totalmente autónomas.
Los humanos siempre tomarán las decisiones finales sobre qué disparar, qué no disparar y cuándo hacerlo»
El Pentágono exigió la posibilidad de utilizar a Claude para «todos los fines legales» y defendió que las preocupaciones de Anthropic sobre su uso no eran relevantes. Esgrimen los militares estadounidenses que ya es ilegal que puedan hacer una vigilancia masiva de los estadounidenses, y las políticas internas restringen el uso de armas totalmente autónomas por parte de las fuerzas armadas.
El director ejecutivo de Anthropic, Dario Amodei, declaró que Anthropic había buscado establecer límites claros en el uso de su tecnología por parte del gobierno porque «creemos que cruzar esos límites es contrario a los valores estadounidenses, y queríamos defenderlos». Dice Amodei que «disentir con el gobierno es lo más estadounidense del mundo… Y somos patriotas. En todo lo que hemos hecho aquí, hemos defendido los valores de este país».
Ataques con IA y víctimas inocentes
- La confirmación de que EEUU usa la IA para bombardear Irán llega cuando aumentan las peticiones de una investigación independiente sobre el bombardeo de una escuela que mató a más de 170 personas, en su mayoría niñas. La campaña estadounidense-israelí ha matado al menos a 1.300 personas en Irán desde que comenzó el 28 de febrero. Según la Media Luna Roja Iraní, la campaña de bombardeos ha dañado casi 20.000 edificios civiles y 77 centros sanitarios. Los ataques también han afectado a depósitos de petróleo, varios mercados callejeros, instalaciones deportivas, escuelas y una planta desalinizadora de agua, según funcionarios iraníes.
El secretario de Defensa, Pete Hegseth, busca situar la inteligencia artificial en el centro de las operaciones de combate del ejército de EEUU. Sin embargo, su departamento ha señalado oficialmente a Anthropic como un riesgo para la cadena de suministro y la empresa ha respondido demandando a la administración estadounidense.
El presidente Donald Trump ordenó a las agencias federales que dejen de usar la tecnología de Anthropic, y les dio seis meses para su eliminación gradual. Pero el Pentágono podría tardar tres meses o más en reemplazar las capacidades de Claude con otra plataforma de IA, según informa Defense One, web de noticias sobre seguridad nacional.
Proyecto Maven, el antecedente
Pero el Pentágono lleva ya unos años utilizando tecnología IA o pre-IA. Lo ha hecho a través del Proyecto Maven. Entre otras funciones, implica el uso del aprendizaje automático y la fusión de datos para procesar informaciones de muchas fuentes, identificar objetivos potenciales, mostrar información a través de una interfaz de usuario y transmitir decisiones humanas a los sistemas de armas.
Maven comenzó en 2017 y ya se ha utilizado en varios conflictos militares en los que ha estado involucrado EEUU. El primero, en 2021, fue la evacuación de Afganistán. Luego, en 2022, durante la invasión rusa de Ucrania, EEUU usó inteligencia satelital y el sistema inteligente Maven para proporcionar la ubicación de equipos rusos a las fuerzas ucranianas.
En febrero de 2024, se utilizó para delimitar objetivos para ataques aéreos en Irak y Siria. También se utilizó para localizar lanzacohetes en Yemen y buques en el Mar Rojo. Pese a la llegada de Claude, Maven ha seguido siendo útil en la actual guerra contra Irán.
Israel también utiliza IA
- Se desconoce si el ejército israelí también está utilizando Claude para atacar territorio iraní. Ningún portavoz ha querido pronunciarse, pero se sabe que ya usó IA en la guerra de Gaza. Diversos informes han confirmado que Israel recurrió a la inteligencia artificial en su campaña de destrucción en la Franja. Lo hizo con su propio sistema de puntería, llamado Lavender.
La imprescindible ayuda de Palantir
Los militares estadounidenses hacen uso de la IA a través de un intermediario. Es Palantir Technologies, empresa fundada en 2003 por un grupo de emprendedores e inversores. Entre ellos está Peter Thiel, miembro de la llamada «mafia de PayPal» y uno de los primeros miembros de la élite de Silicon Valley en apoyar a Trump cuando se convirtió en candidato presidencial en 2016.
Palantir no vende datos, sino la capacidad de darles sentido. «Sí, nuestra tecnología se usa para matar a gente», dijo su CEO y cofundador, Alex Karp, en una entrevista con Axios. Su software ha sido acusado de violaciones a los derechos humanos por Amnistía Internacional y otros grupos defensores de la privacidad y los derechos de las personas.
Lo cierto es que mientras el Pentágono busca un recambio para Claude, Palantir lo sigue utilizando. Lo dijo Karp esta semana: «El Departamento de Guerra está planeando eliminar gradualmente a Anthropic; actualmente, no está eliminado«. En declaraciones a la CNBC aseguró que sus productos «están integrados con Anthropic, y en el futuro, probablemente se integrarán con otros modelos de lenguaje de gran tamaño».
La administración militar de Trump ha buscado un mayor acceso a herramientas tecnológicas para uso militar. Sin embargo, entre los expertos en derechos humanos crece la preocupación por el uso de la inteligencia artificial en la guerra.
La peligrosa e inminente proliferación de la guerra con IA
- La pasada semana, académicos y expertos legales se reunieron en Ginebra (Suiza), para debatir sobre sistemas de armas autónomas letales y la adquisición de IA para uso militar. Se trata de alcanzar un acuerdo internacional sobre los usos éticos y legales de la IA en la guerra, cuenta ‘Nature’. Según el politólogo Michael Horowitz, de la Universidad de Pensilvania en Filadelfia, el rápido desarrollo tecnológico está superando la lentitud de los debates internacionales. «La actual incapacidad para regular la guerra con IA, o para suspender su uso hasta que se alcance un acuerdo sobre su uso legal, parece indicar que la posible proliferación de la guerra con IA es inminente», declara Craig Jones, geógrafo político de la Universidad de Newcastle.
Dudas, salvaguardas y transparencia
Persiste la preocupación de que depender de la IA para ciertas operaciones o la toma de decisiones pueda provocar errores en operaciones militares. El Departamento de Defensa y empresas como Anthropic, pero también OpenAI, han declarado públicamente que los sistemas de IA actuales no deberían poder matar sin la aprobación humana.
A medida que la IA adquiere un papel más importante en el campo de batalla, los legisladores exigen una mayor atención a las protecciones que deben regir su uso y una mayor transparencia sobre el grado de control que se le otorga a esta tecnología. Miembros del Congreso de EEUU exigen salvaguardias y una mayor supervisión del uso de esta tecnología en la guerra.
«Necesitamos una revisión completa e imparcial para determinar si la IA ya ha perjudicado o puesto en peligro vidas en la guerra con Irán», declaró a NBC News la representante Jill Tokuda, demócrata por Hawái y miembro del Comité de Servicios Armados de la Cámara de Representantes. «El juicio humano debe seguir siendo fundamental en las decisiones de vida o muerte», aseguró.
Preocupa el uso de estas herramientas por parte de las fuerzas armadas sin salvaguardas claras para garantizar que los humanos sigan participando en las decisiones de vida o muerte en el campo de batalla. «Las herramientas de IA no son 100% fiables; pueden fallar de maneras sutiles y, sin embargo, los operadores siguen confiando excesivamente en ellas», declaró Sara Jacobs, demócrata por California en la Cámara de Representantes.
20MINUTOS.ES – Internacional
