Skip to content
uruguayalmomento
  • Portada
  • Nacional
  • Internacional
  • Economía
  • Policiales
  • Deportes
  • Más
    • Ciencia y Tecnología
    • Sociedad
    • Salud
    • Cultura
uruguayalmomento
uruguayalmomento
  • Portada
  • Nacional
  • Internacional
  • Economía
  • Policiales
  • Deportes
  • Más
    • Ciencia y Tecnología
    • Sociedad
    • Salud
    • Cultura
uruguayalmomento
  Internacional  Claude y Proyecto Maven: así explota EEUU la inteligencia artificial para arrasar objetivos iraníes en tiempo y precisión de récord
Internacional

Claude y Proyecto Maven: así explota EEUU la inteligencia artificial para arrasar objetivos iraníes en tiempo y precisión de récord

marzo 16, 2026
FacebookX TwitterPinterestLinkedInTumblrRedditVKWhatsAppEmail

Si los drones han sido la contribución de la guerra de Ucrania al inventario de la industria armamentística, la de la presente guerra de Irán parece vaya a ser el uso de la inteligencia artificial. Estados Unidos ha confirmado que, efectivamente, está utilizando diversas herramientas de IA en su guerra contra el régimen de los ayatolás.

Brad Cooper, jefe del Comando Central de EEUU, declaró el miércoles que la IA estaba ayudando a los soldados a procesar una gran cantidad de datos. «Estamos utilizando diversas herramientas avanzadas de IA. Nos ayudan a analizar grandes cantidades de datos en segundos para que nuestros líderes puedan distinguir entre el ruido y tomar decisiones más inteligentes con mayor rapidez que la reacción del enemigo», declaró Cooper en un mensaje de vídeo.

El jefe del comando ha querido enfatizar que los seres humanos toman las decisiones finales sobre los objetivos. «Los humanos siempre tomarán las decisiones finales sobre qué disparar, qué no disparar y cuándo hacerlo, pero las herramientas avanzadas de IA pueden convertir procesos que solían tomar horas, e incluso días, en segundos», dijo Cooper.

EEUU utiliza Claude… pero dejará de hacerlo

Contra Irán, el ejército estadounidense está utilizando el modelo de inteligencia artificial Claude, de la empresa Anthropic. Lo está usando a pesar de la prohibición gubernamental de esta tecnología, anunciada tras una disputa con el Pentágono la semana pasada. El conflicto se centró en el empeño de Anthropic para establecer salvaguardas que impidan explícitamente que el ejército pueda utilizar Claude para la vigilancia masiva de ciudadanos estadounidenses o para alimentar armas totalmente autónomas.

Los humanos siempre tomarán las decisiones finales sobre qué disparar, qué no disparar y cuándo hacerlo»

El Pentágono exigió la posibilidad de utilizar a Claude para «todos los fines legales» y defendió que las preocupaciones de Anthropic sobre su uso no eran relevantes. Esgrimen los militares estadounidenses que ya es ilegal que puedan hacer una vigilancia masiva de los estadounidenses, y las políticas internas restringen el uso de armas totalmente autónomas por parte de las fuerzas armadas.

El director ejecutivo de Anthropic, Dario Amodei, declaró que Anthropic había buscado establecer límites claros en el uso de su tecnología por parte del gobierno porque «creemos que cruzar esos límites es contrario a los valores estadounidenses, y queríamos defenderlos». Dice Amodei que «disentir con el gobierno es lo más estadounidense del mundo… Y somos patriotas. En todo lo que hemos hecho aquí, hemos defendido los valores de este país».

El secretario de Defensa, Pete Hegseth, busca situar la inteligencia artificial en el centro de las operaciones de combate del ejército de EEUU. Sin embargo, su departamento ha señalado oficialmente a Anthropic como un riesgo para la cadena de suministro y la empresa ha respondido demandando a la administración estadounidense.

El presidente Donald Trump ordenó a las agencias federales que dejen de usar la tecnología de Anthropic, y les dio seis meses para su eliminación gradual. Pero el Pentágono podría tardar tres meses o más en reemplazar las capacidades de Claude con otra plataforma de IA, según informa Defense One, web de noticias sobre seguridad nacional.

Proyecto Maven, el antecedente

Pero el Pentágono lleva ya unos años utilizando tecnología IA o pre-IA. Lo ha hecho a través del Proyecto Maven. Entre otras funciones, implica el uso del aprendizaje automático y la fusión de datos para procesar informaciones de muchas fuentes, identificar objetivos potenciales, mostrar información a través de una interfaz de usuario y transmitir decisiones humanas a los sistemas de armas.

Maven comenzó en 2017 y ya se ha utilizado en varios conflictos militares en los que ha estado involucrado EEUU. El primero, en 2021, fue la evacuación de Afganistán. Luego, en 2022, durante la invasión rusa de Ucrania, EEUU usó inteligencia satelital y el sistema inteligente Maven para proporcionar la ubicación de equipos rusos a las fuerzas ucranianas.

En febrero de 2024, se utilizó para delimitar objetivos para ataques aéreos en Irak y Siria. También se utilizó para localizar lanzacohetes en Yemen y buques en el Mar Rojo. Pese a la llegada de Claude, Maven ha seguido siendo útil en la actual guerra contra Irán.

La imprescindible ayuda de Palantir

Los militares estadounidenses hacen uso de la IA a través de un intermediario. Es Palantir Technologies, empresa fundada en 2003 por un grupo de emprendedores e inversores. Entre ellos está Peter Thiel, miembro de la llamada «mafia de PayPal» y uno de los primeros miembros de la élite de Silicon Valley en apoyar a Trump cuando se convirtió en candidato presidencial en 2016.

Palantir no vende datos, sino la capacidad de darles sentido. «Sí, nuestra tecnología se usa para matar a gente», dijo su CEO y cofundador, Alex Karp, en una entrevista con Axios. Su software ha sido acusado de violaciones a los derechos humanos por Amnistía Internacional y otros grupos defensores de la privacidad y los derechos de las personas.

Lo cierto es que mientras el Pentágono busca un recambio para Claude, Palantir lo sigue utilizando. Lo dijo Karp esta semana: «El Departamento de Guerra está planeando eliminar gradualmente a Anthropic; actualmente, no está eliminado«. En declaraciones a la CNBC aseguró que sus productos «están integrados con Anthropic, y en el futuro, probablemente se integrarán con otros modelos de lenguaje de gran tamaño».

La administración militar de Trump ha buscado un mayor acceso a herramientas tecnológicas para uso militar. Sin embargo, entre los expertos en derechos humanos crece la preocupación por el uso de la inteligencia artificial en la guerra.

Dudas, salvaguardas y transparencia

Persiste la preocupación de que depender de la IA para ciertas operaciones o la toma de decisiones pueda provocar errores en operaciones militares. El Departamento de Defensa y empresas como Anthropic, pero también OpenAI, han declarado públicamente que los sistemas de IA actuales no deberían poder matar sin la aprobación humana.

A medida que la IA adquiere un papel más importante en el campo de batalla, los legisladores exigen una mayor atención a las protecciones que deben regir su uso y una mayor transparencia sobre el grado de control que se le otorga a esta tecnología. Miembros del Congreso de EEUU exigen salvaguardias y una mayor supervisión del uso de esta tecnología en la guerra.

«Necesitamos una revisión completa e imparcial para determinar si la IA ya ha perjudicado o puesto en peligro vidas en la guerra con Irán», declaró a NBC News la representante Jill Tokuda, demócrata por Hawái y miembro del Comité de Servicios Armados de la Cámara de Representantes. «El juicio humano debe seguir siendo fundamental en las decisiones de vida o muerte», aseguró.

Más Noticias

La niebla sectaria

marzo 10, 2026

La televisión estatal iraní admite que el nuevo líder supremo, Mojtaba Jamenei, podría haber sido «herido por el enemigo»

marzo 9, 2026

Europa, Europa

marzo 11, 2026

Zelenski visitará España este miércoles y se reunirá con Sánchez en la Moncloa

marzo 16, 2026

Preocupa el uso de estas herramientas por parte de las fuerzas armadas sin salvaguardas claras para garantizar que los humanos sigan participando en las decisiones de vida o muerte en el campo de batalla. «Las herramientas de IA no son 100% fiables; pueden fallar de maneras sutiles y, sin embargo, los operadores siguen confiando excesivamente en ellas», declaró Sara Jacobs, demócrata por California en la Cámara de Representantes.

 Mientras, crece la preocupación porque depender de la IA para tomar decisiones pueda provocar errores en operaciones militares.  

Si los drones han sido la contribución de la guerra de Ucrania al inventario de la industria armamentística, la de la presente guerra de Irán parece vaya a ser el uso de la inteligencia artificial. Estados Unidos ha confirmado que, efectivamente, está utilizando diversas herramientas de IA en su guerra contra el régimen de los ayatolás.

Brad Cooper, jefe del Comando Central de EEUU, declaró el miércoles que la IA estaba ayudando a los soldados a procesar una gran cantidad de datos. «Estamos utilizando diversas herramientas avanzadas de IA. Nos ayudan a analizar grandes cantidades de datos en segundos para que nuestros líderes puedan distinguir entre el ruido y tomar decisiones más inteligentes con mayor rapidez que la reacción del enemigo», declaró Cooper en un mensaje de vídeo.

El jefe del comando ha querido enfatizar que los seres humanos toman las decisiones finales sobre los objetivos. «Los humanos siempre tomarán las decisiones finales sobre qué disparar, qué no disparar y cuándo hacerlo, pero las herramientas avanzadas de IA pueden convertir procesos que solían tomar horas, e incluso días, en segundos», dijo Cooper. 

EEUU utiliza Claude… pero dejará de hacerlo

Contra Irán, el ejército estadounidense está utilizando el modelo de inteligencia artificial Claude, de la empresa Anthropic. Lo está usando a pesar de la prohibición gubernamental de esta tecnología, anunciada tras una disputa con el Pentágono la semana pasada. El conflicto se centró en el empeño de Anthropic para establecer salvaguardas que impidan explícitamente que el ejército pueda utilizar Claude para la vigilancia masiva de ciudadanos estadounidenses o para alimentar armas totalmente autónomas.

Los humanos siempre tomarán las decisiones finales sobre qué disparar, qué no disparar y cuándo hacerlo»

El Pentágono exigió la posibilidad de utilizar a Claude para «todos los fines legales» y defendió que las preocupaciones de Anthropic sobre su uso no eran relevantes. Esgrimen los militares estadounidenses que ya es ilegal que puedan hacer una vigilancia masiva de los estadounidenses, y las políticas internas restringen el uso de armas totalmente autónomas por parte de las fuerzas armadas.

El director ejecutivo de Anthropic, Dario Amodei, declaró que Anthropic había buscado establecer límites claros en el uso de su tecnología por parte del gobierno porque «creemos que cruzar esos límites es contrario a los valores estadounidenses, y queríamos defenderlos». Dice Amodei que «disentir con el gobierno es lo más estadounidense del mundo… Y somos patriotas. En todo lo que hemos hecho aquí, hemos defendido los valores de este país».

Ataques con IA y víctimas inocentes

  • La confirmación de que EEUU usa la IA para bombardear Irán llega cuando aumentan las peticiones de una investigación independiente sobre el bombardeo de una escuela que mató a más de 170 personas, en su mayoría niñas. La campaña estadounidense-israelí ha matado al menos a 1.300 personas en Irán desde que comenzó el 28 de febrero. Según la Media Luna Roja Iraní, la campaña de bombardeos ha dañado casi 20.000 edificios civiles y 77 centros sanitarios. Los ataques también han afectado a depósitos de petróleo, varios mercados callejeros, instalaciones deportivas, escuelas y una planta desalinizadora de agua, según funcionarios iraníes.

El secretario de Defensa, Pete Hegseth, busca situar la inteligencia artificial en el centro de las operaciones de combate del ejército de EEUU. Sin embargo, su departamento ha señalado oficialmente a Anthropic como un riesgo para la cadena de suministro y la empresa ha respondido demandando a la administración estadounidense.

El presidente Donald Trump ordenó a las agencias federales que dejen de usar la tecnología de Anthropic, y les dio seis meses para su eliminación gradual. Pero el Pentágono podría tardar tres meses o más en reemplazar las capacidades de Claude con otra plataforma de IA, según informa Defense One, web de noticias sobre seguridad nacional.

Proyecto Maven, el antecedente

Pero el Pentágono lleva ya unos años utilizando tecnología IA o pre-IA. Lo ha hecho a través del Proyecto Maven. Entre otras funciones, implica el uso del aprendizaje automático y la fusión de datos para procesar informaciones de muchas fuentes, identificar objetivos potenciales, mostrar información a través de una interfaz de usuario y transmitir decisiones humanas a los sistemas de armas.

Maven comenzó en 2017 y ya se ha utilizado en varios conflictos militares en los que ha estado involucrado EEUU. El primero, en 2021, fue la evacuación de Afganistán. Luego, en 2022, durante la invasión rusa de Ucrania, EEUU usó inteligencia satelital y el sistema inteligente Maven para proporcionar la ubicación de equipos rusos a las fuerzas ucranianas.

En febrero de 2024, se utilizó para delimitar objetivos para ataques aéreos en Irak y Siria. También se utilizó para localizar lanzacohetes en Yemen y buques en el Mar Rojo. Pese a la llegada de Claude, Maven ha seguido siendo útil en la actual guerra contra Irán. 

Israel también utiliza IA

  • Se desconoce si el ejército israelí también está utilizando Claude para atacar territorio iraní. Ningún portavoz ha querido pronunciarse, pero se sabe que ya usó IA en la guerra de Gaza. Diversos informes han confirmado que Israel recurrió a la inteligencia artificial en su campaña de destrucción en la Franja. Lo hizo con su propio sistema de puntería, llamado Lavender.

La imprescindible ayuda de Palantir

Los militares estadounidenses hacen uso de la IA a través de un intermediario. Es Palantir Technologies, empresa fundada en 2003 por un grupo de emprendedores e inversores. Entre ellos está Peter Thiel, miembro de la llamada «mafia de PayPal» y uno de los primeros miembros de la élite de Silicon Valley en apoyar a Trump cuando se convirtió en candidato presidencial en 2016. 

Palantir no vende datos, sino la capacidad de darles sentido. «Sí, nuestra tecnología se usa para matar a gente», dijo su CEO y cofundador, Alex Karp, en una entrevista con Axios. Su software ha sido acusado de violaciones a los derechos humanos por Amnistía Internacional y otros grupos defensores de la privacidad y los derechos de las personas.

Lo cierto es que mientras el Pentágono busca un recambio para Claude, Palantir lo sigue utilizando. Lo dijo Karp esta semana: «El Departamento de Guerra está planeando eliminar gradualmente a Anthropic; actualmente, no está eliminado«. En declaraciones a la CNBC aseguró que sus productos «están integrados con Anthropic, y en el futuro, probablemente se integrarán con otros modelos de lenguaje de gran tamaño».

La administración militar de Trump ha buscado un mayor acceso a herramientas tecnológicas para uso militar. Sin embargo, entre los expertos en derechos humanos crece la preocupación por el uso de la inteligencia artificial en la guerra. 

La peligrosa e inminente proliferación de la guerra con IA

  • La pasada semana, académicos y expertos legales se reunieron en Ginebra (Suiza), para debatir sobre sistemas de armas autónomas letales y la adquisición de IA para uso militar. Se trata de alcanzar un acuerdo internacional sobre los usos éticos y legales de la IA en la guerra, cuenta ‘Nature’. Según el politólogo Michael Horowitz, de la Universidad de Pensilvania en Filadelfia, el rápido desarrollo tecnológico está superando la lentitud de los debates internacionales. «La actual incapacidad para regular la guerra con IA, o para suspender su uso hasta que se alcance un acuerdo sobre su uso legal, parece indicar que la posible proliferación de la guerra con IA es inminente», declara Craig Jones, geógrafo político de la Universidad de Newcastle.

Dudas, salvaguardas y transparencia

Persiste la preocupación de que depender de la IA para ciertas operaciones o la toma de decisiones pueda provocar errores en operaciones militares. El Departamento de Defensa y empresas como Anthropic, pero también OpenAI, han declarado públicamente que los sistemas de IA actuales no deberían poder matar sin la aprobación humana. 

A medida que la IA adquiere un papel más importante en el campo de batalla, los legisladores exigen una mayor atención a las protecciones que deben regir su uso y una mayor transparencia sobre el grado de control que se le otorga a esta tecnología. Miembros del Congreso de EEUU exigen salvaguardias y una mayor supervisión del uso de esta tecnología en la guerra.

«Necesitamos una revisión completa e imparcial para determinar si la IA ya ha perjudicado o puesto en peligro vidas en la guerra con Irán», declaró a NBC News la representante Jill Tokuda, demócrata por Hawái y miembro del Comité de Servicios Armados de la Cámara de Representantes. «El juicio humano debe seguir siendo fundamental en las decisiones de vida o muerte», aseguró.

Preocupa el uso de estas herramientas por parte de las fuerzas armadas sin salvaguardas claras para garantizar que los humanos sigan participando en las decisiones de vida o muerte en el campo de batalla. «Las herramientas de IA no son 100% fiables; pueden fallar de maneras sutiles y, sin embargo, los operadores siguen confiando excesivamente en ellas», declaró Sara Jacobs, demócrata por California en la Cámara de Representantes.

 20MINUTOS.ES – Internacional

FacebookX TwitterPinterestLinkedInTumblrRedditVKWhatsAppEmail
La guerra de Irán. ¿En qué manos estamos?
Ángel Losada, exembajador español en Irán: «Si no querían desarrollar armas nucleares, ¿para qué enriquecen el uranio al 60%?»
Leer también
Cultura

Gloria y Emilio Estefan, Jon Secada y otros artistas buscan un nuevo himno para Miami

marzo 19, 2026 11004
Internacional

Irán difunde el vídeo de un presunto ataque contra un caza furtivo F-35 de EEUU en su espacio aéreo

marzo 19, 2026 12064
Internacional

Los ataques de Irán en el Golfo acaban con la paciencia de los países árabes, que amenazan con responder a nuevas agresiones

marzo 19, 2026 7629
Internacional

Trump defiende no haber informado a Japón ni a Europa del ataque a Irán: «¿Por qué no me avisaron de lo de Pearl Harbor?»

marzo 19, 2026 11745
Sociedad

SILVIA MEDINA NUÑEZ (Q.E.P.D.)

marzo 19, 2026 3557
Salud

La ‘ruta del eccema’: identifican el mecanismo que usa el cerebro para inflamar la piel cuando tenemos estrés

marzo 19, 2026 2019
Cargar más
“Educando Valientes”: Un Libro que Revoluciona la Lucha contra el Acoso Escolar

“Educando Valientes”: Un Libro que Revoluciona la Lucha contra el Acoso Escolar

enero 21, 2025

Nueva York vibra con el flamenco y celebra a Sabicas en la 25 edición del Flamenco Festival

marzo 14, 2026

‘The Romantic’ de Bruno Mars se queda sin el número 1 en las listas de discos de mayor éxito en España

marzo 9, 2026

Investigadores advierten de que ChatGpt Salud subestima más de la mitad de los casos de emergencia, entre ellos los de personas en riesgo de suicidio

marzo 5, 2026

MARÍA ISABEL BANDERA (Q.E.P.D.)

marzo 8, 2026

Placebo anuncia conciertos en Madrid y Barcelona por su 30 años de historia

marzo 18, 2026
Alejandro Prado Jatar publica una obra brillante que mezcla humor y reflexión en pequeñas dosis literarias

Alejandro Prado Jatar publica una obra brillante que mezcla humor y reflexión en pequeñas dosis literarias

julio 16, 2025
Firma de libros de Rebeca García-Noblejas Moya en la parada de la Editorial Letrame

Firma de libros de Rebeca García-Noblejas Moya en la parada de la Editorial Letrame

abril 24, 2025

El nuevo vídeo de Netanyahu para demostrar su buen estado de salud no evita comentarios en las redes: «¡Le desaparece un anillo!»

marzo 16, 2026
“Como si no nos conociéramos”: una historia sobre amor, manipulación y resiliencia.

“Como si no nos conociéramos”: una historia sobre amor, manipulación y resiliencia.

abril 25, 2025

    UruguayAlMomento

    © 2023. UruguayAlMomento. Todos los derechos reservados.
    • Política de Cookies
    • Política de Privacidad
    • Aviso Legal
    • Contacto
    • Sobre Nosotros