La inteligencia artificial ya no es solo una carrera tecnológica. Es una carrera geopolítica. Y en medio de esa tensión, Anthropic ha decidido plantar cara al Pentágono.

La compañía responsable del modelo Claude se enfrenta al Departamento de Defensa de Estados Unidos por algo muy concreto: sus líneas rojas éticas. El Gobierno quiere más libertad para usar la IA en entornos militares. Anthropic, de momento, dice no.

¿Qué está exigiendo el Pentágono?

Según el informe, el Departamento de Defensa ha pedido a Anthropic que elimine las restricciones que impiden el uso total de sus modelos en operaciones sensibles, incluyendo:

  • Aplicaciones de vigilancia masiva.
  • Sistemas militares avanzados potencialmente automatizados.
  • Integración en entornos clasificados sin limitaciones adicionales.

La postura del Gobierno es clara: si el uso es legal bajo la ley estadounidense, no debería haber vetos privados adicionales.

Pero ahí es donde empieza el choque.

Las líneas rojas de Anthropic

Anthropic ha construido su identidad corporativa sobre el concepto de “IA responsable”. Entre sus límites más importantes destacan:

  • No permitir vigilancia masiva de ciudadanos estadounidenses.
  • No facilitar el desarrollo de armas autónomas letales totalmente controladas por IA.
  • Mantener controles de uso incluso en contratos gubernamentales.

Estas restricciones forman parte del ADN de la empresa. Eliminarlas no sería un simple ajuste técnico, sino un cambio filosófico profundo.

El factor Claude Gov y el contrato millonario

La tensión resulta aún más relevante porque Anthropic ya trabaja con el Gobierno.

La empresa lanzó Claude Gov, una versión especializada para agencias de seguridad e inteligencia. Posteriormente recibió un contrato de 200 millones de dólares por parte del Departamento de Defensa.

Actualmente es una de las pocas compañías de IA que operan en sistemas clasificados del Pentágono.

Eso convierte este desacuerdo en algo mucho más serio que un simple conflicto contractual.

¿Qué puede hacer Estados Unidos ahora?

El Pentágono tiene varias opciones:

  1. Cancelar el contrato y recurrir a otras empresas de IA más flexibles.
  2. Declarar a Anthropic un riesgo estratégico dentro de la cadena de suministro.
  3. Invocar la Defense Production Act de 1950, una ley que permite intervenir tecnología estratégica en situaciones de emergencia nacional.

Este último escenario sería explosivo. Implicaría que el Estado podría forzar el uso de tecnología privada en nombre de la seguridad nacional.

Y ese precedente cambiaría el equilibrio de poder entre Silicon Valley y Washington.

Puedes seguir a HardwarePremium en FacebookTwitter (X)InstagramThreads, BlueSky o Youtube. También puedes consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.

FAQ

¿Por qué el Pentágono presiona a Anthropic?

Porque quiere eliminar las restricciones éticas que limitan el uso de su IA en aplicaciones militares y de seguridad nacional.

¿Qué son las “líneas rojas” de Anthropic?

Son límites que impiden que sus modelos de IA se utilicen para vigilancia masiva o armas autónomas sin supervisión humana.

¿Qué es Claude Gov?

Es una versión del modelo de IA de Anthropic diseñada específicamente para agencias gubernamentales y entornos clasificados.

¿Puede el Gobierno obligar a la empresa a ceder?

Podría intentar usar leyes como la Defense Production Act, pero sería una decisión polémica con implicaciones legales y políticas importantes.

¿Qué implica este conflicto para el futuro de la IA?

Podría definir quién tiene el control final sobre la tecnología avanzada: las empresas privadas o los gobiernos.