Tech
Guerra de inteligencias: Anthropic desafía a Trump mientras OpenAI se alía con el Pentágono
La carrera por el dominio de la inteligencia artificial aplicada a fines militares ha desatado una batalla silenciosa pero crucial en Estados Unidos. En un extremo del ring, la empresa Anthropic se ha convertido en la primera desarrolladora de IA en desafiar abiertamente las exigencias del gobierno de Donald Trump. En el otro, OpenAI, creadora de ChatGPT, acaba de sellar una alianza estratégica con el Pentágono que podría redefinir el futuro de la tecnología bélica.
El conflicto, que enfrenta a dos de las compañías más influyentes del sector, no solo evidencia las tensiones éticas en torno a la inteligencia artificial, sino que también plantea interrogantes sobre los límites que deben imponerse a la tecnología cuando está en juego la seguridad nacional.
El principio del fin: Anthropic dice “no” al gobierno
Anthropic, la empresa fundada en 2021 por los hermanos Daniela y Dario Amodei —ambos exingenieros de OpenAI—, se convirtió en el centro de la polémica tras negarse a ceder el control total de su tecnología al Departamento de Guerra de Estados Unidos.
La compañía, conocida por desarrollar a Claude —uno de los asistentes de IA más avanzados del mundo, especializado en análisis de datos y redacción de alta calidad—, había logrado un contrato millonario por 200 millones de dólares con el ejército estadounidense en 2025. Sin embargo, el acuerdo original incluía cláusulas restrictivas que la administración Trump pretendía eliminar.
El gobierno exigió a Anthropic firmar un nuevo contrato que permitiera el uso sin limitaciones de sus modelos de inteligencia artificial, incluyendo aplicaciones para vigilancia masiva de la ciudadanía y el desarrollo de sistemas de armas autónomos sin supervisión humana. La respuesta de la compañía fue un rotundo “no”.
Las líneas rojas de Anthropic
Los hermanos Amodei, que fundaron Anthropic precisamente con la misión de desarrollar una IA más segura y con límites éticos claros, defendieron su postura basándose en principios fundamentales.
“Nuestros modelos no pueden ser utilizados para vigilancia masiva de ciudadanos —algo que, por cierto, ya está prohibido por la ley estadounidense— ni para sistemas de armas autónomas que operen sin supervisión humana”, argumentaron fuentes cercanas a la compañía.
Esta postura, inusual en un sector donde las empresas tecnológicas suelen poner todos sus avances al servicio de los gobiernos, provocó un tenso diálogo entre Anthropic y la administración Trump durante las últimas semanas de febrero de 2026. Finalmente, las negociaciones colapsaron sin llegar a ningún acuerdo.
La respuesta del presidente Trump no se hizo esperar: ordenó a todas las agencias federales que dejaran de utilizar la tecnología de Anthropic, iniciando un veto comercial contra la empresa que podría tener consecuencias devastadoras para su futuro.
OpenAI da el paso al frente
Mientras Anthropic se convertía en una suerte de “oveja negra” para la administración Trump, OpenAI jugaba sus cartas en la dirección opuesta. Apenas días después del veto a su competidora, Sam Altman, consejero delegado de OpenAI, sorprendió al mundo tecnológico con un anuncio que muchos calificaron de contradictorio.
La empresa responsable de ChatGPT había llegado a un acuerdo con el Pentágono para poner toda su tecnología y modelos de IA al servicio del gobierno, específicamente para la gestión de archivos clasificados.
El anuncio generó revuelo no solo por el contenido del pacto, sino porque Altman había manifestado públicamente su respaldo a la postura ética de Anthropic en el pasado. ¿Qué había cambiado?
Las garantías de OpenAI
En un mensaje difundido a través de sus canales oficiales, Altman explicó los términos del acuerdo y las salvaguardas incluidas para evitar usos indebidos de la tecnología.
“Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva nacional y la responsabilidad humana por el uso de la fuerza, incluyendo los sistemas de armas autónomas. El Departamento de Guerra coincide con estos principios, los refleja en la legislación y las políticas, y los incorporamos en nuestro acuerdo”, declaró el ejecutivo.
Según Altman, el acuerdo incluye garantías explícitas para que el gobierno respete las normas de seguridad sobre el uso de la IA, y el propio consejero delegado aprovechó para pedir al Departamento de Defensa que aplicara estas mismas condiciones al resto de empresas desarrolladoras del sector, en una clara referencia a lo ocurrido con Anthropic.
Dos visiones encontradas para un mismo futuro
El cisma entre Anthropic y OpenAI refleja una tensión profunda en la industria tecnológica: ¿hasta dónde deben llegar las empresas en su colaboración con los gobiernos? ¿Es posible establecer límites éticos sin renunciar a los contratos millonarios que garantizan la supervivencia de estas compañías?
Por un lado, Anthropic se erige como la defensora de una IA con principios, dispuesta a sacrificar el negocio antes que comprometer sus valores fundacionales. Por otro, OpenAI apuesta por la vía del diálogo y la negociación, confiando en que los marcos legales existentes son suficientes para evitar abusos.