Tech
Trump ordena a todo el gobierno de Estados Unidos dejar de usar la inteligencia artificial de Anthropic por negarse a ceder el control total
La Administración Trump ha roto de manera abrupta y definitiva su relación con Anthropic, la empresa desarrolladora del modelo de inteligencia artificial Claude. Por orden directa del presidente, todas las agencias federales tienen un plazo de seis meses para eliminar cualquier vínculo con la compañía, en una decisión que refleja la creciente tensión entre el gobierno estadounidense y las empresas tecnológicas que intentan poner límites éticos al uso de sus herramientas.
“Ordeno a TODAS las agencias federales del gobierno de Estados Unidos que CESEN INMEDIATAMENTE el uso de la tecnología de Anthropic. ¡No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos!”, escribió Donald Trump en su plataforma Truth Social, en un mensaje que no dejaba espacio para la negociación.
El origen del conflicto: condiciones que enfurecieron al Pentágono
La relación entre el gobierno estadounidense y Anthropic se remontaba a un acuerdo valorado en 200 millones de dólares, cuyo objetivo declarado era “crear prototipos de inteligencia artificial de vanguardia que mejoren la seguridad nacional de Estados Unidos”, según informó Deutsche Welle.
Sin embargo, la empresa californiana, conocida por su enfoque en el desarrollo seguro de la inteligencia artificial, había impuesto una serie de condiciones que, desde la perspectiva de la Casa Blanca y el Pentágono, resultaban inaceptables. Entre ellas figuraban la prohibición de que los soldados hicieran “uso pleno” de la IA, la limitación para emprender operaciones de vigilancia masiva sobre la población utilizando Claude, y la exigencia de que ninguna decisión final en materia militar quedara en manos de la inteligencia artificial sin intervención humana.
Estas cláusulas, diseñadas para prevenir abusos y garantizar un control ético de la tecnología, chocaron frontalmente con las aspiraciones de una Administración que, según fuentes consultadas, buscaba un acceso sin restricciones a las capacidades de la IA.
Presión y ultimátum
El Pentágono, a través del recién confirmado Secretario de Defensa, Pete Hegseth, habría presionado a Anthropic para que cediera y aceptara eliminar cualquier limitación al uso de su tecnología. Según las informaciones disponibles, la empresa recibió un ultimátum que expiraba el pasado 27 de febrero: o aceptaba el control total por parte del gobierno, o se enfrentaba a las consecuencias.
La negativa de Anthropic a doblegarse desencadenó la respuesta inmediata de la Administración. Hegseth ratificó la orden presidencial y añadió una disposición adicional de gran alcance: “Ordeno al Departamento de Guerra que designe a Anthropic como un Riesgo para la Cadena de Suministro y la Seguridad Nacional. Con efecto inmediato, ningún contratista, proveedor o socio que haga negocios con las fuerzas armadas de Estados Unidos podrá realizar ninguna actividad comercial con Anthropic”.
La medida, en la práctica, supone un bloqueo comercial total para la empresa en el ámbito de la defensa estadounidense, y extiende el veto más allá de las agencias gubernamentales para alcanzar a toda la red de contratistas y proveedores del Pentágono.
Seis meses de transición bajo amenaza
A pesar de la dureza de la orden, Trump ha concedido un período de transición de seis meses para que el Departamento de Guerra pueda encontrar una alternativa viable. En este contexto, todas las miradas apuntan a Grok, la inteligencia artificial desarrollada por xAI, la empresa de Elon Musk, estrecho aliado del presidente.
Sin embargo, la salida de Anthropic no será pacífica. El mensaje de Trump contenía una advertencia explícita: “Anthropic debería ponerse las pilas y ser útil durante este período de retirada gradual, o utilizaré todo el poder de la Presidencia para obligarlos a cumplir, con importantes consecuencias civiles y penales por venir”.
La amenaza de acciones legales y penales contra una empresa privada por negarse a cumplir las exigencias gubernamentales ha encendido las alarmas entre los defensores de los derechos civiles y los expertos en ética tecnológica.
Un precedente preocupante
Más allá del conflicto específico con Anthropic, la decisión de la Administración Trump plantea interrogantes de calado sobre el futuro de la inteligencia artificial y su relación con el poder político. Lo que enfureció a la Casa Blanca no fue un incumplimiento contractual, sino precisamente las salvaguardas que Anthropic había incorporado para impedir usos que considera contrarios a sus principios éticos: la vigilancia masiva de la población y la autonomía letal en el campo de batalla.
La decisión de Trump de cortar lazos con la empresa por negarse a facilitar esos usos, y la posterior designación de Anthropic como una “amenaza para la seguridad nacional”, sientan un precedente inquietante: a partir de ahora, cualquier empresa tecnológica que intente poner límites al uso militar o de vigilancia de sus productos podría enfrentarse al veto gubernamental y a consecuencias legales.
La noticia ha cobrado especial relevancia en México después de que esta semana se viralizara el caso de un usuario que presuntamente utilizó Claude para acceder a millones de datos del gobierno mexicano. Sin embargo, el trasfondo de la decisión de Trump va mucho más allá de anécdotas virales: apunta a una concepción del poder en la que la tecnología debe estar al servicio del Estado sin restricciones, y en la que cualquier intento de establecer límites éticos es percibido como una amenaza.











