noticias

La jueza le preguntó al Pentágono por qué baneó a Anthropic y el DOD no tuvo respuesta: lo que pasó en la corte de San Francisco

noticias · 6 min de lectura

La jueza le preguntó al Pentágono por qué baneó a Anthropic y el DOD no tuvo respuesta: lo que pasó en la corte de San Francisco

El ejército de EUA usó Claude para identificar 1,000 blancos en Irán mientras el gobierno lo tiene baneado. Ayer la jueza Rita Lin presionó al Pentágono y dijo lo que todos pensaban: esto parece un intento de aplastar a Anthropic.

La jueza le preguntó al Pentágono por qué baneó a Anthropic y el DOD no tuvo respuesta: lo que pasó en la corte de San Francisco

El ejército de los Estados Unidos usó Claude para identificar más de 1,000 blancos militares en Irán durante las primeras 24 horas de ataques. El mismo Claude que el gobierno de Trump tiene oficialmente baneado. Si eso no te parece una contradicción absurda, espera a escuchar lo que pasó ayer en la corte federal de San Francisco.

La audiencia que nadie del Pentágono quería tener

El 24 de marzo, los abogados de Anthropic se presentaron ante la jueza federal Rita Lin para pedir una medida cautelar: que se pause temporalmente la designación del Departamento de Defensa (DOD) que clasifica a Anthropic como un “riesgo en la cadena de suministro”. La jueza los escuchó a todos, y luego soltó lo que muchos ya pensaban.

“Me parece problemático,” dijo Lin. “Estas tres acciones no parecen estar calibradas para atender la preocupación de seguridad nacional que se menciona. Si el problema es la integridad de la cadena de mando operacional, el Pentágono simplemente podría dejar de usar Claude.”

Y remató: “Parece un intento de aplastar a Anthropic.”

CNBC reportó en vivo desde la audiencia que la jueza presionó directamente al abogado del gobierno, Eric Hamilton, cuestionando si el DOD violó la ley al usar una designación que normalmente se reserva para entidades extranjeras potencialmente hostiles. Aparentemente, es la primera vez en la historia que esta etiqueta se aplica contra una empresa estadounidense.

Hamilton respondió que el Pentágono “llegó a preocuparse de que Anthropic pueda en el futuro tomar acciones para sabotear o subvertir sistemas de TI.” Sin más pruebas. Sin más explicación.

¿Qué es eso de “supply chain risk” y por qué importa?

La designación de “riesgo en la cadena de suministro” no es cosa menor. Cuando el DOD pega esa etiqueta a una empresa, obliga a todos los contratistas de defensa, Amazon, Microsoft y Palantir entre ellos, a certificar que no hacen negocio con esa compañía en sus proyectos militares.

En la práctica: si eres un contratista que usa Claude en cualquier parte de tu stack, aunque sea para redactar documentos internos, tienes un problema legal enorme. The Hill confirmó que la etiqueta “threw agencies into limbo” ya que nadie sabe exactamente qué actividades están prohibidas y cuáles no.

Anthropic argumenta que esto le puede costar miles de millones de dólares en contratos. Y la jueza parece estar de acuerdo en que el mecanismo es desproporcionado.

El pedo de origen: Dario Amodei dijo que no

Todo empezó cuando Anthropic y el DOD estaban negociando el uso de Claude en la plataforma GenAI.mil del ejército. Las pláticas se fueron a la b cuando Anthropic puso sus condiciones: Claude no puede usarse para armas autónomas letales ni para vigilancia masiva de ciudadanos estadounidenses.

El CEO Dario Amodei lo dijo públicamente a finales de febrero. Trump respondió con un ban a nivel gobierno. Hegseth firmó la designación de “supply chain risk” días después.

El abogado de Anthropic, Michael Mongan, lo resumió bien en la audiencia: “Un saboteador no va a pelearse públicamente con el gobierno. Un saboteador se queda callado y hace el daño desde adentro.”

Es una lógica difícil de rebatir.

La contradicción que nadie en el DOD sabe cómo explicar

Aquí está el punto más arrecho de toda la historia: mientras el gobierno de Trump banea oficialmente a Anthropic y la etiqueta como amenaza nacional, el Comando Central de EUA (CENTCOM) estuvo usando Claude activamente para procesar imágenes satelitales, interceptaciones de señales e inteligencia de todo tipo en la campaña contra Irán.

Washington Post reportó que Claude fue usado para identificar más de 1,000 objetivos militares en las primeras 24 horas de ataques. The Hill lo confirmó por separado citando fuentes oficiales del Pentágono.

La justificación del DOD es que necesitan “tiempo razonable para reemplazar los sistemas”. Traducido: el ban es real, pero no tanto.

Palantir, uno de los principales contratistas del ejército, también sigue usando Claude. Su CEO Alex Karp lo dijo sin rodeos a mediados de marzo.

Esto no es solo una contradicción política. En términos legales, debilita significativamente el argumento del gobierno de que Anthropic representa una amenaza real para la seguridad nacional. Si fuera un riesgo tan serio, ¿por qué siguen usándolo para identificar blancos en una guerra activa?

¿Qué sigue después de la audiencia?

La jueza Lin dijo que espera emitir su resolución en los próximos días. Anthropic pidió un fallo antes del 26 de marzo, aunque el tribunal no está obligado a cumplir ese plazo.

Si Lin otorga la medida cautelar, la designación de “supply chain risk” queda suspendida mientras avanza el proceso legal. Si no la otorga, Anthropic tendrá que seguir lidiando con el daño comercial mientras el caso sigue en tribunales.

Los amicus briefs presentados al caso, analizados por TechPolicy.Press, incluyen a expertos en derecho y tecnología que argumentan que la designación no tiene sustento legal real.

¿Qué significa esto para quienes usamos Claude en LATAM?

La situación no afecta directamente a usuarios de Claude en México o LATAM, la API sigue funcionando y los precios no han cambiado. Pero hay implicaciones que vale la pena seguir.

Primero: si el DOD puede designar como “amenaza” a una empresa de IA estadounidense por negarse a cumplir ciertas peticiones de uso, eso establece un precedente preocupante sobre cómo los gobiernos pueden presionar a empresas tech para ceder en sus políticas de uso.

Segundo: Anthropic estaba en conversaciones avanzadas con grandes contratistas como Amazon Web Services para expandir Claude en servicios enterprise globales. Si el caso sale mal, esos contratos están en riesgo, y eso afecta el ritmo de adopción de Claude en la región.

Como ya cubrimos en nuestro análisis sobre Claude Code vs. Cursor y las herramientas de IA para programar, Claude tiene una de las posiciones más fuertes en el mercado enterprise precisamente por sus políticas de seguridad responsables. Ironicamente, esas mismas políticas son las que lo metieron en este lío.

Y hablando de presiones externas sobre las empresas de IA, este caso tiene eco directo en lo que ya advertíamos sobre si la burbuja de la IA está a punto de tronar: los vaivenes políticos son exactamente el tipo de riesgo que los analistas más conservadores están señalando.

Hay también una capa adicional: este caso podría sentar jurisprudencia sobre si el gobierno puede usar designaciones de seguridad nacional como herramienta de presión contra empresas que no ceden en sus políticas de uso. Eso va mucho más allá de Anthropic.

El fondo real del asunto

El argumento de Anthropic no es “el ejército no puede usar IA”. Es “el ejército no puede usar nuestra IA para cosas que nosotros consideramos inaceptables”. Eso es exactamente lo que hacen los contratos de licencia de cualquier software.

El Pentágono lo que quiere es acceso irrestricto sin rendir cuentas a nadie, ni siquiera al proveedor del servicio. Y cuando Anthropic dijo que no, la respuesta fue usar el aparato de seguridad nacional para presionar.

La jueza Lin parece haberlo entendido. El DOD, en cambio, no tuvo una respuesta convincente.

El fallo llega en cuestión de días. Estén pendientes.


¿Qué opinan de esto? ¿Anthropic hizo bien en plantar su postura o fue un error pelearse con el ejército? Tírenlo en comentarios.

Fuentes

Comentarios

No te pierdas ningún post

Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.

También te puede interesar