Microsoft manifestó este martes su respaldo a Anthropic, solicitando a un juez federal que emita una orden de restricción temporal para frenar la designación del Pentágono que cataloga a la firma de inteligencia artificial como un riesgo para la cadena de suministro. La tecnológica advirtió que, sin esta medida, el Ejército enfrentaría interrupciones críticas en el uso de herramientas avanzadas, obligando a los contratistas de defensa a modificar de inmediato sus infraestructuras tecnológicas para cumplir con la prohibición impuesta por el Departamento de Defensa (DOD).
No te pierdas: Anthropic demanda al Pentágono tras ser catalogada como riesgo para la seguridad nacional
¿Por qué el Pentágono considera a una firma estadounidense como un peligro para la seguridad nacional?
El conflicto escaló tras el fracaso en las negociaciones sobre el uso ético de los modelos de IA denominados Claude. Anthropic exigía garantías de que su tecnología no se emplearía en armas autónomas ni en vigilancia masiva, mientras que el DOD demandaba acceso total para cualquier fin legal.
Ante la falta de acuerdo, el gobierno aplicó una etiqueta de riesgo que suele reservarse para adversarios extranjeros, lo que pone en peligro contratos estimados en cientos de millones de dólares. Microsoft, que planea invertir hasta $5 mil millones en la empresa, intervino legalmente para evitar que este veto obstaculice a los combatientes en momentos críticos y fuerce cambios abruptos en los contratos vigentes.
No te pierdas: Anthropic acelera la carrera de la IA con Claude Sonnet 4.6 y pone a temblar a ChatGPT y Gemini
¿Qué está en juego para el futuro de la inteligencia artificial y el control humano en la guerra?
La disputa legal liderada por Anthropic contra la administración actual busca frenar lo que califican como una acción “ilegal y sin precedentes”. Microsoft argumenta que una orden judicial permitiría una resolución negociada que asegure el acceso militar a la innovación sin sacrificar la supervisión humana.
Anthropic, valorada en $380 mil millones y fundada por exejecutivos de OpenAI, se ha posicionado como un socio estratégico para Google y Amazon. El resultado de este litigio definirá si el Estado puede forzar el uso irrestricto de innovaciones privadas o si prevalecerán los marcos de seguridad ética propuestos por las empresas tecnológicas.
Este enfrentamiento legal tiene repercusiones directas para la comunidad latina en el ámbito tecnológico. Dado que una parte creciente trabaja en servicios de infraestructura digital y defensa, las restricciones abruptas a herramientas de IA podrían limitar su competitividad laboral. Además, el debate sobre el uso de esta tecnología para la vigilancia nacional es una preocupación latente para los grupos civiles hispanos, quienes abogan por la protección de la privacidad y los derechos fundamentales frente a la supervisión gubernamental.
La tensión entre la ética corporativa y la seguridad nacional marca un punto de inflexión para el mercado tecnológico. La resolución de este caso determinará la estabilidad de las inversiones multimillonarias y la confianza de los contratistas en el ecosistema de defensa. Económicamente, el fallo judicial dictará si la soberanía tecnológica de EE. UU. se construye mediante la colaboración o la imposición administrativa.
Mira la señal en vivo de Comercio TV aquí y mantente al día en la actualidad financiera








