El Departamento de Defensa de EUA exige acceso irrestricto a los modelos de la empresa Anthropic, incluida su herramienta Claude, y advierte con excluirla de contratos o aplicar la Ley de Producción de Defensa si no coopera. La firma tecnológica se resiste por razones éticas y de seguridad.
El Pentágono elevó la presión contra Anthropic, una de las startups más relevantes en inteligencia artificial, al exigir acceso total a sus modelos para uso militar, incluso en escenarios clasificados. El secretario de Defensa,Pentágono, advirtió que, si la empresa no acepta, podría ser excluida de la cadena de suministro del Gobierno de EUA.
La otra amenaza es aún más contundente: invocar la Ley de Producción de Defensa, una norma de la Guerra Fría que permite al presidente ordenar a empresas privadas priorizar contratos por razones de seguridad nacional. De acuerdo con reportes citados por medios internacionales, el ultimátum fija un plazo inmediato para que la compañía ceda.
Anthropic, fundada en 2021 por exintegrantes de OpenAI, ha rechazado permitir el uso irrestricto de su chatbot Claude en operaciones letales sin supervisión humana o vigilancia masiva interna, al considerar que ese tipo de aplicaciones no son responsables con la tecnología actual.
La tensión es significativa porque la empresa ya mantiene contratos millonarios con el Departamento de Defensa. En 2025 obtuvo un acuerdo por 200 millones de dólares para desarrollar capacidades avanzadas de IA. El choque revela el nuevo campo de batalla: quién controla la inteligencia artificial en materia de seguridad nacional.


Deja un comentario