Anthropic contraatacó el viernes después de que el secretario de Defensa de los Estados Unidos, Pete Hegseth, ordenara al Pentágono que designara a la empresa emergente de inteligencia artificial (IA) como un «riesgo para la cadena de suministro».

«Esta acción sigue a meses de negociaciones que llegaron a un punto muerto sobre dos excepciones que solicitamos al uso legal de nuestro modelo de inteligencia artificial, Claude: la vigilancia doméstica masiva de los estadounidenses y las armas totalmente autónomas», dijo la empresa dijo .

«Ninguna cantidad de intimidación o castigo por parte del Departamento de Guerra cambiará nuestra posición sobre la vigilancia doméstica masiva o las armas totalmente autónomas».

En una publicación de redes sociales en Truth Social, el presidente de los Estados Unidos, Donald Trump dijo estaba ordenando a todos los organismos federales que eliminaran gradualmente el uso de la tecnología antrópica en los próximos seis meses. Una publicación posterior de Hegseth en X ordenaba que todos los contratistas, proveedores y socios que hicieran negocios con el ejército estadounidense cesaran de inmediato cualquier «actividad comercial con Anthropic».

adsense

«Junto con la directiva del presidente para que el Gobierno Federal deje de utilizar la tecnología de Anthropic, ordeno al Departamento de Guerra que designe a Anthropic como un riesgo de cadena de suministro para la seguridad nacional», dijo Hegseth escribió .

La designación se produce después de semanas de negociaciones entre el Pentágono y Anthropic sobre el uso de sus modelos de IA por parte del ejército estadounidense. En una publicación publicada esta semana, la empresa rebatió que sus contratos no deben facilitar la vigilancia doméstica masiva ni el desarrollo de armas autónomas.

«Apoyamos el uso de la IA para misiones legales de inteligencia y contrainteligencia extranjeras», señaló Anthropic. «Sin embargo, el uso de estos sistemas para la vigilancia doméstica masiva es incompatible con los valores democráticos. La vigilancia masiva impulsada por la inteligencia artificial presenta riesgos nuevos y graves para nuestras libertades fundamentales».

La empresa también denunció la posición del Departamento de Guerra de los Estados Unidos (DoW) de que solo trabajará con empresas de inteligencia artificial que permitan «cualquier uso legal» de la tecnología y, al mismo tiempo, eliminarán todas las salvaguardias que puedan existir, como parte de los esfuerzos por crear una fuerza de guerra que dé prioridad a la IA y reforzar la seguridad nacional.

«La diversidad, la equidad y la inclusión y la ideología social no tienen cabida en el DoW, por lo que no debemos emplear modelos de IA que incorporen una «sintonía» ideológica que interfiera con su capacidad de ofrecer respuestas objetivamente veraces a las instrucciones de los usuarios», decía un memorándum emitido por el Pentágono lecturas del mes pasado.

«El Departamento también debe utilizar modelos libres de restricciones de políticas de uso que puedan limitar las aplicaciones militares legales».

En respuesta a la designación, Anthropic la describió como «legalmente errónea» y dijo que sentaría un precedente peligroso para cualquier empresa estadounidense que negocie con el gobierno. También señaló que una designación de riesgo para la cadena de suministro en 10 USD 3252 solo puede extenderse al uso de Claude como parte de los contratos de DoW y no puede afectar al uso de Claude para atender a otros clientes.

enlaces

Cientos de empleados de Google y OpenAI tienen firmó una carta abierta instando a sus empresas a apoyar a Anthropic en su enfrentamiento con el Pentágono por las aplicaciones militares de herramientas de inteligencia artificial como Claude.

El un enfrentamiento entre Anthropic y el gobierno de los Estados Unidos se produce cuando el CEO de OpenAI, Sam Altman, dijo que OpenAI llegó a un acuerdo con el Departamento de Defensa (DoD) de los Estados Unidos para implementar sus modelos en su red clasificada. También pidió al DoD que extendiera esas condiciones a todas las empresas de inteligencia artificial.

«La seguridad de la IA y la amplia distribución de los beneficios son el núcleo de nuestra misión. Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva nacional y la responsabilidad humana por el uso de la fuerza, incluidos los sistemas de armas autónomos», dijo Altman dijo en una publicación en X. «El DoW está de acuerdo con estos principios, los refleja en la ley y la política, y los incluimos en nuestro acuerdo».

¿Te ha parecido interesante este artículo? Síguenos en Noticias de Google , Twitter y LinkedIn para leer más contenido exclusivo que publicamos.