El director de tecnología del Pentágono dice que se enfrentó con la empresa de inteligencia industrial Anthropic por la combate autónoma

Un stop funcionario del Pentágono dijo que la disputa de Anthropic con el gobierno sobre el uso de su tecnología de inteligencia industrial en armas totalmente autónomas se produjo a posteriori de un debate sobre cómo se podría utilizar la IA en el futuro software de defensa antimisiles Golden Dome del presidente Donald Trump, cuyo objetivo es colocar armas estadounidenses en el espacio.

El subsecretario de Defensa de Estados Unidos, Emil Michael, director de tecnología del Pentágono, dijo que llegó a ver las restricciones éticas de la compañía de inteligencia industrial sobre el uso de su chatbot Claude como un obstáculo irracional mientras el ejército estadounidense rebusca dar anciano autonomía a enjambres de drones armados, vehículos submarinos y otras máquinas para competir con rivales como China que podrían hacer lo mismo.

“Necesito un socio confiable y estable que me brinde poco, que trabaje conmigo de forma autónoma, porque algún día será auténtico y estamos empezando a ver versiones anteriores de eso”, dijo Michael en un podcast transmitido el viernes. “Necesito a alguno que no se enoje en el medio”.

Los comentarios se produjeron a posteriori de que el Pentágono designara formalmente a Anthropic, con sede en Francisco, un aventura para la condena de suministro, interrumpiendo su trabajo de defensa utilizando una regla diseñada para evitar que adversarios extranjeros dañen los sistemas de seguridad franquista.

Anthropic ha prometido presentar una demanda por la designación, que afecta sus asociaciones comerciales con otros contratistas militares.

Trump incluso ordenó a las agencias federales que dejen de usar Claude de inmediato, aunque el presidente republicano le dio al Pentágono seis meses para eliminar gradualmente un producto que está profundamente arraigado en sistemas militares clasificados, incluidos los utilizados en la combate de Irán.

Anthropic dijo que solo buscaba restringir el uso de su tecnología para dos usos de stop nivel: vigilancia masiva de estadounidenses o armas totalmente autónomas.

Michael, un ex ejecutante de Uber, reveló su lectura de las conversaciones de meses con el director ejecutante de Anthropic, Dario Amodei, en una larga conversación con los capitalistas de aventura de Silicon Valley Jason Calacanis, David Friedberg y Chamath Palihapitiya, copresentadores del podcast “All-In”.

Un cuarto coanfitrión, el ex ejecutante de PayPal David Sacks, es ahora el zar de la IA de Trump y no estuvo presente en el episodio, pero ha sido un crítico libre de Anthropic, incluso por la contratación de ex funcionarios de la delegación Biden poco a posteriori de que Trump regresara a la Casa Blanca el año pasado.

Cuando las conversaciones llegaron a un punto muerto la semana pasada, Michael arremetió contra Amodei en las redes sociales, diciendo que “tiene un enrevesado de Todopoderoso” y “no quiere nulo más que tratar de controlar personalmente” a los militares. Sin confiscación, en el podcast posicionó la disputa como parte de un cambio marcial más amplio con destino a el uso de la IA.

Michael dijo que el ejército está desarrollando procedimientos para permitir diferentes niveles de autonomía en la combate dependiendo del aventura planteado.

“Esto es parte del debate que tuve con Anthropic, que es que necesitamos IA para cosas como Golden Dome”, dijo Michael, compartiendo un atmósfera hipotético en el que Estados Unidos tuviera sólo 90 segundos para reponer a un misil hipersónico chino.

Un cámara humano antimisiles “puede que no sea capaz de discriminar con sus propios fanales lo que está persiguiendo”, pero un contraataque autónomo sería de bajo aventura “porque está en el espacio y sólo estás tratando de pegar poco que está tratando de atraparte”.

En otro atmósfera, dijo, “¿quién podría oponerse a que si tienes una cojín marcial, tienes un corro de soldados durmiendo, tienes un láser que puede derribar drones de forma autónoma?”

En respuesta a los comentarios del podcast, Anthropic señaló una revelación preliminar de Amodei que decía: “Anthropic entiende que el Sección de Pelea, no las empresas privadas, toma las decisiones militares. Nunca hemos planteado objeciones a operaciones militares particulares ni hemos intentado lindar el uso de nuestra tecnología de forma a propósito”.

Michael, subsecretario de Defensa para investigación e ingeniería, prestó blasfemia en mayo pasado y dijo que se hizo cargo de la “cartera de inteligencia industrial” del ejército en agosto. Fue entonces cuando dijo que comenzó a escudriñar los contratos de Anthropic, algunos de los cuales databan de la delegación demócrata del presidente Joe Biden. Michael dijo que cuestionó a Anthropic sobre los términos de uso que consideraba demasiado restrictivos.

“Necesito que los términos de servicio sean racionales en relación con nuestra ocupación establecida”, dijo. “Así que comenzamos estas negociaciones. Nos llevó tres meses y tuve que darles escenarios, como este ejemplo del misil hipersónico chino. Ellos dijeron: ‘Está perfectamente, les daremos una excepción para eso’. Bueno, ¿qué tal este enjambre de drones? “Haremos una excepción para eso”. Y yo estaba como, las excepciones no funcionan. No puedo predecir para los próximos 20 abriles cuáles serán todas las cosas para las que podríamos usar la IA”.

Fue entonces cuando el Pentágono comenzó a insistir en que Anthropic y otras empresas de inteligencia industrial permitieran “todo uso judicial” de su tecnología, dijo Michael.

Anthropic se resistió a ese cambio, mientras que sus competidores (Google, OpenAI y xAI de Elon Musk) aceptaron, aunque algunos todavía tienen que preparar su infraestructura para trabajos militares clasificados, dijo Michael. El otro punto conflictivo de Anthropic fue no permitir ninguna vigilancia masiva de los estadounidenses.

“No querían que recopiláramos información pública en masa sobre las personas que usaban su sistema de inteligencia industrial”, dijo Michael, describiendo las negociaciones como “interminables”.

Anthropic ha cuestionado partes de la lectura de Michael sobre las conversaciones y enfatizó que las protecciones que buscaba eran limitadas y no se basaban en ningún uso existente de Claude. La sucesivo etapa de la disputa probablemente tendrá división en los tribunales.

Leave a Comment