El secretario de Defensa de Estados Unidos Pete Hegseth, fijó un plazo, hasta el 27 de febrero, a Dario Amodei, director ejecutivo de la empresa Anthropic, para que dé acceso sin restricciones al Pentágono a su modelo de inteligencia artificial, a lo que el contratista se ha negado anteriormente.

De acuerdo con fuentes que hablaron con el portal ‘Axios’, en una reunión con el empresario, Hegseth habría incluido en el ultimátum la amenaza de fuertes sanciones si la empresa de IA se niega a la solicitud.

La información fue reproducida también por la agencia Reuters, que había anticipado un encuentro no amistoso, aunque un vocero de la empresa dijo a ‘Axios’: «Estamos teniendo conversaciones productivas, de buena fe».

Funcionarios de Defensa que declararon a ‘Axios’ indicaron que esas represalias podían ir desde el corte de lazos comerciales hasta la declaración de la empresa como «riesgo en la cadena de suministro», pasando por la aplicación de la Ley de Producción de Defensa, que obligaría a Anthropic a ajustar su modelo a las demandas del Pentágono.

Anthropic es una de las cuatro compañías de IA a las que el Pentágono asignó contratos de defensa por encima de los 200 millones de dólares cada uno el año pasado, junto a Google, OpenAI y xAI, de Elon Musk.

Pero es la única que opera en un entorno clasificado, indispensable para el manejo de información sensible como la militar.

Una fuente familiarizada con la reunión que conversó con la agencia Reuters sostuvo que la empresa no tiene intenciones de relajar sus restricciones, a pesar de las presiones del Pentágono.

Diferencia de visiones

Se cree que el chatbot de Anthropic, Claude, fue utilizado tanto para la planificación como para la ejecución de la captura del presidente Nicolás Maduro durante una audaz incursión de fuerzas Delta estadounidenses en Caracas el 3 de enero, un uso que podría haber sido una fuente decisiva de desavenencias entre el Pentágono y Anthropic.

De acuerdo con un alto funcionario de la Administración Trump citado por ‘Axios’, Anthropic pidió información sobre si Claude había sido empleado durante la operación, una versión que coincide con el esfuerzo corporativo por conocer las condiciones de uso de su tecnología. Eso habría desatado la molestia del Departamento de Guerra.

“Cualquier empresa que ponga en peligro el éxito operativo de nuestros combatientes sobre el terreno es una empresa con la que debemos reevaluar nuestra colaboración en el futuro”, dijo la fuente a ‘Axios’.

Un portavoz de Anthropic negó que se hubieran producido consultas “fuera de las conversaciones rutinarias sobre cuestiones estrictamente técnicas”.

Anthropic se ha posicionado como una empresa líder en IA que privilegia la seguridad y el uso de sus herramientas de acuerdo con regulaciones específicas.

El principal asesor del Gobierno de Donald Trump en materia de IA, David Sacks, ha acusado a Anthropic de «llevar a cabo una sofisticada estrategia de captura regulatoria basada en el alarmismo».

Precisamente como una alternativa a las políticas progresistas, Elon Musk desarrolló el bot Grok, que opera incrustado en X y es usado por el Pentágono. En su momento, buscaba oponerse a las interacciones con otros chatbots de IA como Gemini de Google o ChatGPT de OpenIA, que a juicio de Musk estaban permeados por el pensamiento ‘woke’.

France24