Estats Units

Trump veta Anthropic per les restriccions ètiques a l'ús militar de la companyia d'intel·ligència artificial

L'administració, que volia utilitzar la tecnologia per aplicar-la a la vigilància massiva i a drons autònoms, farà servir OpenAI

WashingtonDonald Trump ha ordenat que les agències federals deixin d'utilitzar la IA d'Anthropic després de dies de disputa entre la companyia i el Pentàgon, que exigia poder fer servir la intel·ligència artificial sense les restriccions ètiques de l'empresa. Reclamava a Anthropic que permetés l'ús de la seva tecnologia per ordenar llançaments de míssils, fer volar drons militars autònoms i aplicar vigilància massiva. Dario Amodei, director executiu de la companyia, s'hi va negar per qüestions ètiques i de risc. Fins ara la tecnologia d'Anthropic era la que es feia servir al sistema classificat del departament de Defensa. Divendres a última hora el director executiu d'OpenAI, propietària de ChatGPT, va anunciar que havia arribat a un acord amb l'administració per aplicar els seus models a la xarxa de material classificat.

Inscriu-te a la newsletter InternacionalEl que sembla lluny importa més que mai
Inscriu-t’hi

Quan aquest divendres es van cancel·lar tots els contractes públics amb Anthropic el Pentàgon també va anunciar que declararia la companyia un risc per a la cadena de subministrament. Aquesta declaració és un cop important per al laboratori d’intel·ligència artificial després de l'enfrontament sobre els límits de l'aplicació de la seva tecnologia. Dijous Amodei havia emès un comunicat en ple pols amb el secretari de Defensa, Pete Hegseth: "En un conjunt reduït de casos, creiem que la IA pot minar, en lloc de defensar, els valors democràtics". I afegia: "Alguns usos també queden senzillament fora dels límits del que la tecnologia actual pot fer de manera segura i fiable. Dos d’aquests casos d’ús mai no s’han inclòs en els nostres contractes amb el departament de la Guerra, i creiem que no s’hi haurien d’incloure ara", va dir, citant específicament l’ús d’armes autònomes i la vigilància massiva.

Cargando
No hay anuncios

Acord amb OpenAI

"Aquesta nit hem arribat a un acord amb el departament de la Guerra per desplegar els nostres models a la seva xarxa classificada", ha escrit Sam Altman, CEO d'Open AI, a X. "La seguretat de la IA i l’ampli repartiment dels seus beneficis són el nucli de la nostra missió. Dos dels nostres principis de seguretat més importants són la prohibició de la vigilància massiva interna i la responsabilitat humana en l’ús de la força, inclosos els sistemes d’armes autònomes. El departament de la Guerra comparteix aquests principis, els reflecteix en la llei i en la política, i els hem incorporat al nostre acord", ha exposat, conscient del xoc que hi ha hagut entre el secretari de Defensa, Pete Hegseth, i Amodei aquests dies. Altman també ha assegurat que estan demanant a Defensa que "ofereixi els mateixos termes a altres companyies d'IA".

Cargando
No hay anuncios

Amenaça a Anthropic

En una publicació a Truth Social, Trump ha anunciat que el departament de Defensa i altres agències que utilitzen els productes d'Anthropic tindran sis mesos per eliminar progressivament els productes de l'empresa. El president ha amenaçat Anthropic que, si no ajuda amb la transició, farà servir "tot el poder de la presidència per obligar-los a complir, amb importants conseqüències civils i penals".

Cargando
No hay anuncios

La decisió és un càstig exemplar i extraordinari de l'administració Trump a una de les principals empreses que han mantingut el país al capdavant en el camp de la intel·ligència artificial aplicada a la seguretat nacional. A més, l'amenaça de Trump suposaria convertir la companyia en una mena de pària empresarial. I cal tenir en compte que Alphabet, la matriu de Google, i Amazon es troben entre els inversors financers d’Anthropic. El trencament estableix, a més, un precedent segons el qual només la legislació dels Estats Units restringiria com es desplega la IA al camp de batalla, i les empreses que la desenvolupen no hi tindrien res a dir. Així, el Pentàgon preservaria tota la flexibilitat en defensa i no quedaria limitat per les advertències dels creadors de la tecnologia contra l’ús d’IA poc fiable per alimentar armes.

En un comunicat, Anthropic ja ha dit que impugnarà davant dels tribunals qualsevol designació de risc per part del govern federal. "Creiem que aquesta designació seria jurídicament infundada i establiria un precedent perillós per a qualsevol empresa nord-americana que negociï amb el govern", ha afirmat l’empresa.