Il governo americano aumenta i fornitori di IA e ripensa il ruolo di Anthropic

 | Intelligenza-Artificiale

L’amministrazione statunitense ha aggiunto altre quattro società di intelligenza artificiale al suo elenco di fornitori preferiti, con il Pentagono che ha firmato accordi con Microsoft, Reflection AI (che deve ancora rilasciare un modello disponibile al pubblico), Amazon e Nvidia che significano che i loro prodotti possono essere utilizzati in operazioni segrete. Le società si uniscono a OpenAI, xAI e Google come società che il Dipartimento della Difesa può utilizzare “per qualsiasi uso lecito”.

L’espressione “qualsiasi uso lecito” ha costituito il centro del recente disaccordo tra l’intelligenza artificiale di Anthropic e l’amministrazione statunitense, con il CEO Darius Amodei che ha affermato che avrebbe consentito al governo degli Stati Uniti di utilizzare la tecnologia di Anthropic per sottoporre la popolazione civile americana alla sorveglianza e produrre armi autonome, aree di utilizzo di Anthropic che voleva isolare. Il Pentagono ha annullato un contratto da 200 milioni di dollari con la società, una decisione che Anthropic ha rapidamente portato in tribunale, sostenendo milioni di mancati ricavi da parte del governo e di altri soggetti influenzati dalla decisione del governo. L’amministrazione Trump ha definito l’azienda un “rischio nella catena di fornitura”, ed era la prima volta che un’azienda con sede negli Stati Uniti riceveva tale status. Le successive dichiarazioni di fonti governative hanno descritto Anthropic come un’azienda “svegliata”.

La dichiarazione del Pentagono sui suoi nuovi accordi recita: “Il Dipartimento continuerà a costruire un’architettura che impedisca il vincolo dei fornitori di intelligenza artificiale e garantisca flessibilità a lungo termine per la forza congiunta”. Le tecnologie “daranno ai combattenti gli strumenti di cui hanno bisogno per agire con fiducia e salvaguardare la nazione da qualsiasi minaccia”. Le IA verranno utilizzate per i casi d’uso dei “Livelli di impatto” sei (dati segreti) e sette (i materiali più altamente classificati), contribuendo a creare quella che la dichiarazione descrive come una “forza combattente basata sull’intelligenza artificiale”.

L’attuale utilizzo dell’intelligenza artificiale generativa da parte del Pentagono è in gran parte limitato a compiti non classificati svolti all’interno dei vari dipartimenti della difesa, come lavorare sulla stesura e sulla sintesi di documenti e sulla ricerca. I nuovi fornitori aiuteranno le forze di difesa a “snellire anche la sintesi dei dati”, ma anche ad “elevare la comprensione della situazione e ad aumentare il processo decisionale dei combattenti in ambienti operativi complessi”. Non è chiaro se tali descrizioni includano schieramenti nazionali all’interno dei confini degli Stati Uniti.

L’espansione del numero di fornitori di IA alle forze armate e di sicurezza statunitensi significa che diventeranno più immuni agli apparenti cambiamenti di opinione da parte dei singoli fornitori che influenzano le operazioni militari e di sicurezza. Ampliando la propria base tecnologica, i capricci personali dei singoli leader aziendali diventano meno rilevanti. Google e Amazon in passato hanno licenziato dipendenti per aver protestato contro l’utilizzo della tecnologia delle loro aziende in armi e guerre.

L’intelligenza artificiale di Claude di Anthropic è stata utilizzata su materiale classificato come parte del set di strumenti Maven di Palantir, un ruolo che i firmatari più recenti potrebbero sostituire. Tuttavia, secondo quanto riferito, il modello Mythos dell’azienda è attualmente utilizzato dalla National Security Agency nel contesto delle presunte capacità di guerra informatica e di difesa della piattaforma. A livello mondiale, Mythos di Anthropic è attualmente sotto valutazione da parte di 40 organizzazioni, di cui solo 12 sono state nominate, con l’MI5 del Regno Unito e la NSA degli Stati Uniti che si ritiene siano tra le restanti 28.

Secondo Axiosl’amministrazione statunitense potrebbe fare marcia indietro sulla sua più recente posizione pubblica su Anthropic. Il sito web afferma di avere una fonte alla Casa Bianca che affermava che l’amministrazione stava cercando di trovare modi per “salvare la faccia e riportarli dentro”. Il modello di codifica Claude di Anthropic è presumibilmente ancora utilizzato dalle organizzazioni di sicurezza del governo statunitense ed è stato utilizzato in eventi recenti.

Secondo la Casa Bianca, il governo degli Stati Uniti “continua a impegnarsi in modo proattivo tra governo e industria per proteggere il nostro Paese e il popolo americano, anche lavorando con laboratori di intelligenza artificiale di frontiera”.

(Fonte immagine: “BEST OF THE MARINE CORPS – Maggio 2006 – Defense Visual Information Center” di expertinfantry è concesso in licenza con CC BY 2.0. Licenza.)

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx e co-localizzato con altri importanti eventi tecnologici. Clic Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *