Antropico lancia modelli Claude AI per la sicurezza nazionale degli Stati Uniti

 | Intelligenza-Artificiale

Antropico ha svelato una collezione personalizzata di modelli Claude AI progettati per i clienti della sicurezza nazionale statunitense. L'annuncio rappresenta un potenziale traguardo nell'applicazione dell'IA all'interno del governo classificato ambienti.

I modelli “Claude Gov” sono già stati distribuiti da agenzie che operano ai massimi livelli della sicurezza nazionale degli Stati Uniti, con accesso rigorosamente limitato a quelli che lavorano all'interno di tali ambienti classificati.

Antropico afferma che questi modelli di Claude Gov sono emersi da una vasta collaborazione con i clienti governativi per affrontare i requisiti operativi del mondo reale. Nonostante siano personalizzati per le applicazioni di sicurezza nazionale, Antropic sostiene che questi modelli hanno subito gli stessi rigorosi test di sicurezza degli altri modelli Claude nel loro portafoglio.

Capacità di intelligenza artificiale specializzate per la sicurezza nazionale

I modelli specializzati offrono prestazioni migliorate in diverse aree critiche per le operazioni governative. Presentano una migliore gestione di materiali classificati, con meno casi in cui l'IA rifiuta di interagire con informazioni sensibili, una frustrazione comune in ambienti sicuri.

Ulteriori miglioramenti includono una migliore comprensione dei documenti all'interno dei contesti di intelligence e difesa, una maggiore competenza nelle lingue cruciali per le operazioni di sicurezza nazionale e l'interpretazione superiore di complessi dati di sicurezza informatica per l'analisi dell'intelligence.

Tuttavia, questo annuncio arriva tra i dibattiti in corso sulla regolamentazione dell'IA negli Stati Uniti. Il CEO antropico Dario Amodei ha recentemente espresso preoccupazione per la legislazione proposta che concederebbe un blocco decennale sulla regolamentazione statale dell'IA.

Bilanciamento dell'innovazione con la regolamentazione

In un saggio ospite pubblicato in Il New York Times Questa settimana, Amodei ha sostenuto le regole di trasparenza piuttosto che le moratorie normative. Ha dettagliato le valutazioni interne che rivelano comportamenti nei modelli AI avanzati, tra cui un'istanza in cui il nuovo modello di Antropico ha minacciato di esporre le e -mail private di un utente a meno che un piano di spegnimento.

Amodei ha confrontato i test di sicurezza AI con le prove sul tunnel del vento per gli aeromobili progettati per esporre difetti prima del rilascio pubblico, sottolineando che i team di sicurezza devono rilevare e bloccare i rischi in modo proattivo.

Antropico si è posizionato come sostenitore dello sviluppo responsabile dell'IA. In base alla sua politica di ridimensionamento responsabile, la Società condivide già i dettagli sui metodi di test, le fasi di mitigazione del rischio e i criteri di rilascio: le pratiche che Amodei ritiene dovrebbero diventare standard in tutto il settore.

Suggerisce che la formalizzazione di pratiche simili a livello di settore consentirebbe sia al pubblico che ai legislatori di monitorare i miglioramenti delle capacità e determinare se diventa necessaria ulteriori azioni normative.

Implicazioni dell'IA nella sicurezza nazionale

Lo spiegamento di modelli avanzati all'interno dei contesti di sicurezza nazionale solleva importanti domande sul ruolo dell'IA nella raccolta di intelligence, nella pianificazione strategica e nelle operazioni di difesa.

Amodei ha espresso supporto per i controlli delle esportazioni su patatine avanzate e l'adozione militare di sistemi fidati per contrastare i rivali come la Cina, indicando la consapevolezza dell'antropico sulle implicazioni geopolitiche della tecnologia AI.

I modelli di Claude Gov potrebbero potenzialmente servire numerose applicazioni per la sicurezza nazionale, dalla pianificazione strategica e dal supporto operativo all'analisi dell'intelligence e alla valutazione delle minacce, tutto nel quadro dell'impegno dichiarato di antropico per lo sviluppo responsabile dell'IA.

Paesaggio normativo

Mentre antropico lancia questi modelli specializzati per uso del governo, l'ambiente normativo più ampio per l'IA rimane in flusso. Il Senato sta attualmente prendendo in considerazione la lingua che istituirebbe una moratoria sulla regolamentazione dell'IA a livello statale, con audizioni pianificate prima di votare sulla misura della tecnologia più ampia.

Amodei ha suggerito che gli Stati potrebbero adottare regole di divulgazione ristrette che differiscono a un futuro quadro federale, con una clausola di supremazia che alla fine ha prestato fine alle misure statali per preservare l'uniformità senza fermare azioni locali a breve termine.

Questo approccio consentirebbe una certa protezione normativa immediata mentre si lavora verso uno standard nazionale completo.

Man mano che queste tecnologie diventano più profondamente integrate nelle operazioni di sicurezza nazionale, le questioni di sicurezza, la supervisione e l'uso adeguato rimarranno in prima linea nelle discussioni politiche e sul dibattito pubblico.

Per l'antropico, la sfida sarà mantenere il proprio impegno per lo sviluppo responsabile dell'intelligenza artificiale, al contempo le esigenze specializzate dei clienti governativi per applicazioni crtitiche come la sicurezza nazionale.

(Credito immagine: antropico)

Vedi anche: Reddit fa causa antropico rispetto ai dati di AI raschiatura

Vuoi saperne di più sull'intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L'evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber ​​Security & Cloud Expo.

Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *