Anthropic sollecita una regolamentazione dell’IA per evitare catastrofi

 | Intelligenza-Artificiale

Antropico ha segnalato i potenziali rischi dei sistemi di intelligenza artificiale e chiede una regolamentazione ben strutturata per evitare potenziali catastrofi. L’organizzazione sostiene che una regolamentazione mirata è essenziale per sfruttare i vantaggi dell’intelligenza artificiale mitigandone al tempo stesso i pericoli.

Man mano che i sistemi di intelligenza artificiale si evolvono in capacità come la matematica, il ragionamento e la codifica, il loro potenziale uso improprio in aree come la sicurezza informatica o anche nelle discipline biologiche e chimiche aumenta in modo significativo.

Anthropic avverte che i prossimi 18 mesi saranno fondamentali affinché i politici possano agire, poiché la finestra per una prevenzione proattiva si sta restringendo. In particolare, il Frontier Red Team di Anthropic evidenzia come i modelli attuali possano già contribuire a vari compiti legati ai reati informatici e si aspetta che i modelli futuri siano ancora più efficaci.

Di particolare preoccupazione è la possibilità che i sistemi di intelligenza artificiale possano esacerbare l’abuso chimico, biologico, radiologico e nucleare (CBRN). L’istituto britannico per la sicurezza dell’intelligenza artificiale trovato che diversi modelli di intelligenza artificiale possono ora eguagliare le competenze umane a livello di dottorato nel fornire risposte a domande legate alla scienza.

Nell’affrontare questi rischi, Anthropic ha dettagliato i propri Politica di dimensionamento responsabile (RSP) rilasciato nel settembre 2023 come solida contromisura. L’RSP impone un aumento delle misure di sicurezza e protezione corrispondenti alla sofisticazione delle capacità dell’intelligenza artificiale.

Il quadro RSP è progettato per essere adattivo e iterativo, con valutazioni regolari dei modelli di intelligenza artificiale che consentono un tempestivo perfezionamento dei protocolli di sicurezza. Anthropic afferma di essere impegnata a mantenere e migliorare la sicurezza in varie espansioni del team, in particolare nei settori della sicurezza, dell'interpretabilità e della fiducia, garantendo la disponibilità per i rigorosi standard di sicurezza stabiliti dal suo RSP.

Anthropic ritiene che l’adozione diffusa di RSP nel settore dell’IA, sebbene principalmente volontaria, sia essenziale per affrontare i rischi dell’IA.

Una regolamentazione trasparente ed efficace è fondamentale per rassicurare la società riguardo al rispetto delle promesse di sicurezza da parte delle aziende produttrici di intelligenza artificiale. I quadri normativi, tuttavia, devono essere strategici, incentivando buone pratiche di sicurezza senza imporre oneri inutili.

Anthropic prevede normative chiare, mirate e adattive ai paesaggi tecnologici in evoluzione, sostenendo che queste sono vitali per raggiungere un equilibrio tra mitigazione del rischio e promozione dell’innovazione.

Negli Stati Uniti, Anthropic suggerisce che sia federale legislazione potrebbe essere la risposta definitiva alla regolamentazione dei rischi legati all’intelligenza artificiale, anche se potrebbe essere necessario intervenire in iniziative guidate dallo stato se l’azione federale rallenta. I quadri legislativi sviluppati dai paesi di tutto il mondo dovrebbero consentire la standardizzazione e il riconoscimento reciproco per sostenere a sicurezza globale dell’intelligenza artificiale agenda, riducendo al minimo il costo dell’adesione alla regolamentazione tra le diverse regioni.

Inoltre, Anthropic affronta lo scetticismo nei confronti dell’imposizione di normative, evidenziando che normative eccessivamente ampie e focalizzate sui casi d’uso sarebbero inefficienti per i sistemi di intelligenza artificiale generali, che hanno applicazioni diverse. Le normative dovrebbero invece mirare alle proprietà fondamentali e alle misure di sicurezza dei modelli di intelligenza artificiale.

Pur coprendo i rischi ampi, Anthropic riconosce che alcune minacce immediate – come i deepfake – non sono al centro delle loro attuali proposte poiché altre iniziative stanno affrontando questi problemi a breve termine.

In definitiva, Anthropic sottolinea l’importanza di istituire normative che stimolino l’innovazione anziché soffocarla. L'onere di conformità iniziale, sebbene inevitabile, può essere ridotto al minimo attraverso soluzioni flessibili e attentamente progettate prove di sicurezza. Una regolamentazione adeguata può anche contribuire a salvaguardare sia gli interessi nazionali che l’innovazione del settore privato, garantendo la proprietà intellettuale contro le minacce interne ed esterne.

Concentrandosi sui rischi misurati empiricamente, Anthropic progetta un panorama normativo che non distorca né favorisca i modelli open o closed-source. L’obiettivo rimane chiaro: gestire i rischi significativi dei modelli di IA di frontiera con una regolamentazione rigorosa ma adattabile.

(Credito immagine: Antropico)

Vedi anche: Il presidente Biden pubblica il primo memorandum sulla sicurezza nazionale sull’intelligenza artificiale

Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

tag: ai, antropico, intelligenza artificiale, governo, legge, legale, Legislazione, politica, Politica, regolamento, rischi, risp, sicurezza, Società

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *