
L’amministrazione Biden-Harris lo ha fatto annunciato che si è assicurata una seconda serie di impegni volontari in materia di sicurezza da parte di otto importanti aziende di intelligenza artificiale.
Rappresentanti di Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI e Stability hanno partecipato alla Casa Bianca per l’annuncio. Queste otto aziende si sono impegnate a svolgere un ruolo fondamentale nel promuovere lo sviluppo di un’intelligenza artificiale sicura, protetta e affidabile.
L’amministrazione Biden-Harris sta lavorando attivamente a un ordine esecutivo e perseguendo una legislazione bipartisan per garantire che gli Stati Uniti siano all’avanguardia nello sviluppo responsabile dell’IA che ne sblocchi il potenziale gestendo al tempo stesso i rischi.
Gli impegni assunti da queste aziende ruotano attorno a tre principi fondamentali: sicurezza, protezione e fiducia. Si sono impegnati a:
- Assicurarsi che i prodotti siano sicuri prima dell’introduzione:
Le aziende si impegnano a sottoporre a rigorosi test di sicurezza interni ed esterni i propri sistemi di intelligenza artificiale prima di rilasciarli al pubblico. Ciò include valutazioni di esperti indipendenti, che aiutano a proteggersi dai rischi significativi dell’IA come la biosicurezza, la sicurezza informatica e gli effetti sociali più ampi.
Condivideranno inoltre attivamente informazioni sulla gestione del rischio legato all’IA con i governi, la società civile, il mondo accademico e tutto il settore. Questo approccio collaborativo includerà la condivisione delle migliori pratiche per la sicurezza, informazioni sui tentativi di eludere le salvaguardie e la cooperazione tecnica.
- Costruisci sistemi con la sicurezza come priorità assoluta:
Le aziende si sono impegnate a investire nella sicurezza informatica e nelle misure di salvaguardia contro le minacce interne per proteggere i pesi dei modelli proprietari e inediti. Riconoscendo l’importanza fondamentale di questi pesi modello nei sistemi di intelligenza artificiale, si impegnano a rilasciarli solo quando previsto e quando i rischi per la sicurezza sono adeguatamente affrontati.
Inoltre, le aziende faciliteranno l’individuazione e la segnalazione da parte di terzi delle vulnerabilità nei loro sistemi di intelligenza artificiale. Questo approccio proattivo garantisce che i problemi possano essere identificati e risolti tempestivamente anche dopo l’implementazione di un sistema di intelligenza artificiale.
- Guadagnarsi la fiducia del pubblico:
Per migliorare la trasparenza e la responsabilità, le aziende svilupperanno robusti meccanismi tecnici – come i sistemi di watermarking – per indicare quando il contenuto viene generato dall’intelligenza artificiale. Questo passaggio mira a promuovere la creatività e la produttività riducendo al contempo i rischi di frode e inganno.
Riferiranno inoltre pubblicamente le capacità, i limiti e le aree di utilizzo appropriato e inappropriato dei loro sistemi di intelligenza artificiale, coprendo sia i rischi per la sicurezza che quelli sociali, compresi l’equità e i pregiudizi. Inoltre, queste aziende si impegnano a dare priorità alla ricerca sui rischi sociali posti dai sistemi di intelligenza artificiale, affrontando anche pregiudizi e discriminazioni dannose.
Queste aziende leader nel settore dell’intelligenza artificiale svilupperanno e implementeranno anche sistemi avanzati di intelligenza artificiale per affrontare importanti sfide sociali, dalla prevenzione del cancro alla mitigazione dei cambiamenti climatici, contribuendo alla prosperità, all’uguaglianza e alla sicurezza di tutti.
L’impegno dell’amministrazione Biden-Harris rispetto a questi impegni si estende oltre gli Stati Uniti, con consultazioni che coinvolgono numerosi partner e alleati internazionali. Questi impegni integrano le iniziative globali, tra cui vertice del Regno Unito sulla sicurezza dell’intelligenza artificialeLa leadership del Giappone nel processo di Hiroshima del G7 e la leadership dell’India come presidente del partenariato globale sull’intelligenza artificiale.
L’annuncio segna una pietra miliare significativa nel percorso verso lo sviluppo responsabile dell’intelligenza artificiale, con i leader del settore e il governo che si uniscono per garantire che la tecnologia dell’intelligenza artificiale avvantaggi la società, mitigandone al tempo stesso i rischi intrinseci.
(Fotografato da Tabrez Syed SU Unsplash)
Guarda anche: L’ecosistema AI del Regno Unito raggiungerà i 2,4 trilioni di sterline entro il 2027, terzo nella corsa globale

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è co-localizzato con Settimana della trasformazione digitale.
Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.
Fonte: www.artificialintelligence-news.com