La Casa Bianca garantisce impegni di sicurezza da altre otto società di intelligenza artificiale

 | Intelligenza-Artificiale

L’amministrazione Biden-Harris lo ha fatto annunciato che si è assicurata una seconda serie di impegni volontari in materia di sicurezza da parte di otto importanti aziende di intelligenza artificiale.

Rappresentanti di Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI e Stability hanno partecipato alla Casa Bianca per l’annuncio. Queste otto aziende si sono impegnate a svolgere un ruolo fondamentale nel promuovere lo sviluppo di un’intelligenza artificiale sicura, protetta e affidabile.

L’amministrazione Biden-Harris sta lavorando attivamente a un ordine esecutivo e perseguendo una legislazione bipartisan per garantire che gli Stati Uniti siano all’avanguardia nello sviluppo responsabile dell’IA che ne sblocchi il potenziale gestendo al tempo stesso i rischi.

Gli impegni assunti da queste aziende ruotano attorno a tre principi fondamentali: sicurezza, protezione e fiducia. Si sono impegnati a:

  1. Assicurarsi che i prodotti siano sicuri prima dell’introduzione:

Le aziende si impegnano a sottoporre a rigorosi test di sicurezza interni ed esterni i propri sistemi di intelligenza artificiale prima di rilasciarli al pubblico. Ciò include valutazioni di esperti indipendenti, che aiutano a proteggersi dai rischi significativi dell’IA come la biosicurezza, la sicurezza informatica e gli effetti sociali più ampi.

Condivideranno inoltre attivamente informazioni sulla gestione del rischio legato all’IA con i governi, la società civile, il mondo accademico e tutto il settore. Questo approccio collaborativo includerà la condivisione delle migliori pratiche per la sicurezza, informazioni sui tentativi di eludere le salvaguardie e la cooperazione tecnica.

  1. Costruisci sistemi con la sicurezza come priorità assoluta:

Le aziende si sono impegnate a investire nella sicurezza informatica e nelle misure di salvaguardia contro le minacce interne per proteggere i pesi dei modelli proprietari e inediti. Riconoscendo l’importanza fondamentale di questi pesi modello nei sistemi di intelligenza artificiale, si impegnano a rilasciarli solo quando previsto e quando i rischi per la sicurezza sono adeguatamente affrontati.

Inoltre, le aziende faciliteranno l’individuazione e la segnalazione da parte di terzi delle vulnerabilità nei loro sistemi di intelligenza artificiale. Questo approccio proattivo garantisce che i problemi possano essere identificati e risolti tempestivamente anche dopo l’implementazione di un sistema di intelligenza artificiale.

  1. Guadagnarsi la fiducia del pubblico:

Per migliorare la trasparenza e la responsabilità, le aziende svilupperanno robusti meccanismi tecnici – come i sistemi di watermarking – per indicare quando il contenuto viene generato dall’intelligenza artificiale. Questo passaggio mira a promuovere la creatività e la produttività riducendo al contempo i rischi di frode e inganno.

Riferiranno inoltre pubblicamente le capacità, i limiti e le aree di utilizzo appropriato e inappropriato dei loro sistemi di intelligenza artificiale, coprendo sia i rischi per la sicurezza che quelli sociali, compresi l’equità e i pregiudizi. Inoltre, queste aziende si impegnano a dare priorità alla ricerca sui rischi sociali posti dai sistemi di intelligenza artificiale, affrontando anche pregiudizi e discriminazioni dannose.

Queste aziende leader nel settore dell’intelligenza artificiale svilupperanno e implementeranno anche sistemi avanzati di intelligenza artificiale per affrontare importanti sfide sociali, dalla prevenzione del cancro alla mitigazione dei cambiamenti climatici, contribuendo alla prosperità, all’uguaglianza e alla sicurezza di tutti.

L’impegno dell’amministrazione Biden-Harris rispetto a questi impegni si estende oltre gli Stati Uniti, con consultazioni che coinvolgono numerosi partner e alleati internazionali. Questi impegni integrano le iniziative globali, tra cui vertice del Regno Unito sulla sicurezza dell’intelligenza artificialeLa leadership del Giappone nel processo di Hiroshima del G7 e la leadership dell’India come presidente del partenariato globale sull’intelligenza artificiale.

L’annuncio segna una pietra miliare significativa nel percorso verso lo sviluppo responsabile dell’intelligenza artificiale, con i leader del settore e il governo che si uniscono per garantire che la tecnologia dell’intelligenza artificiale avvantaggi la società, mitigandone al tempo stesso i rischi intrinseci.

(Fotografato da Tabrez Syed SU Unsplash)

Guarda anche: L’ecosistema AI del Regno Unito raggiungerà i 2,4 trilioni di sterline entro il 2027, terzo nella corsa globale

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è co-localizzato con Settimana della trasformazione digitale.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

  • Ryan Daws

    Ryan è un redattore senior presso TechForge Media con oltre un decennio di esperienza nella copertura delle tecnologie più recenti e nell’intervista a figure leader del settore. Spesso lo si vede alle conferenze tecnologiche con un caffè forte in una mano e un laptop nell’altra. Se è un genio, probabilmente gli piace. Trovatelo su Twitter (@Gadget_Ry) o Mastodon (@gadgetry@techhub.social)

Tag: ai sicurezza, intelligenza artificiale, governo, legge, legale, Legislazione, apprendimento automatico, sicurezza, casa Bianca

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *