Un documento del Regno Unito evidenzia i rischi dell’intelligenza artificiale in vista del vertice globale sulla sicurezza

 | Intelligenza-Artificiale

Il governo del Regno Unito ha presentato un piano globale carta affrontare le capacità e i rischi associati all’intelligenza artificiale di frontiera.

Il primo ministro britannico Rishi Sunak ha parlato oggi della responsabilità globale di affrontare i rischi evidenziati nel rapporto e di sfruttare il potenziale dell’intelligenza artificiale. Sunak ha sottolineato la necessità di un dialogo onesto sulla duplice natura dell’intelligenza artificiale: offrire opportunità senza precedenti, ma comportare anche pericoli significativi.

“L’intelligenza artificiale porterà nuova conoscenza, nuove opportunità di crescita economica, nuovi progressi nelle capacità umane e la possibilità di risolvere problemi che un tempo pensavamo fossero al di là delle nostre possibilità. Ma porta anche nuovi pericoli e nuove paure”, ha detto Sunak.

“Quindi, la cosa responsabile che devo fare è affrontare queste paure a testa alta, dandovi la tranquillità che vi terremo al sicuro, assicurandoci allo stesso tempo che voi e i vostri figli abbiate tutte le opportunità per un futuro migliore che l’intelligenza artificiale può portare”. .

“Fare la cosa giusta, non quella facile, significa essere onesti con le persone riguardo ai rischi derivanti da queste tecnologie”.

Il rapporto approfondisce i rapidi progressi dell’IA di frontiera, attingendo a numerose fonti. Evidenzia le diverse prospettive all’interno delle comunità scientifiche, di esperti e globali riguardo ai rischi associati alla rapida evoluzione della tecnologia AI.

La pubblicazione si compone di tre sezioni fondamentali:

  1. Capacità e rischi dell’IA di frontiera: Questa sezione presenta un documento di discussione che sostiene ulteriori ricerche sul rischio dell’IA. Delinea lo stato attuale delle capacità di intelligenza artificiale di frontiera, i potenziali miglioramenti futuri e i rischi associati, inclusi danni alla società, uso improprio e perdita di controllo.
  2. Rischi per la sicurezza e la protezione dell’IA generativa fino al 2025: Basandosi su valutazioni di intelligence, questo rapporto delinea i potenziali vantaggi globali dell’intelligenza artificiale generativa, evidenziando al contempo i maggiori rischi per la sicurezza. Sottolinea il miglioramento delle capacità degli attori delle minacce e l’efficacia degli attacchi grazie allo sviluppo dell’intelligenza artificiale generativa.
  3. Rischi futuri dell’IA di frontiera: Preparato dall’Ufficio governativo per la scienza, questo rapporto esplora le incertezze nello sviluppo dell’IA di frontiera, i rischi futuri del sistema e i potenziali scenari per l’IA fino al 2030.

Il rapporto, basato su informazioni declassificate provenienti dalle agenzie di intelligence, si concentra sull’intelligenza artificiale generativa, la tecnologia alla base dei popolari chatbot e dei software di generazione di immagini. Prevede un futuro in cui l’intelligenza artificiale potrebbe essere sfruttata dai terroristi per pianificare attacchi biologici o chimici, sollevando serie preoccupazioni sulla sicurezza globale.

Sjuul van der Leeuw, amministratore delegato di Distribuisciqha commentato: “È positivo vedere il governo adottare un approccio serio, offrendo un rapporto in vista del vertice sulla sicurezza della prossima settimana, tuttavia occorre fare di più.

“È necessario uno sforzo continuo per affrontare i rischi dell’intelligenza artificiale e speriamo che il vertice porti la chiarezza tanto necessaria, consentendo alle aziende e agli operatori di marketing di godere dei vantaggi offerti da questa tecnologia emergente, senza la preoccupazione di reazioni negative”.

Il rapporto evidenzia che l’intelligenza artificiale generativa potrebbe essere utilizzata per raccogliere conoscenze sugli attacchi fisici da parte di attori violenti non statali, compresa la creazione di armi chimiche, biologiche e radiologiche.

Sebbene le aziende stiano lavorando per implementare misure di salvaguardia, il rapporto sottolinea la diversa efficacia di queste misure. Gli ostacoli all’ottenimento delle conoscenze, delle materie prime e delle attrezzature necessarie per tali attacchi stanno diminuendo e l’intelligenza artificiale potrebbe accelerare questo processo.

Inoltre, il rapporto mette in guardia sulla probabilità che gli attacchi informatici guidati dall’intelligenza artificiale diventino più rapidi, più efficaci e su scala più ampia entro il 2025. L’intelligenza artificiale potrebbe aiutare gli hacker a imitare la lingua ufficiale e a superare le precedenti sfide affrontate in questo settore.

Tuttavia, alcuni esperti hanno messo in dubbio l’approccio del governo britannico.

Rashik Parmar MBE, CEO di BCS, il Chartered Institute per l’ITha dichiarato: “Oltre 1.300 tecnologi e leader hanno firmato la nostra lettera aperta definendo l’intelligenza artificiale una forza del bene piuttosto che una minaccia esistenziale per l’umanità.

“L’intelligenza artificiale non crescerà come Terminator. Se adottiamo le misure adeguate, sarà un copilota fidato dai nostri primi giorni di scuola fino alla pensione.

L’AI Safety Summit mirerà a promuovere una sana discussione su come affrontare i rischi di frontiera dell’IA, comprendendo l’uso improprio da parte di attori non statali per attacchi informatici o progettazione di armi biologiche e le preoccupazioni relative ai sistemi di intelligenza artificiale che agiscono autonomamente contrariamente alle intenzioni umane. Le discussioni al vertice si estenderanno anche a impatti sociali più ampi, come interruzioni elettorali, pregiudizi, criminalità e sicurezza online.

Claire Trachet, CEO di Trachetha commentato: “La natura in rapida crescita dell’intelligenza artificiale ha reso difficile per i governi trovare un equilibrio nella creazione di una regolamentazione efficace che tuteli gli interessi delle imprese e dei consumatori senza soffocare le opportunità di investimento. Anche se esistono alcune forme di gestione del rischio e diversi rapporti che escono ora, nessuno di essi rappresenta un vero approccio coordinato.

“L’impegno del governo britannico nei confronti della sicurezza dell’IA è encomiabile, ma le critiche rivolte al vertice servono a ricordare l’importanza di un approccio equilibrato, costruttivo e lungimirante alla regolamentazione dell’IA”.

Se il rapporto del governo britannico è qualcosa su cui basarsi, la necessità di collaborazione su misure proporzionate ma rigorose per gestire i rischi posti dall’intelligenza artificiale è più imperativa che mai.

Il globale Vertice sulla sicurezza dell’intelligenza artificiale si svolgerà nello storico Bletchley Park dall’1 al 2 novembre 2023.

(Credito immagine: GOV.UK)

Guarda anche: BSI: colmare il “gap di fiducia nell’intelligenza artificiale” è fondamentale per sbloccare i vantaggi

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolgerà ad Amsterdam, in California, e a Londra. L’evento completo è co-localizzato con Fiera sulla sicurezza informatica e sul cloud E Settimana della trasformazione digitale.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

tag: vertice sulla sicurezza ai, impresa, etica, frontiera ai, ai generativi, governo, carta, rapporto, ricerca, rischi, sicurezza, Società, minacce, UK, governo britannico

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *