In uno studio recente, un’azienda di rilevamento e risposta della rete nativa del cloud ExtraHop ha svelato una tendenza preoccupante: le aziende sono alle prese con le implicazioni sulla sicurezza derivanti dall’uso dell’intelligenza artificiale generativa da parte dei dipendenti.

Il loro nuovo rapporto di ricerca, Il punto critico dell’IA generativafa luce sulle sfide affrontate dalle organizzazioni man mano che la tecnologia dell’intelligenza artificiale generativa diventa sempre più diffusa sul posto di lavoro.

Il report approfondisce il modo in cui le organizzazioni affrontano l’uso di strumenti di intelligenza artificiale generativa, rivelando una significativa dissonanza cognitiva tra i leader IT e della sicurezza. Sorprendentemente, il 73% di questi leader ha confessato che i propri dipendenti utilizzano spesso strumenti di intelligenza artificiale generativa o Large Language Models (LLM) sul lavoro. Nonostante ciò, una sconcertante maggioranza ha ammesso di essere incerta su come affrontare in modo efficace i rischi per la sicurezza associati.

Interrogati sulle loro preoccupazioni, i leader IT e della sicurezza hanno espresso più preoccupazione per la possibilità di risposte inesatte o prive di senso (40%) rispetto a problemi critici di sicurezza come l’esposizione delle informazioni personali identificabili (PII) di clienti e dipendenti (36%) o perdite finanziarie ( 25%).

Raja Mukerji, co-fondatore e capo scienziato di ExtraHop, ha dichiarato: “Unendo l’innovazione con forti garanzie, l’intelligenza artificiale generativa continuerà a essere una forza che migliorerà interi settori negli anni a venire”.

Una delle rivelazioni sorprendenti dello studio è stata l’inefficacia dei divieti dell’IA generativa. Circa il 32% degli intervistati ha affermato che la propria organizzazione aveva vietato l’uso di questi strumenti. Tuttavia, solo il 5% ha riferito che i dipendenti non hanno mai utilizzato questi strumenti, il che indica che i divieti da soli non sono sufficienti a frenarne l’utilizzo.

Lo studio ha inoltre evidenziato un chiaro desiderio di orientamento, in particolare da parte degli enti governativi. Un significativo 90% degli intervistati ha espresso la necessità di un coinvolgimento del governo, con il 60% che sostiene norme obbligatorie e il 30% che sostiene gli standard governativi che le aziende possono adottare volontariamente.

Nonostante il senso di fiducia nella loro attuale infrastruttura di sicurezza, lo studio ha rivelato lacune nelle pratiche di sicurezza di base.

Mentre l’82% si sente fiducioso nella capacità del proprio stack di sicurezza di proteggere dalle minacce dell’IA generativa, meno della metà ha investito nella tecnologia per monitorare l’utilizzo dell’IA generativa. In modo allarmante, solo il 46% ha stabilito politiche che regolano l’uso accettabile e solo il 42% ha fornito formazione agli utenti sull’uso sicuro di questi strumenti.

I risultati arrivano sulla scia della rapida adozione di tecnologie come ChatGPT, che sono diventate parte integrante delle aziende moderne. I leader aziendali sono invitati a comprendere l’utilizzo dell’intelligenza artificiale generativa da parte dei propri dipendenti per identificare potenziali vulnerabilità della sicurezza.

È possibile trovare una copia completa del rapporto Qui.

(Fotografato da Hennie Stander SU Unsplash)

Guarda anche: BSI: colmare il “gap di fiducia nell’intelligenza artificiale” è fondamentale per sbloccare i vantaggi

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è co-localizzato con Settimana della trasformazione digitale.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

  • Ryan Daws

    Ryan è un redattore senior presso TechForge Media con oltre un decennio di esperienza nella copertura delle tecnologie più recenti e nell’intervista a figure leader del settore. Spesso lo si vede alle conferenze tecnologiche con un caffè forte in una mano e un laptop nell’altra. Se è un genio, probabilmente gli piace. Trovatelo su Twitter (@Gadget_Ry) o Mastodon (@gadgetry@techhub.social)

tag: ai, intelligenza artificiale, sicurezza informatica, sicurezza informatica, impresa, geni, ai generativi, rapporto, ricerca, sicurezza, studio

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *