Perché i capi di sicurezza richiedono una regolamentazione urgente di AI come DeepSeek

 | Intelligenza-Artificiale

L’ansia sta crescendo tra i principali agenti di sicurezza delle informazioni (CISO) nei centri operativi di sicurezza, in particolare intorno al gigante cinese di AI Deep -Week.

L’IA è stata annunciata come una nuova alba per l’efficienza aziendale e l’innovazione, ma per le persone in prima linea nella difesa aziendale, sta lanciando alcune ombre molto lunghe e scure.

Quattro su cinque (81%) CISO del Regno Unito credono che il chatbot cinese dell’IA richiede una regolamentazione urgente da parte del governo. Temono che senza un rapido intervento, lo strumento potrebbe diventare il catalizzatore per una crisi cyber nazionale su vasta scala.

Questo non è disagio speculativo; È una risposta diretta a una tecnologia la cui Pratiche di gestione dei dati E il potenziale per uso improprio è aumentare le campane di allarme ai massimi livelli di sicurezza aziendale.

I risultati, commissionati da Sicurezza assoluta Per il suo rapporto sull’indice del rischio di resilienza nel Regno Unito, si basano su un sondaggio di 250 CISO nelle grandi organizzazioni del Regno Unito. I dati suggeriscono che la minaccia teorica dell’IA è ora atterrata saldamente sulla scrivania del CISO e le loro reazioni sono state decisive.

In quello che sarebbe stato quasi impensabile un paio di anni fa, oltre un terzo (34%) di questi leader della sicurezza ha già implementato divieti definitivi su strumenti di intelligenza artificiale a causa di problemi di sicurezza informatica. Un numero simile, il 30 percento, ha già tirato la spina su implementazioni di intelligenza artificiale specifiche all’interno delle loro organizzazioni.

Questo ritiro non è un segno di luddismo ma una risposta pragmatica a un problema crescente. Le aziende stanno già affrontando minacce complesse e ostili, come evidenziato da incidenti di alto profilo come il recente Violazione di Harrods. I CISO stanno lottando per tenere il passo e l’aggiunta di sofisticati strumenti di intelligenza artificiale nell’arsenale dell’attaccante è una sfida che molti si sentono mal equipaggiati da gestire.

Un crescente divario di prontezza alla sicurezza per le piattaforme di intelligenza artificiale come DeepSeek

Il nucleo del problema con piattaforme come DeepSeek risiede nel loro potenziale per esporre dati aziendali sensibili ed essere armati dai criminali informatici.

Tre CISO su cinque (60%) prevedono un aumento diretto degli attacchi informatici a seguito della proliferazione di DeepSeek. Una proporzione identica riporta che la tecnologia sta già aggrottando i loro quadri di privacy e governance, rendendo quasi impossibile un lavoro già difficile.

Ciò ha spinto uno spostamento in prospettiva. Una volta visto come Un potenziale proiettile d’argento Per la sicurezza informatica, l’IA è ora vista da un numero crescente di professionisti come parte del problema. Il sondaggio rivela che il 42 % dei CISO ora considera l’IA una minaccia più grande di un aiuto per i loro sforzi difensivi.

Foto di Andy Ward, SVP International of Absolute Security, per un articolo sul perché i capi di sicurezza richiedono una regolamentazione urgente di AI come DeepSeek.

Andy Ward, SVP International of Absolute Security, ha dichiarato: “La nostra ricerca evidenzia i rischi significativi posti dagli strumenti di intelligenza artificiale emergenti come Deepseek, che stanno rapidamente rimodellando il panorama della minaccia informatica.

“Man mano che le preoccupazioni crescono sul loro potenziale per accelerare gli attacchi e compromettere i dati sensibili, le organizzazioni devono agire ora per rafforzare la loro resilienza informatica e adattare i quadri di sicurezza per tenere il passo con queste minacce basate sull’IA.

“Ecco perché quattro CISO britannici su cinque richiedono urgentemente la regolamentazione del governo. Hanno assistito alla rapidità con cui questa tecnologia sta avanzando e quanto facilmente può superare le difese esistenti sulla sicurezza informatica.”

Forse il più preoccupante è l’ammissione di poco preparato. Quasi la metà (46%) dei leader della sicurezza senior confessa che le loro squadre non sono pronte a gestire Le minacce uniche posato da attacchi guidati dall’IA. Stanno assistendo allo sviluppo di strumenti come DeepSeek che superano le loro capacità difensive in tempo reale, creando un pericoloso divario di vulnerabilità che molti credono possano essere chiusi solo dall’intervento del governo a livello nazionale.

“Questi non sono rischi ipotetici”, ha continuato Ward. “Il fatto che le organizzazioni stiano già vietando gli strumenti di intelligenza artificiale e ripensando le loro strategie di sicurezza in risposta ai rischi posti da LLM come Deepseek dimostra l’urgenza della situazione.

“Senza un quadro normativo nazionale – uno che stabilisce chiare linee guida per il modo in cui questi strumenti sono distribuiti, governati e monitorati – rischiamo di interruzioni diffuse in ogni settore dell’economia del Regno Unito.”

Le aziende stanno investendo per evitare la crisi con la loro adozione di intelligenza artificiale

Nonostante questa postura difensiva, le aziende non stanno pianificando un ritiro completo dall’IA. La risposta è più una pausa strategica piuttosto che una fermata permanente.

Le aziende riconoscono l’immenso potenziale dell’IA e stanno investendo attivamente adottarlo in sicurezza. In effetti, l’84 percento delle organizzazioni sta rendendo prioritaria l’assunzione di specialisti di intelligenza artificiale per il 2025.

Questo investimento si estende fino alla cima della scala aziendale. L’80 % delle aziende si è impegnata nella formazione dell’IA a livello di C-Suite. La strategia sembra essere un approccio a doppia fronto: migliorare la forza lavoro per comprendere e gestire la tecnologia e portare i talenti specializzati necessari per navigare nelle sue complessità.

La speranza – ed è una speranza, se non una preghiera – è che la costruzione di una forte base interna di competenza AI può agire come un controbilance alle minacce esterne crescenti.

Il messaggio della leadership di sicurezza del Regno Unito è chiaro: non vogliono bloccare l’innovazione di intelligenza artificiale, ma per consentirgli di procedere in modo sicuro. Per fare ciò, richiedono una partnership più forte con il governo.

Il percorso prevede stabilire regole chiare di coinvolgimento, supervisione del governo, una pipeline di professionisti dell’IA qualificati e una coerente strategia nazionale per la gestione dei potenziali rischi per la sicurezza posti da DeepSeek e dalla prossima generazione di potenti strumenti di intelligenza artificiale che seguiranno inevitabilmente.

“Il tempo per il dibattito è finito. Abbiamo bisogno di azioni, politiche e supervisione immediate per garantire che l’IA rimani una forza per il progresso, non un catalizzatore per la crisi”, conclude Ward.

Vedi anche: Alan Turing Institute: le discipline umanistiche sono fondamentali per il futuro dell’IA

Vuoi saperne di più sull’intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L’evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber Security & Cloud Expo.

Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *