Google, Sony e Okta sostengono il piano di rilevamento dei deepfake AI simile

 | Intelligenza-Artificiale

Resemble AI ha raccolto 13 milioni di dollari in un nuovo round di investimenti strategici per il rilevamento dei deepfake tramite intelligenza artificiale. Il finanziamento porta il suo investimento totale di venture capital a 25 milioni di dollari, con la partecipazione di Berkeley CalFund, Berkeley Frontier Fund, Comcast Ventures, Craft Ventures, Gentree, AI Futures Fund di Google, IAG Capital Partners e altri.

Il finanziamento arriva quando le organizzazioni sono sotto pressione per verificare l’autenticità dei contenuti digitali. L’intelligenza artificiale generativa ha reso più semplice per i criminali produrre deepfake convincenti, contribuendo a oltre 1,56 miliardi di dollari di perdite per frode nel 2025. Gli analisti stimano che l’intelligenza artificiale generativa potrebbe consentire 40 miliardi di dollari di perdite per frode negli Stati Uniti entro il 2027.

Gli incidenti recenti evidenziano la rapidità con cui si evolvono le minacce. A Singapore, 13 persone hanno perso complessivamente più di 360.000 SGD dopo che i truffatori si sono spacciati per un fornitore di telecomunicazioni e l’Autorità monetaria di Singapore. Gli aggressori hanno utilizzato lo spoofing dell’ID chiamante, i deepfake vocali e tecniche di ingegneria sociale che hanno creato urgenza e hanno sfruttato la fiducia del pubblico nei marchi governativi e di telecomunicazioni.

Strumenti di rilevamento dei deepfake e nuove funzionalità di intelligenza artificiale

Resemble AI sviluppa strumenti di verifica in tempo reale che aiutano le aziende a rilevare audio, video, immagini e testo generati dall’intelligenza artificiale. L’azienda prevede di utilizzare i nuovi finanziamenti per espandere l’accesso globale alla sua piattaforma di rilevamento dei deepfake basata sull’intelligenza artificiale, che include due versioni recenti:

  • DETECT-3B Omniun modello di rilevamento dei deepfake progettato per ambienti aziendali. L’azienda segnala una precisione di rilevamento del 98% in più di 38 lingue.
  • Assomiglia all’intelligenzauna piattaforma che fornisce spiegabilità per contenuti multimodali e generati dall’intelligenza artificiale, utilizzando i modelli Gemini 3 di Google.

Resemble AI posiziona questi strumenti come parte di uno sforzo più ampio per supportare la verifica in tempo reale per gli utenti umani e gli agenti IA che interagiscono con i contenuti digitali.

Secondo l’azienda, DETECT-3B Omni è già utilizzato in settori come l’intrattenimento, le telecomunicazioni e il governo. I risultati dei benchmark pubblici su Hugging Face mostrano che il modello si colloca tra i migliori nel rilevamento dei deepfake di immagini e parlato, con un tasso di errore medio inferiore rispetto ai modelli concorrenti.

Le parti interessate del settore affermano che il rapido miglioramento dell’intelligenza artificiale generativa sta rimodellando il modo in cui le aziende pensano alla fiducia dei contenuti e ai sistemi di identità. I rappresentanti di AI Futures Fund di Google, Sony Ventures e Okta hanno notato che le organizzazioni si stanno muovendo verso livelli di verifica che possano aiutare a mantenere la fiducia nei processi di autenticazione.

Oltre all’annuncio degli investimenti, Resemble AI ha pubblicato le sue prospettive su come potrebbero evolversi i rischi legati ai deepfake nel 2026. L’azienda prevede diversi cambiamenti che potrebbero influenzare la pianificazione aziendale:

La verifica deepfake potrebbe diventare uno standard per le comunicazioni ufficiali

A seguito degli incidenti che hanno coinvolto funzionari governativi, si prevede che il rilevamento dei deepfake in tempo reale potrebbe eventualmente essere richiesto per le videoconferenze ufficiali. Una mossa del genere creerebbe probabilmente nuove attività di appalto e ne aumenterebbe l’adozione nel settore pubblico.

La preparazione organizzativa può determinare il posizionamento competitivo

Man mano che sempre più giurisdizioni introducono normative sull’intelligenza artificiale, le aziende che integrano tempestivamente i processi di formazione, governance e conformità potrebbero trovarsi meglio preparate per le esigenze operative e normative.

L’identità emerge come un focus centrale nella sicurezza dell’IA

Con molti attacchi legati all’intelligenza artificiale che si basano sull’impersonificazione, le organizzazioni potrebbero porre maggiore enfasi su modelli di sicurezza incentrati sull’identità, compresi approcci zero trust per le identità umane e meccaniche.

I costi dell’assicurazione informatica potrebbero aumentare

Il numero crescente di incidenti di deepfake aziendali potrebbe portare gli assicuratori a rivalutare le loro polizze offerte. Le aziende senza strumenti di rilevamento potrebbero trovarsi ad affrontare premi più elevati o una copertura limitata.

L’investimento sottolinea la crescente necessità per le imprese di comprendere in che modo l’intelligenza artificiale generativa modifica la loro esposizione al rischio. Le organizzazioni di tutti i settori stanno valutando come la verifica, la salvaguardia dell’identità e la preparazione agli incidenti possano integrarsi nelle loro più ampie strategie di sicurezza e conformità.

(Foto di Pau Casals)

Vedi anche: AWS re:Invent 2025: gli agenti AI di frontiera sostituiscono i chatbot

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici, clicca Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *