
Google ha sviluppato un modello di intelligenza artificiale chiamato Dolphingmma per decifrare come comunicano i delfini e un giorno facilitano la comunicazione interspecie.
Gli intricati clic, fischi e impulsi che echeggiano nel mondo sottomarino dei delfini hanno a lungo affascinato scienziati. Il sogno è stato quello di comprendere e decifrare i modelli all'interno delle loro complesse vocalisazioni.
Google, collaborando con gli ingegneri del Georgia Institute of Technology e sfruttando la ricerca sul campo del Progetto delfino selvatico (WDP), ha svelato Dolphingmma per aiutare a realizzare questo obiettivo.
Annunciato intorno al National Dolphin Day, il modello di AI fondamentale rappresenta un nuovo strumento nello sforzo di comprendere la comunicazione cetaceo. Allenato specificamente per imparare la struttura dei suoni del delfini, il delfingmma può persino generare nuove sequenze audio simili al delfino.
Nel corso di decenni, il progetto di delfini selvatici-operativo dal 1985-ha condotto lo studio subacqueo continuo più lungo del mondo sui delfini per sviluppare una profonda comprensione dei suoni specifici del contesto, come: ad esempio:
- Firma “Whistles”: Serve come identificatori univoci, simili a nomi, cruciali per interazioni come le madri che si riuniscono con i vitelli.
- “Squawks” di scoppi di scoppio: Comunemente associato a conflitti o incontri aggressivi.
- Fai clic su “BUZZE”: Spesso rilevato durante le attività di corteggiamento o quando i delfini inseguono gli squali.
L'obiettivo finale di WDP è scoprire la struttura intrinseca e il potenziale significato all'interno di queste sequenze sonore naturali, cercando le regole e i modelli grammaticali che potrebbero significare una forma di linguaggio.
Questa analisi a lungo termine e scrupolosa ha fornito la messa a terra essenziale e l'etichettatura dei dati cruciali per la formazione di sofisticati modelli di intelligenza artificiale come Dolphingmma.
Dolphingemma: l'orecchio dell'IA per i suoni di cetaceo
L'analisi del volume e della complessità della comunicazione delfina è un compito formidabile ideale per l'IA.
Dolphingemma, sviluppato da Google, impiega tecnologie audio specializzate per affrontare questo problema. Utilizza il tokeniser Soundstream per rappresentare in modo efficiente i suoni del delfini, alimentando questi dati in un modello di architettura abile nell'elaborazione di sequenze complesse.
Basato su approfondimenti di Google's Gemma Famiglia di modelli leggeri e aperti (che condividono la tecnologia con i potenti Gemelli Modelli), Dolphingemma funziona come un sistema audio-in e audio-out.
Sfogliato con sequenze di suoni di delfini naturali dall'ampio database del WDP, Dolphingmma impara a identificare modelli e strutture ricorrenti. Fondamentalmente, può prevedere i probabili suoni successivi in una sequenza, proprio come i modelli di linguaggio umano prevedono la parola successiva.
Con circa 400 milioni di parametri, Dolphingemma è ottimizzato per funzionare in modo efficiente, anche su Google Pixel Smartphones che WDP utilizza per la raccolta dei dati sul campo.
Quando il WDP inizia a distribuire il modello in questa stagione, promette di accelerare in modo significativo la ricerca. Segnando automaticamente modelli e sequenze affidabili in precedenza che richiedono un immenso sforzo umano da trovare, può aiutare i ricercatori a scoprire strutture nascoste e potenziali significati all'interno della comunicazione naturale dei delfini.
Il sistema di chat e l'interazione a due vie
Mentre Dolphingemma si concentra sulla comprensione della comunicazione naturale, un progetto parallelo esplora una strada diversa: interazione a due vie attiva.
Il sistema di chat (Cetacean Hearing Aumentation Telemetry) – sviluppato da WDP in collaborazione con Georgia Tech – mira a stabilire un vocabolario più semplice e condiviso piuttosto che tradurre direttamente il linguaggio del delfino complesso.
Il concetto si basa sull'associazione di fischietti sintetici specifici e nuovi (creati da chat, distinti dai suoni naturali) con oggetti con cui i delfini si divertono a interagire, come sciarpe o alghe. I ricercatori dimostrano il collegamento agli oggetti fisici, sperando che la naturale curiosità dei delfini li porti a imitare i suoni per richiedere gli articoli.
Poiché più suoni di delfini naturali sono compresi attraverso il lavoro con modelli come il delfingemma, questi potrebbero essere potenzialmente incorporati nel quadro di interazione della chat.
Google Pixel abilita la ricerca sull'oceano
Alla base sia dell'analisi dei suoni naturali che del sistema di chat interattivo è una tecnologia mobile cruciale. I telefoni Google Pixel fungono da cervello per l'elaborazione dei dati audio ad alta fedeltà in tempo reale, direttamente nell'ambiente oceanico impegnativo.
Il sistema di chat, ad esempio, si basa sui telefoni Google Pixel a:
- Rileva un potenziale mimia tra il rumore di fondo.
- Identifica il fischio specifico utilizzato.
- Avvicina il ricercatore (tramite cuffie conduttori di osso sottomarine) sulla “richiesta” del delfino.
Ciò consente al ricercatore di rispondere rapidamente con l'oggetto corretto, rafforzando l'associazione appresa. Mentre un pixel 6 inizialmente ha gestito questo, il sistema di chat di prossima generazione (previsto per l'estate 2025) utilizzerà un pixel 9, integrando le funzioni degli altoparlanti/microfono e eseguendo sia i modelli di apprendimento profondo che gli algoritmi di abbinamento modello contemporaneamente per prestazioni migliorate.

L'uso di smartphone come il pixel riduce drasticamente la necessità di hardware personalizzato voluminoso e costoso. Migliora la manutenibilità del sistema, riduce i requisiti di potenza e riduce le dimensioni fisiche. Inoltre, il potere predittivo di Dolphingemma integrato nella chat potrebbe aiutare a identificare i mimici più rapidamente, rendendo le interazioni più fluide ed efficaci.
Riconoscendo che le scoperte derivano spesso dalla collaborazione, Google intende rilasciare Dolphingmma come modello aperto entro la fine dell'estate. Mentre è addestrata su Atlantic Spotted Dolphins, la sua architettura promette per i ricercatori che studiano altri cetacei, che potenzialmente richiedono una messa a punto per i repertori vocali di diverse specie.
L'obiettivo è fornire ai ricercatori a livello globale strumenti potenti per analizzare i propri set di dati acustici, accelerando lo sforzo collettivo per comprendere questi mammiferi marini intelligenti. Stiamo spostando dall'ascolto passivo verso i modelli di decifrazione attiva, portando la prospettiva di colmare il divario comunicativo tra la nostra specie forse solo un po 'più vicino.
Vedi anche: IEA: le opportunità e le sfide dell'IA per l'energia globale

Vuoi saperne di più sull'intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L'evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber Security & Cloud Expo.
Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.
Fonte: www.artificialintelligence-news.com