MIT Spoout insegna all'IA ad ammettere quando è all'oscuro

 | Intelligenza-Artificiale

Le allucinazioni di AI stanno diventando sempre più pericolose poiché i modelli sono sempre più affidabili alle informazioni di superficie e prendono decisioni critiche.

Abbiamo tutti quell'amico di sapere che non può ammettere quando non sanno qualcosa o ricorre a dare consigli ingannevoli basati su qualcosa che hanno letto online. Le allucinazioni dei modelli AI sono come quell'amico, ma questo potrebbe essere responsabile della creazione del tuo piano di trattamento del cancro.

Ecco dove Theis Ai entra in scena. Questo spinout del MIT è riuscito a raggiungere qualcosa che sembra semplice in teoria ma che è piuttosto complesso, insegnando ai sistemi di intelligenza artificiale per dire: “Non ne sono sicuro”.

I sistemi di intelligenza artificiale in genere visualizzano la fiducia eccessiva. La piattaforma CAPSA di Thetis funge da controllo della realtà per l'intelligenza artificiale, aiutando i modelli a riconoscere quando si avventurano nelle congetture piuttosto che nella certezza.

Fondata nel 2021 dalla professoressa del MIT Daniela Rus, insieme agli ex colleghi di ricerca Alexander Amini e Elaheh Ahmadi, Theis AI ha sviluppato una piattaforma in grado di integrarsi con praticamente qualsiasi sistema di intelligenza artificiale per contrassegnare momenti di incertezza prima di portare a errori.

CAPSA si allena essenzialmente l'intelligenza artificiale per rilevare modelli nel modo in cui elabora le informazioni che potrebbero indicare che sono confuse, distorte o lavorare con dati incompleti che potrebbero portare a allucinazioni.

Sin dal lancio, Thetis afferma di aver aiutato telecomunicazioni Le aziende evitano costosi errori di pianificazione della rete, hanno assistito le aziende di petrolio e gas nel dare un senso a complessi dati sismici e hanno pubblicato ricerche sulla creazione di chatbot che non compongono con sicurezza le cose.

La maggior parte delle persone rimane ignaro della frequenza con cui i sistemi di intelligenza artificiale stanno semplicemente prendendo la loro ipotesi migliore. Poiché questi sistemi gestiscono compiti sempre più critici, quelle ipotesi potrebbero avere gravi conseguenze. Il software di TheTis AI aggiunge un livello di autocoscienza che manca.

Viaggio di Thetis verso la lettazione delle allucinazioni di AI

Il viaggio a Theis AI è iniziato anni fa nel MIT Lab del professor Rus, in cui il team stava indagando su un problema fondamentale: come si fa a rendere una macchina consapevole delle proprie limitazioni?

Nel 2018, Toyota ha finanziato la loro ricerca sull'intelligenza artificiale affidabile per i veicoli a guida autonoma, un settore in cui gli errori potrebbero essere fatali. La posta in gioco è incredibilmente alta quando i veicoli autonomi devono identificare accuratamente i pedoni e altri pericoli stradali.

La loro svolta è arrivata quando hanno sviluppato un algoritmo in grado di individuare pregiudizi razziali e di genere nei sistemi di riconoscimento facciale. Invece di identificare semplicemente il problema, il loro sistema lo ha effettivamente risolto riequilibrando i dati di formazione, essenzialmente insegnando l'IA correggere i propri pregiudizi.

Entro il 2021, avevano dimostrato come questo approccio potesse rivoluzionare la scoperta di droghe. I sistemi di intelligenza artificiale potrebbero valutare potenziali farmaci ma – soprattutto – flagiamo quando le loro previsioni si basavano su prove solide rispetto a congetture istruite o allucinazioni complete. L'industria farmaceutica ha riconosciuto i potenziali risparmi in denaro e tempo concentrandosi solo sui candidati alla droga di cui l'IA era fiduciosa.

Un altro vantaggio della tecnologia è per i dispositivi con una potenza di calcolo limitata. I dispositivi Edge utilizzano modelli più piccoli che non possono corrispondere all'accuratezza di enormi modelli eseguiti su un server, ma con la tecnologia di Theis, questi dispositivi saranno molto più capaci Gestire la maggior parte delle attività a livello locale E richiedi solo aiuto dai grandi server quando incontrano qualcosa di impegnativo.

L'intelligenza artificiale ha un enorme potenziale per migliorare le nostre vite, ma quel potenziale comporta rischi reali. Man mano che i sistemi di intelligenza artificiale diventano più profondamente integrati in infrastrutture critiche e processo decisionali, la capacità di riconoscere l'incertezza che porta alle allucinazioni può rivelarsi la loro qualità più umana e più preziosa. TheSis AI si sta assicurando che apprendano questa abilità cruciale.

Vedi anche: Gestione del diabete: IBM e Roche usano l'intelligenza artificiale per prevedere i livelli di zucchero nel sangue

AI Expo Banner in cui i partecipanti impareranno a questioni come allucinazioni di modelli e altro ancora.

Vuoi saperne di più sull'intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L'evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber ​​Security & Cloud Expo.

Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *