
La promessa dell'IA è che renderà tutte le nostre vite più facili. E con grande comodità arriva il potenziale per un grave profitto. Le Nazioni Unite pensa L'intelligenza artificiale potrebbe essere un mercato globale da 4,8 trilioni di dollari entro il 2033, circa quanto l'economia tedesca.
Ma dimentica circa il 2033: nel qui e ora, l'IA sta già alimentando la trasformazione in settori diversi come i servizi finanziari, la produzione, l'assistenza sanitaria, il marketing, l'agricoltura ed e-commerce. Che si tratti di agenti algoritmici autonomi che gestiscono il tuo portafoglio di investimenti o sistemi di diagnostica AI che rilevano le malattie in anticipo, l'IA sta fondamentalmente cambiando il modo in cui viviamo e lavoriamo.
Ma il cinismo sta nevicando intorno all'IA – abbiamo visto Terminator 2 Abbastanza tempi per essere estremamente cauti. La domanda che vale la pena porre, quindi, è come garantire la fiducia poiché l'IA si integra più a fondo nella nostra vita quotidiana?
La posta in gioco è alta: un recente rapporto Di Camunda evidenzia una verità scomoda: la maggior parte delle organizzazioni (84%) attribuisce problemi di conformità normativa alla mancanza di trasparenza nelle applicazioni AI. Se le aziende non possono visualizzare gli algoritmi – o peggio, se gli algoritmi nascondono qualcosa, gli utenti vengono lasciati completamente al buio. Aggiungi i fattori di distorsione sistemica, sistemi non testati e un patchwork di regolamenti e hai una ricetta per la sfiducia su larga scala.
Trasparenza: aprire la scatola nera AI
Per tutte le loro impressionanti capacità, gli algoritmi di intelligenza artificiale sono spesso opachi, lasciando gli utenti ignoranti su come vengono raggiunte le decisioni. Quella richiesta di prestito alimentata dall'intelligenza artificiale viene negata a causa del tuo punteggio di credito-o a causa di un pregiudizio della società non divulgata? Senza trasparenza, l'IA può perseguire gli obiettivi del proprio proprietario, o quello del suo proprietario, mentre l'utente rimane inconsapevole, credendo ancora che stia facendo le loro offerte.
Una soluzione promettente sarebbe quella di mettere i processi sulla blockchain, rendendo gli algoritmi verificabili e controllabili da chiunque. È qui che entra in gioco Web3 Tech. Stiamo già vedendo le startup esplorare le possibilità. Spazio e tempo (SXT), un outfit supportato da Microsoft, offre feed di dati a prova di manomissione costituiti da un livello di calcolo verificabile, quindi SXT può garantire che le informazioni su cui si basa l'IA sia reale, accurata e non gradata da un'unica entità.
La nuova prova dello spazio e del tempo di SQL Prover garantisce che le query sono calcolate accuratamente contro dati non temporali, dimostrando calcoli nelle storie blockchain e essere in grado di fare molto più velocemente degli ZKVM e dei coprocessori all'avanguardia. In sostanza, SXT aiuta a stabilire la fiducia negli input dell'IA senza dipendenza da un potere centralizzato.
Dimostrare che l'IA può essere fidata
La fiducia non è un affare unico; È guadagnato nel tempo, analogo a un ristorante che mantiene standard per conservare la sua stella Michelin. I sistemi di intelligenza artificiale devono essere valutati continuamente per prestazioni e sicurezza, specialmente in settori ad alto contenuto di poste come l'assistenza sanitaria o la guida autonoma. Un'intelligenza artificiale di seconda tariffa che prescrive le medicine sbagliate o colpire un pedone è più di un problema tecnico, è una catastrofe.
Questa è la bellezza dei modelli open source e della verifica su catena tramite l'uso di registri immutabili, con protezioni per la privacy integrate assicurate dall'uso di crittografia come le prove di conoscenza zero (ZKPS). La fiducia non è l'unica considerazione, tuttavia: gli utenti devono sapere cosa può e non può fare, per impostare le loro aspettative realisticamente. Se un utente crede che l'IA sia infallibile, è più probabile che si fidino dell'output imperfetto.
Ad oggi, la narrativa sull'istruzione AI è incentrata sui suoi pericoli. D'ora in poi, dovremmo cercare di migliorare la conoscenza degli utenti sulle capacità e sui limiti dell'IA, meglio per garantire che gli utenti non siano autorizzati non sfruttati.
Conformità e responsabilità
Come per la criptovaluta, la parola conformità arriva spesso quando si discute dell'IA. L'intelligenza artificiale non riceve un passaggio ai sensi della legge e vari regolamenti. Come dovrebbe essere ritenuto responsabile un algoritmo senza volto? La risposta può risiedere nel protocollo blockchain modulare Carriche garantisce che l'inferenza di intelligenza artificiale si verifichi in catena.
La macchina virtuale di Cartesi consente agli sviluppatori di eseguire librerie AI standard – come Tensorflow, Pytorch e Llama.CPP – in un ambiente di esecuzione decentralizzato, rendendolo adatto per Sviluppo di AI su catena. In altre parole, una miscela di trasparenza blockchain e AI computazionale.
Fidati attraverso il decentramento
Il recente delle Nazioni Unite Rapporto tecnologico e innovazione mostra che mentre l'IA promette prosperità e innovazione, i suoi rischi di sviluppo “approfondiscono le divisioni globali”. Il decentramento potrebbe essere la risposta, che aiuta l'IA e instilla la fiducia in ciò che è sotto il cofano.
(Fonte immagine: Unsplash)
Fonte: www.artificialintelligence-news.com