Se una settimana è tradizionalmente un periodo lungo in politica, è un abisso enorme quando si parla di intelligenza artificiale. Il ritmo dell’innovazione da parte dei principali fornitori è una cosa; la ferocia dell’innovazione mentre la concorrenza si fa sempre più intensa è un’altra cosa. Ma le implicazioni etiche della tecnologia dell’intelligenza artificiale vengono lasciate indietro da questo ritmo serrato?
Anthropic, i creatori di Claude, hanno rilasciato Claude 3 questa settimana e lo hanno rivendicato essere un “nuovo standard per l'intelligenza”superando concorrenti come ChatGPT e Gemini di Google. L'azienda afferma di aver anche raggiunto una competenza “quasi umana” in vari compiti. Infatti, come ha sottolineato Alex Albert, ingegnere del prompt di Anthropic, durante la fase di test di Claude 3 Opus, la più potente variante LLM (large Language Model), il modello mostrato segni di consapevolezza che era in fase di valutazione.
Passando alla conversione da testo a immagine, Stability AI ha annunciato un anteprima anticipata di Stable Diffusion 3 alla fine di febbraio, pochi giorni dopo che OpenAI ha presentato Sora, un nuovissimo modello di intelligenza artificiale in grado di generare video quasi realistici e ad alta definizione da semplici istruzioni di testo.
Mentre il progresso avanza, la perfezione resta difficile da raggiungere. Il modello Gemini di Google è stato criticato per aver prodotto immagini storicamente imprecise che, come afferma questa pubblicazione“ha riacceso le preoccupazioni sui pregiudizi nei sistemi di intelligenza artificiale.”
Ottenere questo risultato è una priorità fondamentale per tutti. Google ha risposto alle preoccupazioni dei Gemelli mettendo per il momento in pausa la generazione delle immagini delle persone. In una dichiarazionela società ha affermato che la generazione di immagini tramite intelligenza artificiale di Gemini “genera una vasta gamma di persone… e in genere è una buona cosa perché le persone in tutto il mondo la usano”. Ma qui manca il bersaglio.” Stability AI, nell'anteprima di Stable Diffusion 3, ha osservato che l'azienda crede in pratiche di intelligenza artificiale sicure e responsabili. “La sicurezza inizia quando iniziamo ad addestrare il nostro modello e continua durante tutta la fase di test, valutazione e implementazione”, come affermato in una dichiarazione. OpenAI sta adottando a approccio simile con Sora; a gennaio l'azienda ha annunciato un'iniziativa a promuovere un utilizzo responsabile dell’IA tra famiglie ed educatori.
Questo dal punto di vista del fornitore: ma come stanno affrontando questo problema le principali organizzazioni? Dai un'occhiata a come la BBC sta cercando di utilizzare l'intelligenza artificiale generativa e assicurarsi di mettere i suoi valori al primo posto. In ottobre, ha osservato Rhodri Talfan Davies, direttore delle nazioni della BBC una strategia su tre fronti: agire sempre nel migliore interesse del pubblico; dare sempre priorità al talento e alla creatività; ed essere aperti e trasparenti.
La settimana scorsa è stata messa più carne su queste ossa con il La BBC delinea una serie di progetti pilota sulla base di questi principi. Un esempio è la riformattazione dei contenuti esistenti in modo da ampliarne l'attrattiva, ad esempio registrando un commento radiofonico sportivo in diretta e trasformandolo rapidamente in testo. Inoltre, le linee guida editoriali sull’intelligenza artificiale sono state aggiornate per sottolineare che “tutto l’utilizzo dell’intelligenza artificiale è soggetto a una supervisione umana attiva”.
Vale anche la pena notare che la BBC non crede che i suoi dati debbano essere recuperati senza autorizzazione per addestrare altri modelli di intelligenza artificiale generativa, bandendo quindi i crawler come OpenAI e Common Crawl. Questo sarà un altro punto di convergenza su cui le parti interessate dovranno concordare in futuro.
Un’altra grande azienda che prende sul serio le proprie responsabilità per un’intelligenza artificiale etica è Bosch. Il produttore di elettrodomestici ha cinque linee guida nel suo codice etico. Il primo è che tutti i prodotti Bosch AI dovrebbero riflettere l’etica “invented for life” che combina la ricerca dell’innovazione con un senso di responsabilità sociale. Il secondo scimmiotta la BBC; Le decisioni sull’intelligenza artificiale che riguardano le persone non dovrebbero essere prese senza un arbitro umano. Gli altri tre principi, nel frattempo, esplorano prodotti di intelligenza artificiale sicuri, robusti e spiegabili; Fiducia; e osservare i requisiti di legge e orientarsi ai principi etici.
Quando le linee guida furono annunciate per la prima volta, l’azienda sperava nel suo codice etico sull’intelligenza artificiale contribuirebbe al dibattito pubblico sull’intelligenza artificiale. “L’intelligenza artificiale cambierà ogni aspetto della nostra vita”, ha affermato Volkmar Denner, allora amministratore delegato di Bosch. “Per questo motivo, un dibattito di questo tipo è vitale”.
È in questa etica che nasce il virtuale gratuito Summit mondiale sulle soluzioni AI L'evento, offerto da TechForge Media, si svolgerà il 13 marzo. Sudhir Tiku, VP, Singapore Asia Pacific Region presso Bosch, è un relatore principale la cui sessione alle 1245 GMT esplorerà le complessità della scalabilità sicura dell'IA, navigando nell'etica considerazioni, responsabilità e governance relative alla sua attuazione. Un’altra sessione, alle 14.45 GMT, esplora l’impatto a lungo termine sulla società e come la cultura e la mentalità aziendale possano essere modificate per promuovere una maggiore fiducia nell’intelligenza artificiale.
Prenota il tuo pass gratuito per accedere alle sessioni virtuali dal vivo oggi.
Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.
fotografato da Jonathan Chng SU Unsplash
Fonte: www.artificialintelligence-news.com