Le soluzioni di machine learning occupano un posto importante nella nostra vita. Non è più solo una questione di performance ma anche di responsabilità.
Negli ultimi decenni, molti progetti di intelligenza artificiale si sono concentrati sull’efficienza e sulle prestazioni dei modelli. I risultati sono documentati in articoli scientifici e i modelli con le migliori prestazioni vengono implementati nelle organizzazioni. Ora è il momento di inserire un’altra parte importante nei nostri sistemi di intelligenza artificiale; responsabilità. Gli algoritmi sono qui per restare e oggi sono accessibili a tutti con strumenti come chatGPT, co-pilot e prompt engineering. Ora arriva la parte più impegnativa che comprende consultazioni morali, garanzia di un incarico accurato e informazione delle parti interessate. Insieme, queste pratiche contribuiscono a un panorama dell’IA responsabile ed etico. In questo post del blog descriverò cosa significa responsabilità nei progetti di intelligenza artificiale e come includerla nei progetti utilizzando 6 passaggi pratici.
Prima di approfondire l’argomento dell’IA responsabile (rAI), vorrei delineare alcuni dei passi importanti compiuti nel campo della scienza dei dati. In un blog precedente, ho scritto di cosa imparare in Data Science (1)e che i prodotti di data science possono aumentare le entrate, ottimizzare i processi e ridurre i costi (di produzione). Attualmente, molti dei modelli distribuiti sono ottimizzati in termini di prestazioni ed efficienza. In altre parole, i modelli dovrebbero avere un’elevata precisione nelle loro previsioni e bassi costi computazionali. Ma prestazioni più elevate del modello di solito hanno l’effetto collaterale di aumentare gradualmente anche la complessità del modello. Alcuni modelli vengono trasformati nei cosiddetti “modelli a scatola nera”. Esempi si possono trovare nel campo del riconoscimento delle immagini e del text mining, dove le reti neurali vengono addestrate su centinaia di milioni di parametri utilizzando un’architettura modello specifica. È diventato difficile o addirittura sconosciuto capire perché determinate decisioni vengono prese da tali modelli. Un altro esempio è quello della finanza, dove molti processi fondamentali si basano su algoritmi e le decisioni vengono prese quotidianamente dalle macchine. È molto importante che tali decisioni prese dalle macchine possano essere verificate e rivalutate da mani umane quando necessario.