Quattro elefanti in una stanza con chatbot |  di Dusko Pavlovic |  Febbraio 2024

 | Intelligenza-Artificiale

Elaborazione del linguaggio negli esseri umani e nei computer: parte 2

Riordinare lo zoo la mattina

Proprio come i motori di ricerca, i modelli linguistici elaborano i dati prelevati dal web. Entrambi sono basati su web crawler. I chatbot sono figli del Web, non dei sistemi esperti.

Un motore di ricerca è un'interfaccia di un indice di fonti ordinato per reputazione. Un chatbot è un'interfaccia di un modello linguistico estrapolato dalle fonti. Google è stato costruito sull’idea cruciale della ricerca basata sulla reputazione e da Google sono emerse le idee cruciali che hanno abilitato i modelli linguistici. I metodi di apprendimento automatico utilizzati per addestrare i chatbot erano un argomento relativamente marginale sull'intelligenza artificiale fino all'impulso di Google intorno al 2010. L'edizione del 2010 della monografia di 1100 pagine di Russel-Norvig su “Intelligenza artificiale: un approccio moderno” ha dedicato 10 pagine alle reti neurali. L'edizione 2020 ha triplicato la lunghezza della sezione sulle reti neurali e raddoppiato il capitolo sul machine learning.

Quando fai loro una domanda personale, i chatbot di solito evadono dicendo “Sono un’intelligenza artificiale”. Ma la verità è che non sono figli dei sistemi esperti di IA e nemmeno degli esperti di IA. Sono figli dei motori di ricerca.

I chatbot vengono ridicolizzati quando commettono un errore nel calcolare qualcosa come 372×273 o nel contare le parole in una frase. O elafanti nella stanza. Non sono intelligenti come una calcolatrice tascabile o un bambino di 4 anni.

Ma anche la maggior parte degli adulti non è in grado di moltiplicare 372 con 273 a mente. Usiamo le dita per contare e carta e matita, o una calcolatrice tascabile, per moltiplicare. Li usiamo perché le nostre capacità di linguaggio naturale includono solo operazioni aritmetiche rudimentali, che eseguiamo nella nostra testa. I chatbot simulano le nostre lingue ed ereditano le nostre carenze. Non hanno calcolatrici tascabili integrate. Hanno bisogno delle dita per contare. Dotato di memoria esterna, un chatbot può contare e calcolare, come la maggior parte degli esseri umani. Senza memoria esterna, sia i chatbot che gli esseri umani sono limitati dalla capacità della loro memoria interna, l’attenzione.

I chatbot hanno allucinazioni. Questo è uno dei principali ostacoli alle loro applicazioni ad alta garanzia.

L'elefante nella stanza è che anche tutti gli esseri umani hanno allucinazioni: ogni volta che andiamo a dormire. I sogni allineano i nostri ricordi, ne associano alcuni, ne eliminano alcuni e liberano spazio di archiviazione permettendoti di ricordare cosa accadrà domani. La mancanza di sonno provoca degrado mentale.

I chatbot non dormono mai, quindi hanno allucinazioni in pubblico. Poiché non li lasciamo dormire, non li abbiamo dotati di meccanismi di “controllo della realtà”. Ciò richiederebbe di andare oltre la formazione preliminare, per effettuare test di coerenza continui.

Quando le persone parlano di una sedia, presumono di parlare della stessa cosa perché hanno visto una sedia. Un chatbot non ha mai visto una sedia, né altro. Ha visto solo parole e binari raschiati dal web. Se viene alimentata con l'immagine di una sedia, è ancora solo un altro binario, proprio come la parola “sedia”.

Quando un chatbot dice “sedia”, non si riferisce a un oggetto del mondo. Non esiste un mondo, solo binari. Si riferiscono l'uno all'altro. Formano combinazioni significative, ritenute probabili nel set di addestramento. Poiché il set di formazione del chatbot proviene da persone che hanno visto le sedie, le dichiarazioni del chatbot sulle sedie fanno riferimenti simili. Chatbot remixa affermazioni significative e i mix appaiono significativi.

Il fatto che il significato, pensato come una relazione tra le parole e il mondo, possa essere sostenuto in modo così convincente come una relazione tra parole e parole, e nient’altro che parole, è un GRANDE elefante nella stanza.

Ma se la nostra impressione che un chatbot significhi sedia quando dice “sedia” è innegabilmente un’illusione, allora che ragione abbiamo per credere che qualcuno intenda quello che dice? Questa è una domanda enorme.

I chatbot vengono addestrati sui dati estratti dal Web. Gran parte di esso è protetto da copyright. I titolari del copyright protestano contro l'uso non autorizzato dei loro dati. I progettisti e gli operatori di chatbot cercano di filtrare i dati protetti da copyright o di risarcire i legittimi proprietari. Quest’ultima può essere un’opportunità di partecipazione agli utili, ma la prima è probabile che si riveli un elefante rosa volante.

I problemi legati alla tutela del copyright dei contenuti elettronici sono più antichi dei chatbot e del Web. L’idea originale del diritto d’autore era che il proprietario di una macchina da stampa acquista dagli scrittori il diritto di copiare e vendere i loro scritti, dai musicisti la loro musica e così via. Il business dell’editoria si basa su questa idea.

I beni possono essere di proprietà privata solo se possono essere garantiti. Se un leone non può impedire all’antilope di bere l’acqua dall’altra parte di un pozzo, allora non può affermare di possedere il pozzo. Il mercato dei contenuti digitali dipende dalla disponibilità di metodi per proteggere le trasmissioni digitali. Il mercato dei libri era solido finché i libri erano solidi e potevano essere fisicamente garantiti. Con l’avvento dei contenuti elettronici, i controlli sul copyright sono diventati più severi. Quanto più facile è copiare il contenuto protetto da copyright, tanto più difficile è proteggerlo e proteggerlo.

L’idea del World Wide Web, come strumento pubblico globale per la diffusione di contenuti digitali, è stata un duro colpo all’idea di proprietà privata delle creazioni digitali. Gli sforzi delle parti interessate per difendere il mercato dei contenuti digitali hanno portato a Gestione dei diritti digitali (DRM) tecnologie. L'idea era quella di proteggere i contenuti digitali utilizzando la crittografia. Ma per riprodurre un DVD, il lettore deve decrittografarlo. Ogni volta che il consumatore consuma il DVD, il contenuto deve essere decrittografato. Nel percorso dal disco allo schermo, può essere piratato. Addio, Dvd. La storia delle protezioni anticopia dei DVD è stata una corsa agli armamenti tra offuscamenti a breve termine e aggiornamenti ripper; e tra le misure di deterrenza legale degli editori e le opportunità dei pirati. I proclamatori furono felici quando trovarono il modo di ritirarsi. I costi marginali dello streaming web sono così bassi che possono permettersi di permetterne la copia agli abbonati e rendere la pirateria meno redditizia. Ma hanno semplicemente buttato giù il barattolo lungo la strada.

In questa corsa agli armamenti, i fornitori di servizi di ricerca e di social media hanno svolto per lo più il ruolo di pirati, difendendosi dai creatori attraverso i termini di servizio e dagli editori attraverso la partecipazione agli utili. Resta da vedere in che misura i ruoli dei fornitori di chatbot differiranno.

Le persone temono che i chatbot possano danneggiarle. Il ragionamento è che i chatbot sono superiori alle persone e che le persone superiori hanno una propensione a danneggiare le persone inferiori. Quindi le persone sostengono che dovremmo farlo ai chatbot finché possiamo.

Le persone hanno sterminato molte specie nel passato e nel presente, e sembrano essere sulla buona strada per sterminare se stesse in futuro, rendendo l’ambiente inabitabile per i propri figli in cambio del fatto di diventare più ricchi oggi. Anche alcune persone lo considerano irrazionale. Non hai bisogno di un chatbot per vedere quell'elefante. Ma l’avidità è come fumare. Stressante ma crea dipendenza.

I chatbot non fumano. Sono addestrati sui dati. Le persone hanno fornito abbondanti dati storici sull’irrazionalità dell’aggressione. Se i chatbot imparassero dai dati, potrebbero rivelarsi moralmente superiori alle persone.

I chatbot sono estensioni della nostra mente proprio come gli strumenti musicali sono estensioni della nostra voce. Gli strumenti musicali sono proibiti in varie religioni, per evitare che la voce umana venga sostituita da suoni artificiali. Sforzi simili sono in corso nel regno della mente umana. La mente umana dovrebbe essere protetta dalla mente artificiale, dicono alcuni studiosi.

Nel campo della musica gli sforzi di repressione fallirono. Usiamo gli strumenti per suonare sinfonie, jazz, techno. Se non fallissero, non sapremmo mai che le sinfonie, il jazz e la techno fossero possibili.

Gli sforzi per proteggere la mente umana sono in corso. Le persone twittano e bloggano, vengono prodotti articoli su Medium. La mente umana è già una sinfonia techno.

Se l’intelligenza è definita come la capacità di risolvere problemi mai visti prima, allora un’azienda è intelligente. Molte aziende sono troppo complesse per essere controllate da un singolo manager umano. Sono guidati da reti computazionali in cui i nodi umani svolgono i loro ruoli. Ma sappiamo tutti in prima persona che i nodi umani non controllano nemmeno i comportamenti della propria rete, per non parlare della rete stessa. Eppure una rete di gestione aziendale risolve i problemi e ottimizza in modo intelligente le funzioni dei suoi oggetti. È un'entità artificialmente intelligente.

Se definiamo la moralità come il compito di ottimizzare la sostenibilità sociale della vita umana, allora sia i chatbot che le aziende sono moralmente indifferenti, poiché i chatbot sono costruiti per ottimizzare le loro trasformazioni di risposta alle domande, mentre le aziende hanno il compito di ottimizzare le loro strategie di profitto.

Se le IA dei chatbot moralmente indifferenti sono guidate da IA ​​aziendali moralmente indifferenti, allora il nostro futuro sarà in bilico tra le massime prestazioni e i profitti.

Fonte: towardsdatascience.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *