
Il modo in cui interagiamo con i nostri computer e dispositivi intelligenti è molto diverso dagli anni precedenti. Nel corso dei decenni, le interfacce umane-computer si sono trasformate, progredendo da semplici schede di cartone per tastiere e topi e ora estesi agenti di AI basati sulla realtà che possono conversare con noi allo stesso modo in cui facciamo con gli amici.
Con ogni anticipo nelle interfacce umane-computer, ci stiamo avvicinando al raggiungimento dell'obiettivo delle interazioni con le macchine, rendendo i computer più accessibili e integrati con le nostre vite.
Dove è iniziato tutto?
I computer moderni sono emersi nella prima metà del 20 ° secolo e hanno fatto affidamento su Carte di punch Nutrire i dati nel sistema e abilitare i calcoli binari. Le carte avevano una serie di buchi perforati e la luce era brillante. Se la luce passava attraverso un buco e veniva rilevata dalla macchina, rappresentava una “uno”. Altrimenti, era uno “zero”. Come puoi immaginare, è stato estremamente ingombrante, che richiede tempo e soggetto a errori.
Che è cambiato con l'arrivo di Eniaco integratore numerico elettronico e computer, ampiamente considerato il primo dispositivo “Turing-Complete” che potrebbe risolvere una varietà di problemi numerici. Invece di schede di punch, l'esecuzione di ENIAC ha coinvolto l'impostazione manuale di una serie di switch e il collegamento di cavi di patch in una scheda per configurare il computer per calcoli specifici, mentre i dati sono stati inseriti tramite un'ulteriore serie di switch e pulsanti. È stato un miglioramento rispetto alle schede perforate, ma non così drammatico come l'arrivo del tastiera elettronica Qwerty moderna All'inizio degli anni '50.
Le tastiere, adattate dalle macchine da scrivere, erano un punto di svolta, consentendo agli utenti di inserire i comandi basati su testo in modo più intuitivo. Ma mentre hanno reso più veloce la programmazione, l'accessibilità era ancora limitata a quelli con conoscenza dei comandi di programmazione altamente tecnici richiesti per gestire i computer.
Guis e tocco
Lo sviluppo più importante in termini di accessibilità al computer era il Interfaccia utente grafica o GUI, che alla fine ha aperto il calcolo alle masse. Le prime GUI sono apparse alla fine degli anni '60 e sono state successivamente perfezionate da aziende come IBM, Apple e Microsoft, sostituendo i comandi basati su testo con un display visivo composto da icone, menu e Windows.
Accanto alla GUI è arrivato l'iconico “topo“, Che ha permesso agli utenti di” puntare e fare clic “per interagire con i computer. Improvvisamente, queste macchine divennero facilmente navigabili, permettendo a quasi chiunque di gestirne una. Con l'arrivo di Internet qualche anno dopo, la GUI e il mouse hanno contribuito a spianare la strada alla rivoluzione informatica, con i computer che sono diventati all'ordine del giorno in ogni casa e ufficio.
Il prossimo traguardo importante nelle interfacce umane-computer era il touchscreenche è apparso per la prima volta alla fine degli anni '90 e ha eliminato la necessità di un mouse o di una tastiera separata. Gli utenti potrebbero ora interagire con i loro computer toccando direttamente le icone sullo schermo, pizzicando lo zoom e scorrendo a sinistra e a destra. I touchscreen alla fine hanno spianato la strada alla rivoluzione degli smartphone che è iniziata con l'arrivo di Apple iPhone nel 2007 e, in seguito, dispositivi Android.
Con l'ascesa del mobile computing, la varietà di dispositivi informatici si è evoluta ulteriormente e alla fine degli anni 2000 e all'inizio del 2010, abbiamo assistito all'emergere di dispositivi indossabili come tracker di fitness e smartwatch. Tali dispositivi sono progettati per integrare i computer nella nostra vita quotidiana ed è possibile interagire con loro in modi più recenti, come gesti sottili e segnali biometrici. I tracker di fitness, ad esempio, usano i sensori per tenere traccia di quanti passaggi facciamo o quanto lontano eseguiamo e possiamo monitorare il polso di un utente per misurare la frequenza cardiaca.
Realtà estesa e avatar di AI
Nell'ultimo decennio, abbiamo anche visto i primi sistemi di intelligenza artificiale, con i primi esempi sono Siri di Apple e Alexa di Amazon. AI Chatbots Usa la tecnologia di riconoscimento vocale per consentire agli utenti di comunicare con i propri dispositivi usando la propria voce.
Dato che l'IA ha avanzato, questi sistemi sono diventati sempre più sofisticati e meglio in grado di comprendere istruzioni o domande complesse e possono rispondere in base al contesto della situazione. Con chatbot più avanzati come Chatgpt, è possibile impegnarsi in conversazioni realistiche con le macchine, eliminando la necessità di qualsiasi tipo di dispositivo di input fisico.
L'IA è ora combinata con emergere realtà aumentata e realtà virtuale Tecnologie per perfezionare ulteriormente le interazioni umane-computer. Con AR, possiamo inserire informazioni digitali nell'ambiente circostante, sovrapponendole sopra il nostro ambiente fisico. Ciò è abilitato utilizzando dispositivi VR come Oculus Rift, HoloLens e Apple Vision Pro e spinge ulteriormente i confini di ciò che è possibile.
Cosiddetto realtà estesao XR, è l'ultima interpretazione della tecnologia, sostituendo i metodi di input tradizionali con il tracciamento degli occhi e i gesti e può fornire feedback tattili, consentendo agli utenti di interagire con gli oggetti digitali in ambienti fisici. Invece di essere limitato a schermi bidimensionali piatti, tutto il nostro mondo diventa un computer attraverso una miscela di realtà virtuale e fisica.
La convergenza di XR e AI apre le porte a più possibilità. Rete Mawari sta portando agenti AI e chatbot nel mondo reale attraverso l'uso della tecnologia XR. Sta creando interazioni più significative e realistiche Streaming Avatar AI direttamente nei nostri ambienti fisici. Le possibilità sono infinite: immagina un assistente virtuale basato sull'intelligenza artificiale in piedi a casa tua o un concierge digitale che ti incontra nella hall dell'hotel, o persino un passeggero di intelligenza artificiale che si trova accanto a te nella tua auto, indirizzandoti su come evitare gli ingorghi del traffico peggiori. Attraverso la sua infrastruttura di DePin decentralizzata, consente agli agenti di intelligenza artificiale di cadere nella nostra vita in tempo reale.
La tecnologia è nascente ma non è fantasy. In Germania, i turisti possono chiamare un Avatar chiamato Emma per guidarli verso i migliori punti e ristoranti in dozzine di città tedesche. Altri esempi includono popstar digitali come NaevisIl che è pionieristico il concetto di concerti virtuali a cui è possibile partecipare da qualsiasi luogo.
Nei prossimi anni, possiamo aspettarci di vedere questo calcolo spaziale basato su XR combinato con Interfacce cerebrali-computerche promettono di consentire agli utenti di controllare i computer con i loro pensieri. I BCI usano gli elettrodi posizionati sul cuoio capelluto e raccogli i segnali elettrici generati dai nostri cervelli. Sebbene sia ancora agli inizi, questa tecnologia promette di fornire le interazioni più efficaci del computer umano.
Il futuro sarà senza soluzione di continuità
La storia dell'interfaccia umana-computer è ancora in corso e con l'avanzare delle nostre capacità tecnologiche, la distinzione tra realtà digitale e fisica sarà più sfocata.
Forse un giorno presto vivremo in un mondo in cui i computer sono onnipresenti, integrati in ogni aspetto della nostra vita, simile al famoso Holodeck di Star Trek. Le nostre realtà fisiche saranno unite al mondo digitale e saremo in grado di comunicare, trovare informazioni ed eseguire azioni usando solo i nostri pensieri. Questa visione sarebbe stata considerata fantasiosa solo pochi anni fa, ma il rapido ritmo dell'innovazione suggerisce che non è quasi così inverosimile. Piuttosto, è qualcosa che la maggior parte di noi vivrà per vedere.
(Fonte immagine: Unsplash)
Fonte: www.artificialintelligence-news.com