
Man mano che gli eventi geopolitici modellano il mondo, non sorprende che anche loro influenzano la tecnologia, in particolare, nei modi in cui l'attuale mercato dell'IA sta cambiando, insieme alla sua metodologia accettata, al modo in cui si sviluppa e ai modi in cui viene utilizzato nell'impresa.
Le aspettative dei risultati dall'intelligenza artificiale sono attualmente bilanciate con realtà del mondo reale. E rimane un sacco di sospetto sulla tecnologia, sempre in equilibrio con coloro che la stanno abbracciando anche nelle sue attuali fasi nascenti. La natura a circuito chiuso del noto LLMS è sfidata da casi come Llama, DeepSeek e Ernie X1 recentemente rilasciato da Baidu.
Al contrario, lo sviluppo open source fornisce la trasparenza e la capacità di contribuire, il che è più in sintonia con il desiderio di “AI responsabile”: una frase che comprende l'impatto ambientale dei modelli di grandi dimensioni, come vengono utilizzati gli AIS, ciò che comprende il loro apprendimento Corporae questioni relative alla sovranità, alla lingua e alla politica dei dati.
Come società che ha dimostrato la fattibilità di un modello di sviluppo open source economicamente sostenuto per le sue attività, Cappello rosso Vuole estendere il suo approccio aperto, collaborativo e guidato dalla comunità all'IA. Di recente abbiamo parlato di Julio Guijarro, il CTO per EMEA a Red Hat, degli sforzi dell'organizzazione per sbloccare il potere indubbia dei modelli di AI generativi in modi che apportano valore all'impresa, in un modo responsabile, sostenibile e il più trasparente possibile.
Julio ha sottolineato quanta istruzione è ancora necessaria per noi per comprendere più appieno l'IA, affermando: “Date le significative incognite sui meccanismi interni dell'IA, che sono radicati in scienza e matematica complesse, rimane una” scatola nera “per molti. Questa mancanza di trasparenza è aggravata dove è stata sviluppata in gran parte in ambienti chiusi.”
Ci sono anche problemi con la lingua (le lingue europee e medio-orientali sono molto sottostanti), sovranità dei dati e fondamentalmente, fiducia. “I dati sono le risorse più preziose di un'organizzazione e le aziende devono assicurarsi di essere consapevoli dei rischi di esporre dati sensibili a piattaforme pubbliche con diverse politiche sulla privacy.”
La risposta del Red Hat
La risposta di Red Hat alla domanda globale per l'IA è stata quella di perseguire ciò che ritiene porterà il maggior numero di benefici agli utenti finali e rimuovere molti dubbi e avvertenze che stanno rapidamente diventando evidenti quando il Infatti I servizi di intelligenza artificiale sono distribuiti.
Una risposta, ha detto Julio, sono i piccoli modelli di linguaggio, che eseguono a livello locale o in nuvole ibride, su hardware non specialistici e accesso alle informazioni commerciali locali. Gli SLM sono alternative compatte ed efficienti a LLMS, progettate per offrire prestazioni forti per compiti specifici, pur richiedendo un minor numero di risorse computazionali. Esistono più piccoli fornitori di cloud che possono essere utilizzati per scaricare un po 'di calcolo, ma la chiave è avere la flessibilità e la libertà di scegliere di mantenere internamente le informazioni critiche sul business, vicino al modello. È importante, perché le informazioni in un'organizzazione cambiano rapidamente. “Una sfida con i modelli linguistici di grandi dimensioni è che possono diventare obsoleti rapidamente perché la generazione di dati non sta accadendo nelle grandi nuvole. I dati stanno accadendo accanto a te e ai tuoi processi aziendali”, ha detto.
C'è anche il costo. “Il servizio clienti che interroga un LLM può presentare un costo nascosto significativo – prima dell'IA, sapevi che quando hai effettuato una query di dati, aveva una portata limitata e prevedibile. Pertanto, potresti calcolare quanto quella transazione potrebbe costarti. Nel caso di LLMS. Stessa domanda che prima era una singola transazione può diventare cento, a seconda di chi e come sta usando il modello.
Tuttavia, le organizzazioni non devono prepararsi per un round di approvvigionamento che prevede la scrittura di un enorme assegno per le GPU. Parte dell'attuale lavoro di Red Hat è l'ottimizzazione dei modelli (all'aperto, ovviamente) per funzionare su hardware più standard. È possibile perché i modelli specialistici che molte aziende utilizzeranno non hanno bisogno degli enormi dati per scopi generali corpus Questo deve essere elaborato ad alto costo con ogni domanda.
“Gran parte del lavoro che sta accadendo in questo momento sono le persone che guardano in grandi modelli e la rimozione di tutto ciò che non è necessario per un caso d'uso particolare. Se vogliamo rendere Ubiquitous, deve essere attraverso modelli di lingua
Mantenendolo piccolo
L'uso e il riferimento dei dati locali pertinenti all'utente significa che i risultati possono essere realizzati in base alle necessità. Julio ha citato progetti nei mondi di lingua arabo e portoghese che non sarebbero stati praticabili usando il nome familiare incentrato sull'inglese LLMS.
Ci sono anche un paio di altre questioni che le organizzazioni dei primi ad adottare hanno trovato LLMS pratico e quotidiano. Il primo è latenza, che può essere problematica in contesti sensibili al tempo o rivolti al cliente. Avere le risorse focalizzate e i risultati su misura in modo relativo solo un salto di rete o due di distanza ha senso.
In secondo luogo, c'è il problema della fiducia: parte integrante dell'IA responsabile. Red Hat sostiene piattaforme, strumenti e modelli aperti in modo da poter passare a una maggiore trasparenza, comprensione e capacità per il maggior numero possibile di persone di contribuire. “Sarà fondamentale per tutti”, ha detto Julio. “Stiamo sviluppando capacità per democratizzare l'intelligenza artificiale e questo non è solo pubblicare un modello, ma dà agli utenti gli strumenti per essere in grado di replicarli, sintonizzarli e servirli.”
Red Hat di recente Magia neurale acquisita Per aiutare le aziende a ridimensionare più facilmente l'IA, migliorare le prestazioni dell'inferenza e fornire una scelta e un'accessibilità ancora maggiore di come le aziende costruiscono e distribuiscono carichi di lavoro di intelligenza artificiale con il Vllm Progetto per il servizio di modello aperto. Red Hat, insieme a IBM Research, anche pubblicato InstructLab Aprire la porta ai potenziali costruttori di intelligenza artificiale che non sono data scientist ma che hanno le giuste conoscenze aziendali.
Ci sono molte speculazioni su se, o quando la bolla di intelligenza artificiale potrebbe scoppiare, ma tali conversazioni tendono a gravitare alla realtà economica che i grandi fornitori di LLM dovranno presto affrontare. Red Hat ritiene che l'IA abbia un futuro in una forma d'uso di casi-specifica e intrinsecamente open source, una tecnologia che avrà senso commerciale e che sarà disponibile per tutti. Per citare il capo di Julio, Matt Hicks (CEO di Red Hat), “Il futuro dell'IA è aperto.”
Risorse di supporto:
Fonte: www.artificialintelligence-news.com