Servizi Web di Amazon (AWS) ha annunciato miglioramenti per rafforzare Bedrock, il suo servizio di intelligenza artificiale generativa completamente gestito.
Gli aggiornamenti includono nuovi modelli fondamentali di diversi pionieri dell’intelligenza artificiale, capacità di elaborazione dei dati migliorate e funzionalità volte a migliorare l’efficienza dell’inferenza.
Il dottor Swami Sivasubramanian, VP of AI and Data presso AWS, ha dichiarato: “Amazon Bedrock continua a vedere una rapida crescita mentre i clienti affollano il servizio per la sua ampia selezione di modelli leader, strumenti da personalizzare facilmente con i propri dati, funzionalità di IA responsabile integrate e capacità per lo sviluppo di agenti sofisticati.
“Con questa nuova serie di funzionalità, stiamo consentendo ai clienti di sviluppare applicazioni IA più intelligenti che offriranno maggiore valore ai loro utenti finali”.
Amazon Bedrock espande la sua diversità di modelli
AWS è destinato a diventare il primo fornitore di servizi cloud a presentare modelli degli sviluppatori di intelligenza artificiale Luma AI e poolside, incorporando anche l'ultima versione di Stability AI.
Attraverso il suo nuovo Mercato Amazon Bedrocki clienti avranno accesso a oltre 100 modelli emergenti e specializzati di tutti i settori, garantendo loro la possibilità di selezionare gli strumenti più appropriati per le loro esigenze specifiche.
Luma AI, nota per il progresso dell'intelligenza artificiale generativa nella creazione di contenuti video, porta il suo modello Ray 2 di prossima generazione su Amazon Bedrock. Questo modello genera output video realistici e di alta qualità da input di testo o immagini e consente alle organizzazioni di creare output dettagliati in campi quali moda, architettura e design grafico. La presenza di AWS come primo fornitore di questo modello garantisce che le aziende possano sperimentare nuovi angoli di ripresa, stili cinematografici e personaggi coerenti con un flusso di lavoro fluido.
- a bordo piscina Malibu E punto
Progettati per affrontare le sfide della moderna ingegneria del software, i modelli a bordo piscina: Malibu E punto – specializzati nella generazione di codice, test, documentazione e completamento del codice in tempo reale. È importante sottolineare che gli sviluppatori possono ottimizzare in modo sicuro questi modelli utilizzando i propri set di dati privati. Accompagnati da Assistant, un'integrazione per gli ambienti di sviluppo, gli strumenti a bordo piscina consentono ai team di ingegneri di accelerare la produttività, spedire i progetti più velocemente e aumentare la precisione.
- Stabilità Diffusione stabile dell'IA 3,5 Grande
I clienti di Amazon Bedrock avranno presto accesso al modello text-to-image di Stability AI Diffusione stabile 3,5 Grande. Questa aggiunta supporta le aziende nella creazione di media visivi di alta qualità per casi d'uso in aree come giochi, pubblicità e vendita al dettaglio.
Attraverso il Bedrock Marketplace, AWS consente inoltre l'accesso a oltre 100 modelli specializzati. Questi includono soluzioni su misura per campi come la biologia (il modello generativo ESM3 di EvolutionaryScale), i dati finanziari (Palmyra-Fin di Writer) e i media (MARS6 da testo ad audio di Camb.ai).
Zendesk, un'azienda globale di software per il servizio clienti, sfrutta il mercato di Bedrock per personalizzare il supporto attraverso e-mail e canali social utilizzando strumenti di localizzazione e analisi del sentiment basati sull'intelligenza artificiale. Ad esempio, utilizzano modelli come Widn.AI per personalizzare le risposte in base al sentiment in tempo reale nelle lingue native dei clienti.
Inferenza scalabile con le nuove funzionalità di Amazon Bedrock
Le applicazioni di intelligenza artificiale generativa su larga scala richiedono il bilanciamento di costi, latenza e accuratezza dei processi di inferenza. AWS sta affrontando questa sfida con due nuove funzionalità di Amazon Bedrock:
La nuova funzionalità di memorizzazione nella cache riduce l'elaborazione ridondante dei prompt archiviando in modo sicuro le query utilizzate di frequente, risparmiando tempo e costi. Questa funzionalità può portare a una riduzione dei costi fino al 90% e a una diminuzione della latenza fino all’85%. Ad esempio, Adobe ha incorporato Prompt Caching nel suo Acrobat AI Assistant per riepilogare documenti e rispondere a domande, ottenendo una riduzione del 72% dei tempi di risposta durante i test iniziali.
- Instradamento rapido intelligente
Questa funzionalità indirizza dinamicamente le richieste al modello di fondazione più adatto all'interno di una famiglia, ottimizzando i risultati sia in termini di costi che di qualità. Clienti come Argo Labs, che costruisce soluzioni di intelligenza artificiale vocale conversazionale per ristoranti, ne hanno già beneficiato. Mentre le query più semplici (come le tabelle di prenotazione) vengono gestite da modelli più piccoli, le richieste più sfumate (ad esempio, domande sui menu specifici per la dieta) vengono indirizzate in modo intelligente a modelli più grandi. L'utilizzo del Prompt Routing intelligente da parte di Argo Labs non solo ha migliorato la qualità della risposta, ma ha anche ridotto i costi fino al 30%.
Utilizzo dei dati: basi di conoscenza e automazione
Una delle principali attrattive dell’intelligenza artificiale generativa risiede nella sua capacità di estrarre valore dai dati. AWS sta migliorando le sue Amazon Bedrock Knowledge Base per garantire che le organizzazioni possano distribuire i loro set di dati unici per esperienze utente più ricche basate sull'intelligenza artificiale.
AWS ha introdotto funzionalità per il recupero strutturato dei dati all'interno delle basi di conoscenza. Questo miglioramento consente ai clienti di interrogare i dati archiviati nei servizi Amazon come SageMaker Lakehouse e Redshift tramite istruzioni in linguaggio naturale, con i risultati tradotti in query SQL. Octus, una società di intelligence creditizia, prevede di utilizzare questa capacità per fornire ai clienti report dinamici e in linguaggio naturale sui propri dati finanziari strutturati.
Incorporando la modellazione grafica automatizzata (fornita da Amazon Neptune), i clienti possono ora generare e connettere dati relazionali per applicazioni IA più potenti. Il BMW Group, ad esempio, utilizzerà GraphRAG per potenziare il suo assistente virtuale MAIA. Questo assistente attinge alla ricchezza di dati interni di BMW per fornire risposte complete ed esperienze utente premium.
Separatamente, AWS ha presentato Amazon Bedrock Data Automation, uno strumento che trasforma contenuti non strutturati (ad esempio documenti, video e audio) in formati strutturati per l'analisi o la generazione aumentata di recupero (RAG). Aziende come Symbeo (elaborazione automatizzata dei sinistri) e Tenovos (gestione delle risorse digitali) stanno già sperimentando lo strumento per migliorare l’efficienza operativa e il riutilizzo dei dati.
L'espansione dell'ecosistema di Amazon Bedrock riflette la sua crescente popolarità, con il servizio che ha registrato un aumento di 4,7 volte della sua base clienti nell'ultimo anno. Leader del settore come Adobe, BMW, Zendesk e Tenovos hanno tutti abbracciato le ultime innovazioni di AWS per migliorare le proprie capacità di intelligenza artificiale generativa.
La maggior parte degli strumenti appena annunciati, come la gestione dell'inferenza, le basi di conoscenza con recupero di dati strutturati e GraphRAG, sono attualmente in anteprima, mentre a breve sono attesi rilasci di modelli degni di nota da Luma AI, poolside e Stability AI.
Vedi anche: Alibaba Cloud rivede l'iniziativa dei partner AI
Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.
Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.
Fonte: www.artificialintelligence-news.com