Dal 1° agosto 2024, l’EU AI Act è ufficialmente diventato un quadro giuridico per la governance dell’IA. Questa legislazione pionieristica mira a garantire che i sistemi di IA operanti all’interno dell’UE siano sicuri e affidabili, classificando le applicazioni in base ai livelli di rischio e imponendo obblighi adeguati.
Il seguente articolo sulle notizie sull'intelligenza artificiale dell'agosto 2024 riassume gli sviluppi chiave nel panorama dell'intelligenza artificiale nel corso dell'ultimo mese, evidenziando le implicazioni dell'AI Act e altri notevoli progressi nel settore.
Le principali novità sull'IA di agosto 2024 includono:
- Entra in vigore la legge europea sull’IA
- OpenAI e Anthropic collaborano con l'AI Safety Institute statunitense
- Microsoft presenta i nuovi modelli AI Phi-3.5
- ChatGPT raddoppia gli utenti settimanali portandoli a 200 milioni
1. L'AI Act europeo entra in vigore, creando un precedente globale
L'AI Act dell'Unione Europea, la prima legge completa che disciplina l'intelligenza artificiale,entrato ufficialmente in vigore il 1° agosto. Progettata per garantire che i sistemi di intelligenza artificiale utilizzati nell’UE siano sicuri e affidabili, la legge stabilisce un quadro basato sul rischio per classificare le applicazioni di intelligenza artificiale e imporre obblighi corrispondenti.
Il regolamento delinea quattro categorie di rischio: minimo, trasparenza specifica, alto e inaccettabile. I sistemi di intelligenza artificiale a rischio minimo, come i filtri antispam, non hanno obblighi, mentre le applicazioni di intelligenza artificiale con rischi di trasparenza, come chatbot e deep fake, devono essere chiaramente comunicate agli utenti.
I sistemi di intelligenza artificiale ad alto rischio, quelli coinvolti in aree come il reclutamento e la valutazione del credito, devono soddisfare severi requisiti di sicurezza e trasparenza, inclusa la supervisione umana e i controlli sulla qualità dei dati. I sistemi di intelligenza artificiale che rappresentano un “rischio inaccettabile”, come quelli utilizzati per il punteggio sociale o comportamenti manipolativi, sono completamente vietati.
Gli Stati membri hanno tempo fino all’agosto 2025 per istituire organismi di regolamentazione per applicare la legge. Per prepararsi alla piena applicazione entro il 2026, l’UE ha introdotto il Patto sull’intelligenza artificiale, incoraggiando le aziende ad adeguarsi volontariamente in anticipo. La non conformità potrebbe comportare sanzioni fino al 7% del fatturato globale per violazioni gravi.
2. OpenAI e Anthropic collaborano con l'AI Safety Institute statunitense per i test dei modelli pre-rilascio
OpenAI e Anthropic, due importanti startup di intelligenza artificiale, lo hanno fatto hanno accettato di consentire all'Istituto statunitense per la sicurezza AI di testare i propri modelli prima del rilascio al pubblico. Questa decisione viene presa mentre le preoccupazioni sulla sicurezza e sull’etica dell’IA nel settore continuano ad aumentare. L'AI Safety Institute statunitense, che opera sotto il National Institute of Standards and Technology (NIST), avrà accesso ai nuovi modelli di queste aziende sia prima che dopo il rilascio, con l'obiettivo di valutare e mitigare i potenziali rischi.
A seguito del primo ordine esecutivo in assoluto del governo degli Stati Uniti sull’intelligenza artificiale, questa collaborazione pubblicata nel 2023 sottolinea la necessità di valutazioni della sicurezza e di ricerca sull’impatto sociale dell’intelligenza artificiale.
Il CEO di OpenAI, Sam Altman, ha espresso sostegno all'accordo, mentre il co-fondatore di Anthropic, Jack Clark, ha sottolineato l'importanza di test rigorosi per garantire uno sviluppo responsabile dell'IA. L’accordo consente inoltre la ricerca congiunta per valutare le capacità dell’intelligenza artificiale e affrontare i problemi di sicurezza.
3. Microsoft presenta i nuovi modelli AI Phi-3.5
Nell'agosto 2024, Microsoft ha introdotto tre nuovi modelli nella serie Phi-3.5segnando un notevole progresso nell’intelligenza artificiale multilingue e multimodale. Questi modelli, Phi-3.5 Mini Instruct, Phi-3.5 MoE (Mixture of Experts) e Phi-3.5 Vision Instruct, sono progettati per diverse attività tra cui ragionamento, generazione di codice e analisi di immagini.
Il modello Phi-3.5 Mini Instruct, ottimizzato per ambienti con vincoli di memoria, eccelle nel ragionamento basato sulla logica. Il modello Phi-3.5 MoE utilizza un'architettura innovativa per fornire prestazioni IA scalabili, superando i modelli più grandi in vari benchmark. Infine, Phi-3.5 Vision Instruct integra l'elaborazione di testo e immagini per attività quali il riconoscimento ottico dei caratteri e il riepilogo video.
Tutti i modelli sono disponibili su Hugging Face con una licenza aperta MIT, che consente agli sviluppatori di utilizzarli e modificarli liberamente. L'approccio open source di Microsoft mira a promuovere l'innovazione nella comunità dell'intelligenza artificiale mantenendo prestazioni all'avanguardia.
4. ChatGPT raddoppia gli utenti settimanali portandoli a 200 milioni
ChatGPT di OpenAI ha ha raggiunto 200 milioni di utenti attivi settimanaliraddoppiando i suoi numeri rispetto allo scorso novembre, secondo Axios. Un portavoce di OpenAI ha confermato che il 92% delle aziende Fortune 500 ora utilizza i prodotti OpenAI, con un aumento dell'utilizzo delle API dopo il lancio del più conveniente GPT-4o Mini.
ChatGPT continua a dover affrontare la concorrenza delle piattaforme di chat AI come Google, Microsoft e Meta. L'assistente di Meta conta ora 185 milioni di utenti settimanali.
Segui altre notizie sull'IA:
Fonte: lookai.vc