Ilya Sutskever, ex capo scienziato di OpenAI, ha rivelato il suo prossimo grande progetto dopo aver lasciato la società di ricerca sull'intelligenza artificiale da lui co-fondata a maggio.

Insieme al collega ex studente di OpenAI Daniel Levy e all'ex responsabile dell'intelligenza artificiale di Apple Daniel Gross, si è formato il trio Safe Superintelligence Inc. (SSI), una startup focalizzata esclusivamente sulla costruzione di sistemi superintelligenti sicuri.

La costituzione della SSI segue il breve novembre 2023 estromettere del CEO di OpenAI Sam Altman, in cui Sutskever ha svolto un ruolo centrale prima di esprimere in seguito rammarico per la situazione.

In un messaggio sul sito web della SSI, i fondatori affermano:

“Ci avviciniamo alla sicurezza e alle capacità in tandem, come problemi tecnici da risolvere attraverso innovazioni ingegneristiche e scientifiche rivoluzionarie. Abbiamo intenzione di far avanzare le nostre capacità il più velocemente possibile, assicurandoci al tempo stesso che la nostra sicurezza rimanga sempre al passo con i tempi. In questo modo possiamo crescere in tutta tranquillità.

Il nostro focus unico non implica alcuna distrazione da parte delle spese generali di gestione o dei cicli di prodotto, e il nostro modello di business significa che la sicurezza, la protezione e il progresso sono tutti isolati dalle pressioni commerciali a breve termine”.

Il lavoro di Sutskever presso SSI rappresenta una continuazione dei suoi sforzi presso OpenAI, dove ha fatto parte del team di superallineamento incaricato di progettare metodi di controllo per nuovi e potenti sistemi di intelligenza artificiale. Tuttavia, quel gruppo è stato sciolto in seguito alla partenza di alto profilo di Sutskever.

Secondo SSI, perseguirà la superintelligenza sicura in “un colpo diretto, con un focus, un obiettivo e un prodotto”. Questo focus singolare è in contrasto con la diversificazione osservata nei principali laboratori di intelligenza artificiale come OpenAI, DeepMind e Anthropic negli ultimi anni.

Solo il tempo dirà se il team di Sutskever potrà compiere progressi sostanziali verso il suo ambizioso obiettivo di un’intelligenza artificiale superintelligente sicura. I critici sostengono che la sfida rappresenta una questione di filosofia tanto quanto di ingegneria. Tuttavia, il pedigree dei fondatori di SSI significa che i loro sforzi saranno seguiti con grande interesse.

Nel frattempo, aspettatevi di vedere una rinascita della domanda “Cosa ha visto Ilya?” meme:

Guarda anche: Meta svela cinque modelli di intelligenza artificiale per l'elaborazione multimodale, la generazione di musica e altro ancora

Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

Tag: agi, intelligenza artificiale, etica, Ilya Sutskever, openai, sicurezza, ssi, ssi inc, superintelligenza

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *