
Il nuovo istituto di Autoscience ha svelato “Carl”, il primo sistema di intelligenza artificiale che creina documenti di ricerca accademica a passare un rigoroso processo di revisione paritaria in doppio cieco.
I documenti di ricerca di Carl sono stati accettati nella pista dei piccoli documenti al Conferenza internazionale sulle rappresentazioni di apprendimento (ICLR). Criticamente, queste osservazioni sono state generate con un coinvolgimento umano minimo, annunciando una nuova era per la scoperta scientifica guidata dall'IA.
Incontra Carl: il “ricercatore automatizzato”
Carl rappresenta un salto in avanti nel ruolo dell'IA non solo come uno strumento, ma un partecipante attivo nella ricerca accademica. Descritto come “un ricercatore automatizzato”, Carl applica i modelli di linguaggio naturale per ideare, ipotesi e citare accuratamente il lavoro accademico.
Fondamentalmente, Carl può leggere e comprendere gli articoli pubblicati in pochi secondi. A differenza dei ricercatori umani, funziona continuamente, accelerando così i cicli di ricerca e riducendo i costi sperimentali.
Secondo Autoscience, Carl “ha ideato nuove ipotesi scientifiche, progettato ed eseguito esperimenti e ha scritto diversi documenti accademici che hanno superato la revisione tra pari nei seminari”.
Ciò sottolinea il potenziale dell'intelligenza artificiale non solo per integrare la ricerca umana ma, per molti versi, superarlo in velocità e efficienza.
Carl è un lavoratore meticoloso, ma il coinvolgimento umano è ancora vitale
La capacità di Carl di generare lavori accademici di alta qualità è costruita su un processo in tre fasi:
- Formazione di ideazione e ipotesi: Sfruttando la ricerca esistente, Carl identifica potenziali direzioni di ricerca e genera ipotesi. La sua profonda comprensione della letteratura correlata gli consente di formulare nuove idee nel campo dell'IA.
- Sperimentazione: Carl scrive codice, verifica ipotesi e visualizza i dati risultanti attraverso cifre dettagliate. La sua instancabile operazione accorcia i tempi di iterazione e riduce le attività ridondanti.
- Presentazione: Infine, Carl compila i suoi risultati su articoli accademici raffinati, completati con visualizzazioni di dati e conclusioni chiaramente articolate.
Sebbene le capacità di Carl lo rendano in gran parte indipendenti, ci sono punti nel suo flusso di lavoro in cui è ancora necessario il coinvolgimento umano per aderire agli standard computazionali, di formattazione ed etica:
- Passaggi di ricerca in luce verde: Per evitare di sprecare risorse computazionali, i revisori umani forniscono segnali “Continua” o “Stop” durante le fasi specifiche del processo di Carl. Questa guida guida Carl attraverso progetti in modo più efficiente ma non influenza i dettagli della ricerca stessa.
- Citazioni e formattazione: Il team di Autoscience garantisce che tutti i riferimenti siano correttamente citati e formattati per soddisfare gli standard accademici. Questo è attualmente un passo manuale, ma garantisce che la ricerca sia in linea con le aspettative della sua sede di pubblicazione.
- Assistenza con i modelli pre-API: Carl si basa di tanto in tanto su nuovi modelli di ricerca e profondi che mancano di API auto-accessibili. In tali casi, gli interventi manuali-come output di copia-colmano questi lacune. L'autoscienza prevede che questi compiti siano completamente automatizzati in futuro quando le API saranno disponibili.
Per il documento di debutto di Carl, il team umano ha anche contribuito a creare la sezione “opere correlate” e perfezionare la lingua. Questi compiti, tuttavia, non erano necessari a seguito degli aggiornamenti applicati prima delle conseguenze successive.
Processo di verifica rigoroso per l'integrità accademica
Prima di presentare qualsiasi ricerca, il team di Autoscience ha intrapreso un rigoroso processo di verifica per garantire che il lavoro di Carl soddisfacesse i più alti standard di integrità accademica:
- Riproducibilità: Ogni riga del codice di Carl è stata rivista e gli esperimenti sono stati eseguiti per confermare la riproducibilità. Ciò ha assicurato che i risultati fossero scientificamente validi e non anomalie coincidenti.
- Controlli di originalità: L'autoscience ha condotto ampie valutazioni di novità per garantire che le idee di Carl fossero nuovi contributi al campo e non ribadiscono le versioni delle pubblicazioni esistenti.
- Convalida esterna: Un hackathon che coinvolge ricercatori di importanti istituzioni accademiche – come il MIT, la Stanford University e l'UC Berkeley – hanno verificato in modo indipendente la ricerca di Carl. Sono stati eseguiti ulteriori controlli di plagio e citazione per garantire il rispetto delle norme accademiche.
Potenziale innegabile, ma solleva domande più grandi
Raggiungere l'accettazione in un seminario rispettato come l'ICLR è una pietra miliare significativa, ma l'autoscienza riconosce la maggiore conversazione che questa pietra miliare può scatenare. Il successo di Carl solleva più grandi questioni filosofiche e logistiche sul ruolo dell'IA in contesti accademici.
“Riteniamo che i risultati legittimi debbano essere aggiunti alla base di conoscenza pubblica, indipendentemente da dove hanno avuto origine”, ha spiegato l'autoscienza. “Se la ricerca soddisfa gli standard scientifici stabiliti dalla comunità accademica, allora chi – o cosa – non dovrebbe portare alla squalifica automatica.”
“Riteniamo inoltre, tuttavia, che sia necessaria una corretta attribuzione per la scienza trasparente e il lavoro puramente generato dai sistemi di intelligenza artificiale dovrebbe essere riconoscibile da quello prodotto dagli umani.”
Data la novità di ricercatori autonomi di intelligenza artificiale come Carl, gli organizzatori della conferenza potrebbero aver bisogno di tempo per stabilire nuove linee guida che spiegano questo paradigma emergente, in particolare per garantire una valutazione equa e standard di attribuzione intellettuale. Per prevenire al momento inutili controversie inutili, l'autoscienza ha ritirato i documenti di Carl dai seminari ICLR mentre questi quadri sono stati elaborati.
Andando avanti, l'autoscienza mira a contribuire a modellare questi standard in evoluzione. La società intende proporre un seminario dedicato a Neurips 2025 per ospitare formalmente le comunicazioni di ricerca da sistemi di ricerca autonomi.
Mentre si svolge la narrazione che circonda la ricerca generata dall'IA, è chiaro che sistemi come Carl non sono semplicemente strumenti ma collaboratori nella ricerca della conoscenza. Ma mentre questi sistemi trascendono i confini tipici, la comunità accademica deve adattarsi ad abbracciare pienamente questo nuovo paradigma, salvaguardando l'integrità, la trasparenza e la corretta attribuzione.
(Foto di Rohit Tandon)
Vedi anche: You.com ARI: agente di ricerca AI di livello professionale per le aziende

Vuoi saperne di più sull'intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L'evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber Security & Cloud Expo.
Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.
Fonte: www.artificialintelligence-news.com