OpenAI, un attore di spicco nel campo della intelligenza artificiale (AI), ha recentemente aggiornato la propria politica di utilizzo, rimuovendo divieti espliciti su applicazioni militari. La decisione dell’azienda di passare da un divieto specifico su “militare e guerra” a “sviluppo di armi” ha fatto preoccupare le persone sui suoi piani futuri. La nuova politica afferma che una direttiva più generale contro il causare danni ha suscitato polemiche e sollevato interrogativi sulla sua posizione riguardo al coinvolgimento con entità militari.
Leggi anche: Ex CEO di Google per potenziare l’esercito americano con l’intelligenza artificiale e il Metaverso
Svelato l’aggiornamento delle norme
In un recente aggiornamento alla sua pagina politica, OpenAI ha tranquillamente eliminato i divieti espliciti sulle applicazioni militari, come “sviluppo di armi” e “militare e guerra”. L’azienda ha inquadrato questo cambiamento come parte di uno sforzo più ampio per rendere il documento “più chiaro” e “più leggibile”, sottolineando il principio universale di evitare danni.
L’ambiguità suscita preoccupazioni
Mentre il portavoce di OpenAI Niko Felix ha sottolineato l’importanza di non causare danni, sono state espresse preoccupazioni riguardo all’ambiguità della nuova politica. I critici sostengono che il passaggio da divieti espliciti a un approccio più flessibile basato sulla legalità potrebbe avere implicazioni per la sicurezza dell’intelligenza artificiale, contribuendo potenzialmente a operazioni distorte e a un aumento dei danni, soprattutto in contesti militari.
Dinamiche e partnership del settore
Gli esperti, tra cui Lucy Suchman e Sarah Myers West, sottolineano la stretta collaborazione di OpenAI con Microsoft, un importante appaltatore della difesa, come un fattore che influenza l’evoluzione della politica dell’azienda. La collaborazione di OpenAI con Microsoft, che ha investito 13 miliardi di dollari nel creatore di modelli linguistici, aggiunge complessità alle discussioni, in particolare perché gli eserciti di tutto il mondo esprimono interesse nell’integrare modelli linguistici di grandi dimensioni come ChatGPT nelle loro operazioni.
Leggi anche: Il governo cinese e l’esercito acquisiscono i chip Nvidia nel contesto del divieto di esportazione statunitense
Considerazioni e critiche etiche
Heidy Khlaaf, direttore tecnico della società di sicurezza informatica Trail of Bits, evidenzia le potenziali preoccupazioni etiche, sottolineando che il passaggio a un approccio più incentrato sulla conformità potrebbe avere un impatto sulla sicurezza dell’intelligenza artificiale. La rimozione di divieti espliciti ha portato a speculazioni sulla volontà di OpenAI di impegnarsi con entità militari, con i critici che suggeriscono un silenzioso indebolimento della posizione dell’azienda contro i rapporti commerciali con i militari.
Il nostro dire
La decisione di OpenAI di rivedere la propria politica di utilizzo, in particolare per quanto riguarda le applicazioni militari, è un momento cruciale che richiede un attento esame. Sebbene l’azienda affermi l’impegno a evitare danni, le implicazioni più ampie del potenziale uso militare, le considerazioni etiche e il panorama in evoluzione delle partnership sull’intelligenza artificiale richiedono trasparenza. Poiché la tecnologia continua ad avanzare, OpenAI deve affrontare queste complessità in modo responsabile, considerando l’impatto sociale dei suoi strumenti.
La politica aggiornata introduce un cambiamento che va oltre il semplice perfezionamento del linguaggio, innescando discussioni sul ruolo di OpenAI in ambito militare. Il chiarimento dell’azienda sui casi d’uso della sicurezza nazionale e sulle collaborazioni con entità come la DARPA apre un dialogo sull’intersezione tra intelligenza artificiale, etica e applicazioni militari in un panorama tecnologico in rapida evoluzione.
Seguici su Google News per rimanere aggiornato con le ultime innovazioni nel mondo dell’AI, Data Science e GenAI.
Imparentato
Fonte: www.analyticsvidhya.com