OpenAI collabora con le forze armate statunitensi su iniziative di sicurezza informatica

 | Intelligenza-Artificiale

In linea con un recente cambiamento politico, OpenAI, il creatore di ChatGPT, si sta impegnando attivamente con le forze armate statunitensi su vari progetti, concentrandosi in particolare sulle capacità di sicurezza informatica. Questo sviluppo arriva sulla scia della recente rimozione da parte di OpenAI del linguaggio nei suoi termini di servizio che in precedenza limitava l’uso della sua intelligenza artificiale (AI) nelle applicazioni militari. Sebbene l’azienda mantenga il divieto sullo sviluppo e sui danni di armi, questa collaborazione sottolinea un aggiornamento più ampio nelle politiche per adattarsi alle nuove applicazioni della loro tecnologia.

Leggi anche: OpenAI aggiorna la politica per consentire l’uso militare e lo sviluppo di armi

Collaborazione militare di OpenAI

OpenAI sta collaborando con il Dipartimento della Difesa degli Stati Uniti per sviluppare software di sicurezza informatica open source, in deroga al precedente divieto di fornire intelligenza artificiale per scopi militari. Questa collaborazione include progetti con la Defense Advanced Research Projects Agency (DARPA), come l’AI Cyber ​​Challenge annunciata lo scorso anno.

OpenAI, produttore di ChatGPT, collabora con l'esercito americano subito dopo l'aggiornamento delle politiche

Prevenzione del suicidio dei veterani

Anna Makanju, vicepresidente degli affari globali di OpenAI, ha rivelato in un’intervista che la società è in trattative con il governo degli Stati Uniti per quanto riguarda gli strumenti per aiutare a prevenire i suicidi dei veterani. Questa mossa dimostra l’impegno di OpenAI nei confronti delle applicazioni del settore pubblico oltre il suo ambito tradizionale.

Aggiornamento delle politiche e impegno etico

La rimozione del testo che vieta l’uso dell’intelligenza artificiale nelle applicazioni “militari e di guerra” ha suscitato discussioni. Makanju ha chiarito che, sebbene OpenAI abbia revocato il divieto generale sull’uso militare, mantiene linee guida rigorose contro lo sviluppo di armi, la causa di danni o la distruzione di proprietà. Questo aggiornamento delle norme mira a fornire chiarezza sulle applicazioni accettabili di ChatGPT e altri strumenti.

Leggi anche: OpenAI si prepara per un’intelligenza artificiale etica e responsabile

OpenAI si prepara per un'intelligenza artificiale etica e responsabile

Collaborazione di settore e ruolo di Microsoft

OpenAI, insieme ad Anthropic, Google e Microsoft, partecipa attivamente all’AI Cyber ​​Challenge della US Defense Advanced Research Agency. Microsoft, il più grande investitore di OpenAI, ha fornito contratti software alle forze armate statunitensi, dimostrando una più ampia collaborazione del settore nel miglioramento della sicurezza informatica.

Leggi anche: L’UE lancia un’indagine sulla collaborazione Microsoft-OpenAI

Misure di sicurezza elettorale

Alla luce delle crescenti preoccupazioni sulla sicurezza elettorale, OpenAI sta intensificando gli sforzi per prevenire l’uso improprio di ChatGPT e di altri strumenti di intelligenza artificiale generativa per diffondere disinformazione politica. Il CEO Sam Altman ha sottolineato l’importanza di salvaguardare le elezioni, allineandosi alla strategia di protezione elettorale in cinque fasi di Microsoft annunciata a novembre.

Leggi anche: Come OpenAI combatte la disinformazione elettorale nel 2024

Il nostro dire

Il perno strategico di OpenAI verso la collaborazione militare segnala un approccio sfumato all’uso etico della tecnologia AI. Sebbene l’azienda sia attivamente impegnata in progetti in linea con la sicurezza nazionale, il suo impegno nella prevenzione dei danni e nel mantenimento della trasparenza rimane fondamentale. La più ampia collaborazione del settore e l’attenzione alla sicurezza elettorale sottolineano il panorama in evoluzione in cui l’intelligenza artificiale si interseca con questioni sociali e politiche. Mentre OpenAI esplora questi territori inesplorati, il mantenimento degli standard etici sarà fondamentale per modellare l’uso responsabile dell’IA in diverse applicazioni.

Seguici su Google News per rimanere aggiornato con le ultime innovazioni nel mondo dell’AI, Data Science e GenAI.

Fonte: www.analyticsvidhya.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *