GILEAD
Leadership Heade
Cerca
Close this search box.

Un’intelligenza artificiale fuori controllo? I suoi creatori ora hanno paura

Intelligenza artificiale lavoro

I principali scienziati mondiali nel campo dell’AI stanno esortando i governi a collaborare per regolamentare questa tecnologia prima che sia troppo tardi.

Tre vincitori del Premio Turing – sostanzialmente il Premio Nobel per l’informatica – che hanno contribuito a guidare la ricerca e lo sviluppo dell’AI, si sono uniti a una dozzina di scienziati di fama mondiale firmando una lettera aperta in cui si chiede di creare misure di sicurezza più solide per il progresso dell’AI.

Gli scienziati hanno affermato che, con l’avanzare rapido della tecnologia AI, qualsiasi errore o uso improprio potrebbe avere conseguenze gravi per l’umanità.

“La perdita del controllo umano o l’uso malevolo di questi sistemi di AI potrebbe portare a risultati catastrofici per l’intera umanità”, hanno scritto gli scienziati nella lettera. Hanno anche avvertito che, con la velocità con cui si sta sviluppando l’AI, questi “esiti catastrofici” potrebbero verificarsi in qualsiasi momento.

Gli scienziati hanno delineato i seguenti passi per affrontare immediatamente il rischio di un uso malevolo dell’AI.

Organismi governativi per la sicurezza dell’AI

I governi devono collaborare sulle misure di sicurezza relative all’AI. Alcune delle idee degli scienziati includono l’incoraggiamento ai Paesi a sviluppare specifiche autorità che si occupino di “incidenti” e rischi legati all’AI all’interno dei propri confini. Queste autorità, idealmente, coopererebbero tra loro e, a lungo termine, dovrebbe essere creato un nuovo organismo internazionale per prevenire lo sviluppo di modelli di AI che possano rappresentare un rischio globale.

“Questo organismo garantirebbe che gli Stati adottino e implementino un insieme minimo di misure di preparazione alla sicurezza efficaci, comprese la registrazione dei modelli, la divulgazione e i sistemi di sicurezza (‘tripwires’)”, si legge nella lettera.

Impegni per la sicurezza da parte degli sviluppatori di AI

Un’altra idea è quella di richiedere agli sviluppatori di assumersi la responsabilità di garantire la sicurezza dei propri modelli, promettendo di non superare determinate linee rosse. Gli sviluppatori dovrebbero impegnarsi a non creare AI “che possano replicarsi autonomamente, migliorarsi, cercare il potere o ingannare i loro creatori, né quelle che abilitano la costruzione di armi di distruzione di massa o la conduzione di attacchi informatici”, come stabilito in una dichiarazione da scienziati di spicco durante un incontro a Pechino lo scorso anno.

Ricerche indipendenti e verifiche tecnologiche sull’AI

Un’altra proposta è quella di creare una serie di fondi globali per la sicurezza e la verifica dell’AI, finanziati da governi, filantropi e aziende, per sostenere la ricerca indipendente volta a sviluppare controlli tecnologici più avanzati sull’AI.

Tra gli esperti che implorano i governi di agire sulla sicurezza dell’AI figurano tre vincitori del Premio Turing, tra cui Andrew Yao, mentore di alcuni degli imprenditori tecnologici di maggior successo in Cina, Yoshua Bengio, uno degli scienziati informatici più citati al mondo, e Geoffrey Hinton, che ha insegnato al cofondatore ed ex capo scienziato di OpenAI, Ilya Sutskever, e ha lavorato per un decennio sul machine learning presso Google.

Cooperazione e etica nell’AI

Nella lettera, gli scienziati hanno lodato la cooperazione internazionale già esistente sull’AI, come l’incontro di maggio tra i leader di Stati Uniti e Cina a Ginevra per discutere dei rischi legati all’AI. Tuttavia, hanno affermato che è necessaria una maggiore cooperazione.

Lo sviluppo dell’AI dovrebbe essere accompagnato da norme etiche per gli ingegneri, simili a quelle che si applicano a medici o avvocati, sostengono gli scienziati. I governi dovrebbero considerare l’AI meno come una nuova tecnologia entusiasmante e più come un bene pubblico globale.

“Collettivamente, dobbiamo prepararci ad evitare i rischi catastrofici che potrebbero presentarsi in qualsiasi momento”, si legge nella lettera.

Questa storia è stata originariamente pubblicata su Fortune.com.

Leadership Forum
Paideia

Leggi anche

Ultima ora

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.