I social media hanno portato il caos. Siamo pronti per quello che potrà fare l’AI generativa?
Il 27 febbraio, alla vigilia delle elezioni del sindaco di Chicago, un account Twitter chiamato Chicago Lakefront News ha pubblicato un’immagine di Paul Vallas, ex direttore del budget della città e capo del distretto scolastico in quel momento candidato alla poltrona di sindaco, insieme a una registrazione audio. Nell’audio, Vallas sembra minimizzare le sparatorie della polizia, dicendo che “ai miei tempi” un poliziotto poteva uccidere fino a 18 civili nella sua carriera e “nessuno batteva ciglio”. L’audio continua: “Questa retorica del ‘Defund the Police’ causerà disordini e illegalità nella città di Chicago. Dobbiamo smettere di de-finanziare la polizia e iniziare a rifinanziarla”.
Come si è scoperto, Vallas non ha detto nessuna di queste cose. L’audio è stato rapidamente smentito come un falso, probabilmente creato con un software di intelligenza artificiale che clona le voci. L’account Chicago Lakefront News, che era stato creato pochi giorni prima che il video fosse pubblicato, ha rapidamente cancellato il post, ma non prima che il tweet fosse stato visto da migliaia di persone e ampiamente ri-condiviso, con alcuni utenti indotti a credere che la “registrazione” fosse autentica. L’audio ha avuto poco impatto sulla corsa a sindaco: Vallas era ben avviato al ballottaggio al momento della stampa. Ma il clone vocale di Vallas è un’anteprima spaventosa del tipo di disinformazione che gli esperti dicono che dovremmo aspettarci di affrontare nelle elezioni presidenziali statunitensi del 2024, grazie ai rapidi progressi nelle capacità dell’AI. Questi nuovi sistemi di intelligenza artificiale sono definiti ‘intelligenza artificiale generativa’. ChatGPT, il popolare strumento che fabbrica tesine degli studenti ed e-mail aziendali con pochi suggerimenti, è solo un esempio della tecnologia.
Una società chiamata ElevenLabs ha rilasciato un software in grado di clonare le voci da un campione lungo solo pochi secondi, e chiunque può ora ordinare immagini fotorealistiche utilizzando software come DALL-E 2, Stable Diffusion o Midjourney. Mentre la possibilità di creare video da un prompt di testo è meno matura – la startup Runway con sede a New York ha creato un software che produce clip di pochi secondi di durata – un truffatore esperto in tecniche deepfake può creare video falsi abbastanza buoni da ingannare molte persone.
“Dovremmo essere spaventati a morte”, dice Gary Marcus, professore emerito di scienze cognitive alla New York University ed esperto di intelligenza artificiale che ha cercato di lanciare l’allarme sui pericoli posti alla democrazia dai grandi modelli linguistici alla base di questa tecnologia. Mentre le persone possono già scrivere e distribuire disinformazione (come abbiamo visto con i social media nelle passate elezioni), è la capacità di farlo a un volume e una velocità senza precedenti – e il fatto che i non madrelingua possano ora creare una prosa fluente nella maggior parte delle lingue con poche battute – che rende la nuova tecnologia una tale minaccia.
“È difficile pensare che la disinformazione generata dall’AI non diventi un fattore importante nelle prossime elezioni”, dice. I nuovi strumenti di intelligenza artificiale, dice Marcus, sono particolarmente utili per uno Stato come la Russia, dove l’obiettivo della propaganda non riguarda tanto la persuasione quanto semplicemente sopraffare un target con una valanga di bugie e mezze verità. Uno studio della Rand Corporation ha soprannominato questa tattica “l’idrante della falsità”. L’obiettivo, ha concluso, è quello di seminare confusione e distruggere la fiducia, rendendo le persone più propense a credere alle informazioni condivise sui social che agli esperti.
Non tutti sono sicuri che la situazione sia così terribile come suggerisce Marcus, almeno non ancora. Chris Meserole, un membro della Brookings Institution specializzato nell’impatto dell’AI e delle tecnologie emergenti, afferma che le recenti elezioni presidenziali hanno già visto livelli così elevati di disinformazione che non è sicuro che i nuovi modelli linguistici di AI faranno una differenza notevole. “Non credo che questo cambierà completamente le cose e che il 2024 sarà molto diverso dal 2020 o dal 2016”, dice.
Meserole inoltre non pensa che la tecnologia video deepfake sia ancora abbastanza buona per svolgere un ruolo importante nel 2024 (anche se dice che la situazione potrebbe cambiare nel 2028). Ciò che preoccupa Meserole oggi sono i cloni vocali. Può facilmente immaginare una clip audio che emerge in un momento chiave di un’elezione, la finta registrazione di un candidato che dice qualcosa di scandaloso in un incontro privato. I presenti all’incontro potrebbero negare la veridicità della clip, ma sarebbe difficile per chiunque saperlo con certezza.
Gli studi sono giunti a conclusioni contrastanti sul fatto che le false narrazioni convincano qualcuno o rafforzino solo le credenze esistenti, afferma Sandra Wachter, professore di tecnologia e regolamentazione presso l’Oxford Internet Institute. Ma in un testa a testa tra candidati, tutto può fare la differenza.
Di fronte alla minaccia delle fake news generate dalle macchine, alcuni credono che l’AI possa offrire la migliore difesa. In Spagna, una società chiamata Newtral specializzata in fact checking politico sta sperimentando modelli linguistici di grandi dimensioni simili a quelli che alimentano ChatGpt.
Questi modelli non possono effettivamente verificare i fatti, ma possono rendere gli esseri umani migliori nell’individuare le bugie, afferma Ruben Miguez Perez, Chief Technology Officer di Newtral. La tecnologia può segnalare quando un contenuto corrisponde a un’affermazione fattuale che vale la pena controllare e può rilevare altri contenuti che promuovono la stessa narrativa, un processo chiamato “corrispondenza delle affermazioni”.
Accoppiando modelli linguistici di grandi dimensioni con altri software di apprendimento automatico, Miguez Perez afferma che è anche possibile valutare la probabilità che qualcosa sia disinformazione in base ai sentimenti espressi nel contenuto. Utilizzando questi metodi, Newtral ha ridotto il tempo necessario per identificare le dichiarazioni degne di verifica dei fatti dal 70% all’80%, afferma.
Le grandi piattaforme di social media, come Meta e YouTube di Google, hanno lavorato su sistemi di intelligenza artificiale che fanno cose simili. In vista delle elezioni presidenziali statunitensi del 2020, la società madre di Facebook, Meta, afferma di aver visualizzato avvisi relativi a oltre 180 milioni di contenuti che sono stati smentiti da ‘verificatori’ terzi. Tuttavia, un sacco di disinformazione passa lo stesso. I meme, che si basano sia su immagini che su testo, sono particolarmente difficili da ingabbiare per i modelli di intelligenza artificiale. E mentre Meta afferma che i suoi sistemi sono migliorati dalle elezioni del 2020, le persone che promuovono false notizie stanno continuamente escogitando nuove varianti che i modelli di intelligenza artificiale non hanno mai visto prima.
Ciò che potrebbe fare qualche differenza, dice Marcus, è una regolamentazione sensata: coloro che creano modelli linguistici di grandi dimensioni dovrebbero essere tenuti a creare “filigrane digitali” che rendano più facile per altri algoritmi identificare i contenuti creati dall’AI. OpenAI, società creatrice di ChatGPT, ha parlato di questo tipo di filigrana, ma deve ancora implementarlo. Nel frattempo, ha rilasciato un software gratuito di rilevamento dei contenuti dell’intelligenza artificiale, ma funziona solo in circa un terzo dei casi. Marcus dice anche che il Congresso dovrebbe rendere illegale la produzione e la distribuzione di disinformazione su larga scala. Mentre i sostenitori del Primo Emendamento potrebbero obiettare, dice che chi ha promulgato la Costituzione non avrebbe mai immaginato una tecnologia in grado di produrre infinite risme di bugie convincenti con la semplice pressione di un pulsante.
Eppure, la fine del 18esimo secolo, quando gli Stati Uniti furono fondati, fu anche un’epoca d’oro di disinformazione, con opuscoli anonimi e giornali di parte che spacciavano storie scurrili su politici e partiti opposti. La democrazia è sopravvissuta allora, osserva Wachter di Oxford. Quindi forse lo farà anche questa volta. Ma la prossima potrebbe essere una campagna diversa da qualsiasi altra a cui abbiamo mai assistito prima.