GILEAD
Leadership Heade
Poste Italiane
Cerca
Close this search box.

AI: Fabio De Felice, nessuna macchina è un uomo

AI

Quello che stiamo vivendo è – per citare il presidente della Repubblica Sergio Mattarella durante la cerimonia per lo scambio di auguri di fine 2023 con le alte cariche dello Stato – “un tempo per un verso affascinante, di grande cambiamento; ma anche difficile, travagliato e per più aspetti drammatico”. Al di là dei complicati scenari geopolitici, l’intelligenza artificiale ha fatto irruzione nelle nostre vite promettendo di migliorarle e al tempo stesso assottigliando la linea tra ciò che è bene e ciò che è male. Minacciando, in definitiva, i princìpi etici. “La velocità raggiunta dal progresso tecnologico non ha precedenti nella storia umana”, spiega Fabio De Felice, professore di Ingegneria all’Università degli Studi di Napoli Parthenope e co-autore (insieme al giornalista e consulente in Corporate strategy Roberto Race), di un libro che parla proprio di un “mondo nuovissimo” (questo il titolo) creato dall’AI. “L’universo virtuale sembra aver raggiunto dimensioni fuori controllo, molto più grandi rispetto alle dimensioni fisiche della realtà”. Ecco perché, nel mare dell’innovazione, occorre tracciare confini precisi. E con il disegno di legge sull’AI, il nostro Paese può sfruttare un’enorme occasione.

L’intervista

Dalla prima volta in cui qualcuno ha parlato di AI sono passati quasi 70 anni. Nel frattempo sono cambiate molte cose, e altrettante cambieranno. L’Italia ha dato il via libera a un importante disegno di legge sull’AI. Ma quanto è difficile stabilire delle norme precise per qualcosa che è in costante aggiornamento?

Quello di prima era un mondo non complesso, ma complicato. I tempi di metabolizzazione delle trasformazioni erano più lunghi. Per far sì che un’innovazione incidesse nella carne viva del consumatore passavano decenni. Nel 1817 è nata la Draisina, nel 1864 il velocipede (i famosi penny-farthing) e nel 1877 la safety bicycle. Oggi c’è un’accelerazione in ogni direzione e dobbiamo muoverci all’interno di questo scenario. L’AI Act europeo è il primo tentativo di trattare in modo olistico il tema dell’AI, prendendo in considerazione sia lo sviluppo della tecnologia che l’essere umano (ed anche la tutela dei suoi dati e della sua privacy). È un processo virtuoso, ma il problema è che legiferiamo sempre in difesa e mai in attacco. La Liberator è una pistola funzionante che si può stampare in 3D. Ci sono stati 10mila download prima che si intervenisse e si dichiarasse illegale. Purtroppo la lex segue sempre il mos, con rimarchevole distacco, e pertanto non riusciamo ad anticipare gli eventi e temo possa accadere lo stesso con l’AI. Inoltre, per l’intelligenza artificiale l’Europa ha investito 5 mld di euro. La Cina 60 e gli Usa 80. Non possiamo pretendere di innalzarci ad alfieri se non c’è neppure un impegno economico solido. Forse dovremmo metterci tutti attorno a un tavolo e ragionare in ottica globale. Creare, così come esiste l’Oms, un’organizzazione mondiale dell’AI. In Italia stiamo investendo 750 mln. Ma è qualcosa che, se non corroborato da una strategia mondiale, servirà a poco. La rivoluzione digitale riguarda tutti.

Quali sono i rischi e le implicazioni etiche che l’AI porta con sé nella nostra società?

Faccio un esempio: se all’AI chiedi di creare immagini di persone che lavorano in uno stabilimento produttivo, è molto probabile che inserirà solo uomini. Copilot, il nuovo assistente virtuale AI per Windows 11, sembra includere un parametro “gender” e metterà anche donne. Se a Copilot, però, chiedi di disporre delle persone su un palco, ancora una volta inserirà probabilmente soltanto uomini, con le donne in platea. Questo perché una macchina non può essere etica e questioni come la parità di genere appartengono a quest’ambito.

L’uomo che guarda quelle immagini che idea si fa?

Ma allora l’introduzione di fattori etici dipende dall’AI o dall’uso che di questa ne fa l’uomo? Se dessimo alla macchina comandi diversi, ad esempio, le immagini potrebbero diventare “etiche” e l’uomo avrebbe un’altra idea.

Non credo in un’etica dell’AI, ma ‘per’ l’AI, come suggerisce il tecnologo Massimo Chiriatti. Non dobbiamo immaginare di innervare qualcosa nel sistema, perché sarebbe una stortura. Per rendere leggibile a una macchina la complessità del nostro universo, dobbiamo tradurlo in tabelle, in numeri. Ma ogni semplificazione della complessità umana rischia di alimentare bias. L’unico modo per evitare ciò è guardare la realtà con la lente dell’etica e, nel caso dell’AI, dell’algoretica. La tecnologia non nasce con un obiettivo, siamo noi a doverle dare un indirizzo. Quindi sì, molto dipende da noi. Ma prima che sulla macchina dobbiamo ragionare e investire sull’uomo. È un concetto molto filosofico, però l’idea dell’uomo è insita dentro se stesso, non fuori.

Come si “investe” sull’uomo?

Promuovendo l’educazione che insegna il rispetto reciproco, la tolleranza; incentivando la cooperazione come strumento primario per la risoluzione dei conflitti. Dobbiamo integrare l’etica e i valori umani nella progettazione e nello sviluppo della tecnologia stessa.

Crede che da parte degli utenti ci sia poca consapevolezza quando parliamo di AI? Siamo abituati a utilizzare la rete ogni giorno, e magari a interagire anche con i chatbot, senza chiederci mai davvero cosa questo possa significare.

Dopo l’invenzione della bomba atomica abbiamo deciso di rendere illegali le armi nucleari. C’è stata una presa di coscienza relativa al fatto che una potente tecnologia potesse avere risvolti tali da annientare l’umanità. Anche in questo caso non è stata una scelta individuale, di un singolo Paese, ma collettiva. Adesso non abbiamo ancora del tutto capito quanto l’AI potrebbe essere un danno. Non è assolutamente il male assoluto e offre infinite opportunità per migliorare la nostra vita. Ogni giorno dialogo con un agente da me addestrato che mi fornisce un validissimo supporto nel mio lavoro, e invito i miei studenti a farlo, ma tutto deve avvenire sotto la lente dell’etica. L’etica rappresenta un sistema di valori che guida le nostre azioni e decisioni. È un processo intrinseco che riflette i valori umani e ci aiuta a discernere tra ciò che è giusto e ciò che non lo è. Per questo ripeto che se non si investe sull’uomo nella stessa misura in cui si investe nella tecnologia, non riusciremo ad avere una parallela crescita dell’AI utile a risolvere le grandi sfide dell’umanità.

Se l’intelligenza artificiale diventasse troppo “etica”, non rischieremmo di spostare sulle macchine qualità “uniche” dell’animo umano?

No. ChatGpt può descrivere il sapore di un cioccolatino, ma la sensazione e l’emozione che la persona prova sono caratteristiche esclusivamente umane. L’AI legge un assemblaggio di dati e restituisce un’informazione. È un insieme di componenti digitali, mentre noi non siamo solo carne e ossa, ma un sistema irripetibile e non trasferibile a una macchina.

Insomma: l’uomo è una macchina, ma nessuna macchina è un uomo.

Proprio così.

Fabio De Felice è Professore di Ingegneria all’Università degli Studi di Napoli Parthenope, imprenditore e fondatore di Protom, player globale nella progettazione e nello sviluppo di soluzioni innovative rivolte a Pmi, multinazionali e pubblica amministrazione. È componente della task force Digitalization del B20, il Business Forum del G20.

Leadership Forum
Poste Italiane

Leggi anche

Ultima ora

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.