GILEAD
Leadership Heade
Poste Italiane
Cerca
Close this search box.

L’AI Act è un’opportunità per le aziende italiane, ma devono farsi trovare pronte

Fondata nel 2018 da tre giovani esperti di intelligenza artificiale all’interno della Scuola internazionale superiore di studi avanzati di Trieste (SISSA), Aindo è una scaleup che concilia l’innovazione nel campo dell’intelligenza artificiale con la protezione della privacy e l’imparzialità dei dati. La tecnologia brevettata da Aindo, basata sulla generazione di dati sintetici, incentiva lo scambio sicuro dei dati e permette di democratizzare l’innovazione, facilitando collaborazioni e progetti di ricerca e sviluppo, in linea con la spinta da parte dell’Europa alla creazione di “open data spaces” compliant alla GDPR. Con Daniele Panfilo, Ceo e co-founder di Aindo, abbiamo approfondito l’impatto che l’AI Act produrrà sulle aziende italiane e come queste possono farsi trovare pronte quando la legge entrerà in vigore. 

Il team di Aindo

Quali sono le opportunità che l’AI Act può offrire alle aziende italiane in termini di innovazione e competitività sul mercato?

L’AI Act rappresenta una grande opportunità per le aziende italiane che operano nel campo dell’innovazione. Per la prima volta nuove tecnologie, come i dati sintetici, trovano un quadro giuridico e normativo di riferimento. Un contesto non regolato, infatti, presenta vari rischi non solo per gli utenti ma anche per le aziende, che hanno difficoltà a comprendere i propri limiti operativi e ad anticipare i potenziali impatti delle leggi. Al contrario l’adozione di norme comuni e trasparenti consente di delineare approfonditamente le opportunità delle tecnologie all’avanguardia, permettendo alle imprese di agire con maggiore sicurezza e consapevolezza. Per noi l’adozione di un impianto dettagliato di norme comporta una significativa semplificazione: finora, infatti, abbiamo operato in una sorta di ‘zona grigia’ in assenza di regolamentazioni chiare e precise. L’impianto normativo europeo legato alla tutela della privacy agevolerà di fatto le aziende impegnate nello sviluppo di tecnologie di frontiera come la nostra, riducendo incertezze e rischi legati all’adozione dell’AI.

In che modo le aziende possono prepararsi all’entrata in vigore dell’AI Act, evitando di replicare le difficoltà incontrate con il GDPR?

Con l’entrata in vigore del GDPR molte aziende si sono trovate impreparate e hanno dovuto adeguarsi all’ultimo minuto, mentre con l’AI Act è fondamentale non replicare questo errore e iniziare da subito un percorso di implementazione e adeguamento alla nuova normativa. Secondo la nostra esperienza, giocare d’anticipo può fare la differenza. Non basta studiare attentamente il nuovo quadro regolatorio, ma serve identificare in dettaglio le aree che richiedono interventi per garantirne la conformità. Questo significa avviare iniziative che portino le aziende a un progressivo allineamento con le nuove normative, in modo da risultare già compliant quando la legge entrerà ufficialmente in vigore nel 2026. Un approccio proattivo comprende la formazione del personale in merito alle nuove regole, l’aggiornamento dei processi interni e l’implementazione delle tecnologie necessarie per rispettare i requisiti dell’AI Act. Inoltre, è importante collaborare con esperti di conformità e consulenti legali per assicurarsi che tutte le modifiche siano ben integrate e rispondano pienamente alle normative.

In che modo l’AI Act intende contrastare i potenziali bias nei sistemi di intelligenza artificiale ad alto rischio e che impatto avranno queste innovazioni normative per aziende come la vostra?

L’AI Act impone requisiti e obblighi specifici per i sistemi di intelligenza artificiale che trattano dati personali. In particolare, stabilisce che i sistemi di AI ad alto rischio debbano essere progettati e sviluppati in modo da garantire un livello adeguato di accuratezza, robustezza e sicurezza informatica, assicurando prestazioni coerenti durante il loro ciclo di vita. Tra le principali sfide che affrontiamo c’è quella dei bias presenti nei dati di addestramento, che possono portare alla creazione di sistemi di AI distorti e iniqui. Una delle tecnologie individuate dall’AI Act per fronteggiare questi rischi riguarda proprio l’utilizzo di dati sintetici nell’addestramento dei sistemi ad alto rischio. Se spesso i dati reali non riflettono accuratamente la società, sotto-rappresentando segmenti importanti, al contrario quelli sintetici permettono di creare dataset più equilibrati e accurati, mantenendo la stessa affidabilità statistica.

Può fornirci un esempio concreto?

Penso al settore medico: i dati sanitari, sebbene estremamente sensibili, sono fonte di informazioni preziose per la ricerca scientifica: la loro corretta valorizzazione può avere impatti importanti in diverse aree dell’healthcare, dallo sviluppo di sistemi diagnostici sempre più avanzati al miglioramento della programmazione sanitaria.  Un ulteriore aspetto, che assume fondamentale rilevanza nell’AI Act, riguarda la tutela della privacy e della sicurezza informatica. L’uso di dati sintetici, riconosciuti dalla legge come non personali, permette di sviluppare sistemi di AI accurati e affidabili senza compromettere la privacy degli individui. Ad esempio, un ospedale può utilizzare i dati sintetici per ottimizzare la programmazione delle sale operatorie, senza rischiare di divulgare informazioni sensibili sui pazienti. Per aziende come la nostra, queste innovazioni normative rappresentano l’opportunità di sviluppare tecnologie avanzate che siano non solo efficaci, ma anche etiche e sicure.  L’obiettivo è posizionarci come leader nel campo della condivisione sicura dell’informazione allo scopo di facilitare l’innovazione, la ricerca e lo sviluppo garantendo al tempo stesso la privacy degli individui.

 Quali sono i prossimi passi per il futuro della governance dell’intelligenza artificiale in Italia, alla luce dell’entrata in vigore dell’AI Act?

Un dialogo aperto e collaborativo tra le istituzioni e gli esperti del settore, tra le aziende che sviluppano la tecnologia e la società civile, sarà fondamentale. Credo fermamente che le istituzioni ricoprano un ruolo cruciale nel favorire un utilizzo etico e responsabile delle tecnologie abilitanti, come i dati sintetici, nel contesto dello sviluppo dell’intelligenza artificiale. A questo scopo Aindo si adopera per organizzare e partecipare attivamente a incontri, talk e tavole rotonde in cui instaurare un dialogo fruttuoso con il decisore politico, ribadendo la disponibilità a collaborare attivamente a uno sviluppo etico di questa tecnologia. Le istituzioni, del resto, dovranno sempre di più giocare un ruolo chiave nel finanziare la ricerca e lo sviluppo di tecnologie etiche e sicure. 

E poi? 

E poi sarà essenziale avviare un dialogo che comprenda non solo i decisori politici, ma anche la comunità scientifica, per promuovere la ricerca, la formazione accademica e una regolamentazione mirata di queste tecnologie. Sarà importante creare programmi di formazione e sensibilizzazione per educare sia i professionisti sia il pubblico sulle implicazioni dell’AI e delle tecnologie abilitanti. Un altro aspetto cruciale sarà la promozione della trasparenza e della responsabilità nell’uso dei dati, incluso il monitoraggio e la valutazione degli algoritmi utilizzati per elaborarli. Le istituzioni dovranno implementare meccanismi di supervisione e regolamentazione per garantire che l’AI sia utilizzata nel rispetto dei diritti umani, della privacy e della sicurezza dei dati.

Leadership Forum
Poste Italiane

Leggi anche

Ultima ora

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.