C’è una crescente disparità tra le organizzazioni con consigli di amministrazione ben preparati sull’intelligenza artificiale generativa e quelle che devono recuperare, avverte Florian Rotar, chief AI officer di Avanade.
“Sono un po’ preoccupato che si verifichi una divergenza tra gli edifici e che alcuni rimangano indietro”, afferma Rotar durante una conversazione virtuale ospitata da Fortune in collaborazione con Diligent per la serie The Modern Board.
Avanade, una società di consulenza e servizi IT, ha lavorato con centinaia di organizzazioni e in queste conversazioni ha scoperto che alcuni consigli di amministrazione stanno diventando “piuttosto sofisticati in termini di utilizzo dell’AI”, afferma Rotar. Alcuni casi d’uso che sono stati implementati includono il ricorso all’AI generativa per preparare meglio le riunioni del consiglio di amministrazione, il pilotaggio e la prototipazione di esercizi simulati di investitori attivisti e l’esercizio da tavolo abilitato dall’AI per pianificare meglio i rischi per l’azienda.
Rischi senza un’adeguata governance dell’AI
Tuttavia, mentre i membri dei consigli di amministrazione si tuffano nell’applicazione dell’AI generativa ai loro flussi di lavoro, questa potrebbe presentare alcuni rischi per le aziende se non viene attuata un’adeguata governance dell’AI. Questo include linee guida chiare su come aderire alla sicurezza, alle politiche e alle procedure senza esporre informazioni aziendali sensibili. Negli ultimi due anni, i datori di lavoro hanno dovuto definire rapidamente politiche sull’uso sicuro dell’AI, soprattutto dopo l’esplosione dell’interesse dei consumatori per l’AI in seguito al debutto del chatbot ChatGPT.
L’idea era che i dipendenti avrebbero usato l’AI generativa, indipendentemente dal fatto che fosse benedetta o meno dal management, quindi i team HR e IT hanno dovuto istituire restrizioni, corsi di aggiornamento e altre forme di formazione, oltre a parchi giochi interni per l’AI per consentire un’esplorazione sicura. Secondo gli esperti, la stessa logica dovrebbe applicarsi anche ai membri del consiglio di amministrazione.
“Penso che stiamo vedendo che c’è sicuramente bisogno di una maggiore comprensione delle basi con il consiglio di amministrazione”, dice Nithya Das, chief legal officer e chief administrative officer di Diligent, una società SaaS di governance, rischio e conformità. “Dovreste presumere che i consiglieri troveranno i propri strumenti e questo potrebbe sollevare diversi problemi di sicurezza e privacy per voi come organizzazione, data la delicatezza del lavoro del consiglio di amministrazione e dei suoi materiali”.
Das sostiene che i corsi di formazione possono essere utili per far sì che i consigli di amministrazione si aggiornino sull’AI, analogamente a quanto è stato necessario fare quando le minacce alla sicurezza informatica sono state messe a fuoco negli ultimi anni. Uno di questi corsi, consigliato da Rotar, è “The AI Awakening: Implicazioni per l’economia e la società”.
L’AI: priorità crescente per i dirigenti aziendali
Diligent ha presentato in anteprima un’indagine che pubblicherà a breve, condotta dal suo braccio di ricerca, da cui emerge che l’IA generativa sarà al sesto posto nell’elenco delle priorità dei consigli di amministrazione delle società pubbliche statunitensi nel 2025, dopo il perseguimento della crescita e l’ottimizzazione dei risultati finanziari, ma più in alto rispetto alla cybersicurezza e alla pianificazione della forza lavoro.
Il sesto posto potrebbe non sembrare molto alto, ma secondo Das indica che l’IA è al centro dell’attenzione. I dirigenti stanno ancora cercando di capire quanto il loro team di gestione sia preparato in materia di IA, di risolvere i dubbi sulla privacy dei dati e le preoccupazioni per le allucinazioni, che possono verificarsi quando i modelli di IA generano informazioni errate sulla base di dati non corretti.
“Pensiamo che la maggior parte dei consigli di amministrazione e delle aziende siano all’inizio del loro percorso nell’IA, ma sono sicuramente molto curiosi in materia di IA”, afferma Das. “Ci aspettiamo che questa sia un’area di attenzione costante per il 2025”.
Fiona Tan, Chief Technology Officer di Wayfair, un rivenditore di mobili e articoli per la casa, afferma che anche nelle aziende native digitali il management ha dovuto spiegare ai consigli di amministrazione la differenza tra le tecnologie di IA generativa e l’uso più tradizionale dell’IA e dell’apprendimento automatico già in uso.
“Per un consiglio di amministrazione, si tratta di capire alcune sfumature tra ciò che era predittivo… quali sono le capacità generative, quali sono le capacità dei modelli linguistici di grandi dimensioni e quali sono i rischi”, afferma Tan. A quel punto, si può pensare a dove impiegare l’IA generativa. Per un’azienda come Wayfair, ciò potrebbe includere la generazione di contenuti e la creazione di contenuti più personalizzati per le esigenze specifiche di ogni acquirente.
Secondo Tan, il team di gestione dovrebbe essere responsabile di esaminare le varie opportunità di migliorare l’azienda con l’IA generativa e di articolare questa visione al consiglio di amministrazione. Questo dovrebbe includere anche un’attenta osservazione delle startup di IA che stanno emergendo e che stanno costruendo soluzioni che potrebbe essere meglio acquistare piuttosto che costruire internamente da zero.
Cercare il modo di sconvolgere la propria azienda
“Per il consiglio di amministrazione, è importante assicurarsi di adottare un approccio un po’ più esterno”, afferma Tan. “Dove dobbiamo entrare e sconvolgere noi stessi?”.
Omar Khawaji, responsabile delle informazioni e della sicurezza di Databricks, un’azienda di software per i dati e l’IA, sostiene che i membri del consiglio di amministrazione e la dirigenza non dovrebbero confondere l’essere un appassionato utilizzatore dell’IA con la reale comprensione di come questi sistemi funzionano e possono essere applicati all’azienda.
In effetti, una trappola in cui vedo spesso cadere i consigli di amministrazione e altri dirigenti è: “Ho usato l’IA, so come funziona, sono passati tre mesi, perché non avete magicamente risolto i problemi x, y e z””, afferma Khawaji.
Khawaji paragona questo comune errore di valutazione sulla prontezza dell’IA alla visione di un video di cucina su TikTok. Può darsi che ci vogliano solo pochi minuti per guardare un piatto preparato da un influencer, ma per fare lo stesso lavoro a casa potrebbero volerci ore.
“La sfida di gestire e governare, governare e curare e organizzare i dati è il 90% del lavoro”, dice Khawaji. Il resto, dice, è legato alla formazione di un modello e al suo utilizzo con i casi d’uso appropriati.
Questa storia è stata pubblicata originariamente su Fortune.com
(Klaus Vedfelt—Getty Images).