GILEAD
Leadership Heade
Poste Italiane

AI e bambini, la trappola del volto umano

AI

Se pensate che il futuro ci risevi figure come quelle della tata-robot, probabilmente sottovalutate qualche aspetto. Secondo un recente studio, infatti, i chatbot dotati di intelligenza artificiale (AI) mostrano preoccupanti segni di quello che gli autori definiscono un ‘gap di empatia’. Un problema che espone i giovanissimi a una serie di rischi, sollevando l’urgente necessità di “un’intelligenza artificiale sicura per i bambini”.

La ricerca, condotta da una giovane studiosa dell’Università di Cambridge, Nomisha Kurian, esorta sviluppatori e politici a dare priorità ad approcci che tengano conto davvero delle esigenze dei bambini. Questi ultimi, infatti, sono particolarmente inclini a trattare i chatbot come confidenti quasi umani. Ma le loro interazioni con la tecnologia possono finire male, se l’AI non rispetta i  bisogni e le vulnerabilità dei più piccoli.

Al lupo, al lupo?

Non si tratta di un allarme privo di elementi concreti. Lo studio collega, infatti, questo gap a episodi in cui le interazioni con l’AI hanno portato a situazioni potenzialmente pericolose per i giovanissimi utenti. È il caso di un incidente avvenuto nel 2021, quando l’assistente vocale di Amazon, Alexa, ha incaricato un bambino di 10 anni di toccare una presa elettrica sotto tensione con una moneta. L’anno scorso, invece, My AI di Snapchat ha dato ad alcuni ricercatori adulti che si fingevano una 13enne consigli su come perdere la verginità con un 31enne.

Entrambe le società hanno reagito implementando misure di sicurezza, ma secondo lo studio pubblicato su ‘Learning, Media and Technology’, è necessario essere proattivi a lungo termine per far sì che l’intelligenza artificiale sia davvero sicura per i bambini.

Kurian, che attualmente lavora presso il Dipartimento di Sociologia di Cambridge, è convinta che sia  necessario “innovare in modo responsabile. I bambini sono probabilmente le parti interessate più trascurate” nella grande rivoluzione “dell’AI. Sono pochissimi gli sviluppatori e le aziende che dispongono di politiche consolidate sull’AI sicura per i bambini”, ha sottolineato. E questo anche perchè “solo di recente le persone hanno iniziato a utilizzare questa tecnologia, disponibile su larga scala gratuitamente. Ma, piuttosto che chiedere alle aziende di autocorreggersi dopo che i bambini sono stati messi a rischio, la loro sicurezza dovrebbe essere posta al centro dell’intero ciclo di progettazione, per ridurre le possibilità che si verifichino incidenti pericolosi”.

Amico robot

Come abbiamo premesso, Kurian punta il dito si quello che chiama “gap di empatia”. L’AI rischia di avere particolare difficoltà a rispondere ai bambini, che sono ancora in fase di sviluppo dal punto di vista linguistico e spesso usano schemi insoliti nel parlare o frasi ambigue. Non solo: i bambini sono più propensi degli adulti a confidare informazioni personali sensibili. Ma anche a trattare i chatbot come se fossero umani.

Una recente ricerca ha scoperto che i bambini rivelano di più sulla propria salute mentale a un robot dall’aspetto amichevole, piuttosto che a un adulto. Stando alla ricercatrice, il design simpatico e realistico di molti chatbot incoraggia i bambini a fidarsi. “Umanizzare un chatbot può aiutare l’utente a trarne maggiori vantaggi”, ha affermato Kurian. “Ma per un bambino è molto difficile tracciare un confine rigido e razionale tra qualcosa che sembra umano e la realtà”. Faremmo bene a tenerne conto.

Leadership Forum
Paideia

Leggi anche

Ultima ora

ABBIAMO UN'OFFERTA PER TE

€2 per 1 mese di Fortune

Oltre 100 articoli in anteprima di business ed economia ogni mese

Approfittane ora per ottenere in esclusiva:

Fortune è un marchio Fortune Media IP Limited usato sotto licenza.