“Uno sviluppo responsabile degli algoritmi richiede maggiore attenzione e comprensione della società” intervista a Alessandro Fabris, Vincitore della V ed. del Premio previsto dal bando intitolato a “Elena Lucrezia Cornaro Piscopia Università di Padova”

28 Luglio 2023 Associazione Alumni_admin Categories news

Alessandro Fabris, Alumno con un dottorato di ricerca in Ingegneria dell’Informazione all’Università di Padova, vincitore della V e ultima edizione del Premio previsto dal Bando intitolato a “Elena Lucrezia Cornaro Piscopia Università degli Studi di Padova”.

Complimenti Alessandro, tu sei il vincitore dell’ultima edizione del Premio! Cosa secondo te è stato premiato del tuo lavoro?

Una cosa di cui vado fiero sono gli impatti del mio lavoro, discusso con enti di vigilanza, media, aziende e con la comunità di ricerca di cui faccio parte. Una priorità costante della mia ricerca è puntare ai risvolti pratici. Forse aver lavorato alcuni anni in azienda prima di intraprendere il dottorato di ricerca mi ha aiutato in questo.

 Nella tua tesi, dal titolo “Algorithmic Fairness Datasets: Curation, Selection, and Applications” hai citato un concetto molto interessante quanto attuale e necessario “equità algoritmica”, ci potresti spiegare di cosa si tratta?

E’ presto detto. In un mondo in cui gli algoritmi hanno un’influenza crescente sulle nostre vite, dall’accesso al credito, all’istruzione, al lavoro, equità algoritmica significa richiedere che questi algoritmi funzionino bene per tutti. Anche gli algoritmi più utili e sviluppati con le migliori intenzioni rischiano di discriminare alcuni gruppi già vulnerabili. Questo succede soprattutto con algoritmi che imparano dei dati, che oggi sono i più comuni.

Da sinistra a destra Giada Caudullo, Manuela Soccol, Annalisa Oboe, Alessandro Fabris, Lorenza Perini, Beatrice De Bacco. Consegna del Premio, cerimonia di premiazione tenutasi il 26 giugno 2023.

Puoi fornire degli esempi di come i dataset possono influenzare l’equità o la disparità nelle applicazioni algoritmiche?

Se un gruppo è totalmente assente da un insieme di dati (o dataset), gli algoritmi allenati su quel dataset non capiscono nulla di quel gruppo. Questi algoritmi possono funzionare bene in media ma rischiano di andare malissimo per i gruppi assenti o sottorappresentati. Un’altra situazione critica si ha quando i dati vogliono dire cose diverse per persone diverse. Prendiamo l’ambito medico: una persona ricca e autoctona e una persona migrante meno facoltosa contraggono la stessa malattia. È facile che la prima abbia le conoscenze ed il potere economico necessari per ottenere l’attenzione medica di specialisti di ottimo livello ed una diagnosi in tempi rapidi. La seconda ha molte meno possibilità di ottenere i medesimi risultati, per cui questa malattia potrebbe non venirle diagnosticata per molto tempo. Da un punto di vista dei dati, la prima persona risulta malata e bisognosa di attenzioni, la sua cartella clinica dice questo. La seconda persona, invece, risulta sana perché nel suo storico diagnostico non compare nessuna malattia. Questo influenzerà qualunque algoritmo. Eppure, la loro condizione di salute iniziale è la stessa.

Le problematiche che hai riscontrato accadono anche negli algoritmi dell’intelligenza artificiale?

Accadono soprattutto negli algoritmi di intelligenza artificiale, ovvero algoritmi che fanno stime e prendono decisioni sulla base dei dati. Restando in ambito medico, per esempio, gli algoritmi a supporto delle diagnosi sono estremamente utili. Sono algoritmi ‘addestrati’ per analizzare la cartella medica e le analisi di una persona e stimare la probabilità che quella persona abbia una data malattia. Tornando all’esempio precedente, i dati dicono che la persona facoltosa ha la malattia in questione, mentre quella povera no; l’algoritmo di intelligenza artificiale impara questa verità distorta, perché è quella raccontata dai dati. Un algoritmo addestrato in questo modo finirà per sottostimare il bisogno di cure mediche dei soggetti meno abbienti, ponendo in una situazione di svantaggio un gruppo già vulnerabile.

Quale pensi sia la direzione che ora bisognerebbe intraprendere? Quali sono le aree di ricerca coinvolte?

Gli algoritmi offrono degli oggettivi vantaggi se sviluppati responsabilmente. Uno sviluppo responsabile richiede una maggiore attenzione e comprensione della società e della sua complessità. Occorre chiedersi in maniera proattiva se il tal algoritmo rischi di funzionare male per qualcuno. Occorre instillare questa mentalità di prevenzione del danno in chi progetta e sviluppa gli algoritmi. Occorre comprendere quale approccio etico applicare in diverse situazioni. Per fortuna le istituzioni Europee stanno discutendo un disegno di legge su questi temi, che per me è un motivo di orgoglio. Da quanto ho detto spero si intravveda la natura multidisciplinare di questa agenda di ricerca e sviluppo all’intersezione fra informatica, scienze sociali, legge e filosofia.

Grazie Alessandro per aver condiviso con noi e i nostri lettori la tua ricerca. Programmi per il futuro? 

In questo momento mi sembra importantissimo ricercare soluzioni per la tensione che c’è fra equità algoritmica e privacy. Per misurare l’equità algoritmica dobbiamo valutare le prestazioni degli algoritmi per diversi gruppi di persone (per esempio chi ha una disabilità e chi no) ed occorrono dati sensibili su queste persone, che spesso non sono noti per questioni di privacy, e quando lo sono vanno maneggiati con estrema cura. Più in generale, con questa nuova normativa europea alle porte ci sarà molto lavoro da fare per tradurla in approcci utilizzabili in pratica dalle aziende. E poi continuare a migliorare la nostra alfabetizzazione digitale collettiva, per aiutare le persone a capire di più e subire di meno la tecnologia. C’è moltissimo da fare.

Scopri com’è andato l’evento di premiazione lo scorso 26 giugno.
Condividi