Verrà aperta una nuova finestra
Notizie

24/06/2022

Le discipline STEM per un’A.I. senza ‘pregiudizi’: il 27/6 workshop in Bocconi

Incontro con esperti: come istruire gli algoritmi perché non ci siano discriminazioni, le ricadute

Redazione Open Innovation

Modellare in modo matematico la discriminazione nei sistemi di Intelligenza Artificiale per individuare eventuali ‘pregiudizi’ e trovare soluzioni: di questo tratterà il workshop che lunedì 27 giugno si terrà presso l’Università Bocconi di Milano, dalle ore 9.30 alle 18.15.

“Fairness in Artificial Intelligence - A mini-workshop on bias and discrimination in AI”, questo il nome dell’incontro, vedrà tra i propri partecipanti studiosi di Harvard, Stanford e della stessa Bocconi, che illustreranno non solo gli aspetti puramente tecnici, ma anche le implicazioni giuridiche del tema.

Il tema è sempre più attuale e discusso, da specialisti e non solo, dal momento che al giorno d’oggi non sono solo le persone a discriminare, ma anche le Intelligenze Artificiali attraverso gli algoritmi che ne governano il funzionamento: le stesse A.I. chiamate a gestire un numero crescente di servizi automatizzati, che interessano un pubblico sempre più ampio.

Se, ad esempio,  affidiamo a un sistema di Intelligenza Artificiale la preselezione dei curricula dei candidati a un determinato posto di lavoro, rischiamo di perpetuare il pregiudizio di genere che potrebbe aver condotto, in passato, ad assumere solo uomini per posizioni manageriali di rilievo.

Le discipline STEM possono essere un preziosissimo alleato in tal senso, in quanto in grado di modellare la discriminazione in modo matematico e capaci di individuare problematiche e possibili soluzioni.

Tutti i sistemi di Machine Learning addestrati a prendere decisioni in base a un set di decisioni pregresse, infatti, rischiano di perpetuare distorsioni implicite e di non funzionare in modo ottimale con le minoranze. Basta guardare alle tecnologie di traduzione automatica, che rischiano di far sembrare legittimo solo il modo di parlare di maschi etero di mezza età e fanno molta fatica a comprendere l’uso dei pronomi moderni, che si stanno sviluppando a denotare identità sessuali non binarie; o ancora i sistemi di riconoscimento facciale, che continuando ad avere difficoltà a identificare persone appartenenti a tutte le minoranze: e questo perché troppo poco rappresentate nel set utilizzato per allenare il sistema.

I modelli di Machine Learning sono davvero molto complessi e possono comprendere anche miliardi di parametri. Oltretutto, quando un modello prende una decisione, fa una predizione o una classificazione, non ne restituisce anche una motivazione: questo perché, come sottolineato da Luca Trevisan, professore del Dipartimento di Computing Sciences della Bocconi,“per ottenere predizioni ‘spiegabili’ e diagnosticare da che cosa derivino le decisioni discriminatorie servono competenze STEM molto specialistiche”.

Per  consultare il programma e registrarti al workshop, CLICCA QUI.

Nessun allegato selezionato.
Non sono presenti aree di interesse associate a questo contenuto