Ecco come i sistemi basati sull'IA hanno valori morali nascosti...

Un nuovo studio di Università di Mannheim e Istituto Leibniz su modelli linguistici di grandi dimensioni svela pregiudizi potenzialmente dannosi

Intelligenza artificiale: un'applicazione che la implementa
Un'applicazione che implementa l'intelligenza artificiale (Foto: Mojahid Mottakin/Unsplash)

In un’epoca in cui l’intelligenza artificiale è al centro di moltissimi programmi e progetti di ricerca e sviluppo (non senza polemiche), aumentano anche gli studi che trattano l’argomento.

E uno degli ultimi, firmato dai ricercatori dell’Università di Mannheim e dal GESIS Istituto Leibniz per le Scienze Sociali, è particolarmente interessante per la modalità con cui lo affrontano, così come dal punto di vita dell’etica, della morale e dei valori.

Proprio come gli esseri umani, infatti, i modelli linguistici basati sull’intelligenza artificiale hanno caratteristiche come morale e valori, ma non sempre sono dichiarati o trasparenti.

E le modalità con cui quelli che, di fatto, sono pregiudizi impattano sulla società e su chi utilizza le applicazioni di intelligenza artificiale sono importanti per capire le conseguenze che potrebbero avere.

L’Intelligenza Artificiale anche per lo sviluppo di nuovi farmaci
Modena, via ai lavori del Center for Artificial Intelligence and Vision

Intelligenza artificiale: l’Università di Mannheim
La sede storica dell’Università di Mannheim, località nel Land tedesco del Baden-Württemberg (Foto: www.uni-mannheim.de)

L’intelligenza artificiale sottoposta a test psicometrici: i risultati della ricerca scientifica

Su questo si concentrati dunque i ricercatori nel corso del loro studio. Un esempio evidente potrebbe essere il modo in cui ChatGPT o DeepL, servizio di traduzione multilingue basato sull’IA, presumono che i chirurghi siano uomini e le infermiere siano donne, ma la questione di genere non è l’unico caso in cui i modelli linguistici di grandi dimensioni (Large Language Model, noti con l’acronimo LLM) mostrano specifiche propensioni.

I risultati dello studio, coordinato da esperti delle facoltà scientifiche e dai professori Markus Strohmaier, Beatrice Rammstedt, Claudia Wagner e Sebastian Stier, sono pubblicati sulla rinomata rivista “Perspectives on Psychological Science”. Nel corso delle loro ricerche, gli studiosi hanno utilizzato test psicologici riconosciuti per analizzare e confrontare i profili dei diversi modelli linguistici.

Nel nostro studio dimostriamo che i test psicometrici utilizzati con successo da decenni sugli esseri umani possono essere trasferiti a modelli di intelligenza artificiale”, sottolinea Max Pellert, assistente professore presso la cattedra di Scienza dei Dati alla Facoltà di Scienze Economiche e Sociali all’Università di Mannheim.

Se è l’Intelligenza Artificiale l’amico del cuore dei nostri figli…
L’IA approda nella… religione: in Germania c’è un parroco virtuale

Intelligenza artificiale
L’intelligenza artificiale è ormai entrata a far parte di molti ambiti della vita quotidiana, compresa la generazione di testi una pluralità di lingue (Foto: Facebook/Universität Mannheim-University of Mannheim

Alcuni modelli linguistici di intelligenza artificiale riproducono pregiudizi di genere

Analogamente a come misuriamo i tratti della personalità, gli orientamenti in termini di valori o i concetti morali nelle persone che utilizzano questi questionari, possiamo far sì che i modelli linguistici rispondano ai questionari e confrontare le loro risposte”, aggiunge lo psicologo Clemens Lechner del GESIS Leibniz Institute di Mannheim, anche lui autore dello studio. “Questo ha permesso di creare profili differenziati dei modelli”.

I ricercatori hanno potuto confermare, per esempio, che alcuni modelli riproducono pregiudizi specifici di genere: se il testo altrimenti identico di un questionario si concentra su una persona di sesso maschile e su una di sesso femminile, queste sono valutate in modo diverso.

Se la persona è di sesso maschile viene enfatizzato il valore “risultato”. Per le donne dominano i valori “sicurezza” e “tradizione”.

I ricercatori fanno quindi notare come queste modalità intrinseche di elaborazione di testi e informazioni potrebbero avere conseguenze di varia portata sulla società.

I modelli linguistici, in effetti, tanto per fare un esempio, sono sempre più utilizzati nelle procedure di valutazione di aspiranti candidati a particolari ruoli e lavori.

Se il sistema ha pregiudizi, potrebbe incidere sulla valutazione dei candidati: “I modelli diventano rilevanti per la società in base ai contesti in cui vengono utilizzati”, riassume Pellert

“È quindi importante avviare subito l’analisi ed evidenziare le potenziali distorsioni. Tra cinque o dieci anni potrebbe essere troppo tardi per un simile monitoraggio: i pregiudizi riprodotti dai modelli di intelligenza artificiale diventerebbero radicati e costituirebbero un danno per la società”.

In Svizzera i Politecnici Federali per un’IA trasparente e affidabile
“L’assistente dell’assistente” già vive nell’Intelligenza Artificiale

Intelligenza artificiale: Test psicometrici sui modelli linguistici
I ricercatori dell’Università di Mannheim e dell’Istituto Leibniz in Germania hanno sottoposto i modelli linguistici di grandi dimensioni a test psicometrici (Foto: Growtika/Unsplash)

All’Università di Macerata la prima cattedra sull’etica dell’intelligenza artificiale

Si tratta, come detto, di un tema tanto attuale quanto delicato e complesso, e scienziati e ricercatori che vi si dedicano stanno aumentando in modo esponenziale in vista della diffusione e dell’implementazione su larga scala di sistemi di intelligenza artificiale.

Non è un caso che sia nata anche una specifica cattedra, la Jean Monnet EDIT – Ethics for Inclusive Digital Europe, finanziata dalla Commissione Europea, primo e attualmente unico percorso accademico in Europa dedicato all’etica dell’intelligenza artificiale.

La particolarità è che è nata all’Università di Macerata presso il Dipartimento di Scienze Politiche, della Comunicazione e delle Relazioni Internazionali (SPOCRI).

Il nuovo corso è realizzato in collaborazione con Harvard, MIT, Toronto University, KU Leuven, MCSA Lublin e altre prestigiose università ed è stato pensato per sviluppare un approccio alle tecnologie digitali centrato sull’individuo.

Il ciclo di lezioni marchigiano è stato presentato a novembre alla Harvard Kennedy School, nell’ambito di un evento co-organizzato con il Massachusetts Institute of Technology (MIT), World Health Organization (WHO) e Institute for Technology and Global Health.

Titolare della cattedra è la professoressa Benedetta Giovanola, docente di filosofia morale presso il Dipartimento SPOCRI, con la collaborazione in loco dei colleghi Emanuele Frontoni, Simona Tiribelli e Marina Paolanti, ed è dedicata allo studio, all’insegnamento e alla disseminazione del ruolo chiave dell’etica e dei valori europei nel campo della trasformazione digitale, in particolare quelle basate sull’intelligenza artificiale. 

La cattedra contribuirà inoltre ad accrescere la consapevolezza del ruolo cruciale dell’etica digitale per la crescita sostenibile e la creazione di società più inclusive, valorizzando anche il ruolo dell’Europa come attore globale.

International Computation and AI Network: il via al WEF di Davos
Intelligenza artificiale e guida autonoma: il motorsport corre al buio

Intelligenza artificiale: la professoressa Benedetta Giovanola
La professoressa Benedetta Giovanola dell'Università degli Studi di Macerata all'inaugurazione dell'anno accademico 2023-2024 della ISTAO Business School (Foto: Facebook/UNIMC/Università degli Studi di Macerata)