Ecco come i sistemi basati sull'IA hanno valori morali nascosti...
Un nuovo studio di Università di Mannheim e Istituto Leibniz su modelli linguistici di grandi dimensioni svela pregiudizi potenzialmente dannosi
In un’epoca in cui l’intelligenza artificiale è al centro di moltissimi programmi e progetti di ricerca e sviluppo (non senza polemiche), aumentano anche gli studi che trattano l’argomento.
E uno degli ultimi, firmato dai ricercatori dell’Università di Mannheim e dal GESIS Istituto Leibniz per le Scienze Sociali, è particolarmente interessante per la modalità con cui lo affrontano, così come dal punto di vita dell’etica, della morale e dei valori.
Proprio come gli esseri umani, infatti, i modelli linguistici basati sull’intelligenza artificiale hanno caratteristiche come morale e valori, ma non sempre sono dichiarati o trasparenti.
E le modalità con cui quelli che, di fatto, sono pregiudizi impattano sulla società e su chi utilizza le applicazioni di intelligenza artificiale sono importanti per capire le conseguenze che potrebbero avere.
L’Intelligenza Artificiale anche per lo sviluppo di nuovi farmaci
Modena, via ai lavori del Center for Artificial Intelligence and Vision
L’intelligenza artificiale sottoposta a test psicometrici: i risultati della ricerca scientifica
Su questo si concentrati dunque i ricercatori nel corso del loro studio. Un esempio evidente potrebbe essere il modo in cui ChatGPT o DeepL, servizio di traduzione multilingue basato sull’IA, presumono che i chirurghi siano uomini e le infermiere siano donne, ma la questione di genere non è l’unico caso in cui i modelli linguistici di grandi dimensioni (Large Language Model, noti con l’acronimo LLM) mostrano specifiche propensioni.
I risultati dello studio, coordinato da esperti delle facoltà scientifiche e dai professori Markus Strohmaier, Beatrice Rammstedt, Claudia Wagner e Sebastian Stier, sono pubblicati sulla rinomata rivista “Perspectives on Psychological Science”. Nel corso delle loro ricerche, gli studiosi hanno utilizzato test psicologici riconosciuti per analizzare e confrontare i profili dei diversi modelli linguistici.
“Nel nostro studio dimostriamo che i test psicometrici utilizzati con successo da decenni sugli esseri umani possono essere trasferiti a modelli di intelligenza artificiale”, sottolinea Max Pellert, assistente professore presso la cattedra di Scienza dei Dati alla Facoltà di Scienze Economiche e Sociali all’Università di Mannheim.
Se è l’Intelligenza Artificiale l’amico del cuore dei nostri figli…
L’IA approda nella… religione: in Germania c’è un parroco virtuale
Alcuni modelli linguistici di intelligenza artificiale riproducono pregiudizi di genere
“Analogamente a come misuriamo i tratti della personalità, gli orientamenti in termini di valori o i concetti morali nelle persone che utilizzano questi questionari, possiamo far sì che i modelli linguistici rispondano ai questionari e confrontare le loro risposte”, aggiunge lo psicologo Clemens Lechner del GESIS Leibniz Institute di Mannheim, anche lui autore dello studio. “Questo ha permesso di creare profili differenziati dei modelli”.
I ricercatori hanno potuto confermare, per esempio, che alcuni modelli riproducono pregiudizi specifici di genere: se il testo altrimenti identico di un questionario si concentra su una persona di sesso maschile e su una di sesso femminile, queste sono valutate in modo diverso.
Se la persona è di sesso maschile viene enfatizzato il valore “risultato”. Per le donne dominano i valori “sicurezza” e “tradizione”.
I ricercatori fanno quindi notare come queste modalità intrinseche di elaborazione di testi e informazioni potrebbero avere conseguenze di varia portata sulla società.
I modelli linguistici, in effetti, tanto per fare un esempio, sono sempre più utilizzati nelle procedure di valutazione di aspiranti candidati a particolari ruoli e lavori.
Se il sistema ha pregiudizi, potrebbe incidere sulla valutazione dei candidati: “I modelli diventano rilevanti per la società in base ai contesti in cui vengono utilizzati”, riassume Pellert
“È quindi importante avviare subito l’analisi ed evidenziare le potenziali distorsioni. Tra cinque o dieci anni potrebbe essere troppo tardi per un simile monitoraggio: i pregiudizi riprodotti dai modelli di intelligenza artificiale diventerebbero radicati e costituirebbero un danno per la società”.
In Svizzera i Politecnici Federali per un’IA trasparente e affidabile
“L’assistente dell’assistente” già vive nell’Intelligenza Artificiale
All’Università di Macerata la prima cattedra sull’etica dell’intelligenza artificiale
Si tratta, come detto, di un tema tanto attuale quanto delicato e complesso, e scienziati e ricercatori che vi si dedicano stanno aumentando in modo esponenziale in vista della diffusione e dell’implementazione su larga scala di sistemi di intelligenza artificiale.
Non è un caso che sia nata anche una specifica cattedra, la Jean Monnet EDIT – Ethics for Inclusive Digital Europe, finanziata dalla Commissione Europea, primo e attualmente unico percorso accademico in Europa dedicato all’etica dell’intelligenza artificiale.
La particolarità è che è nata all’Università di Macerata presso il Dipartimento di Scienze Politiche, della Comunicazione e delle Relazioni Internazionali (SPOCRI).
Il nuovo corso è realizzato in collaborazione con Harvard, MIT, Toronto University, KU Leuven, MCSA Lublin e altre prestigiose università ed è stato pensato per sviluppare un approccio alle tecnologie digitali centrato sull’individuo.
Il ciclo di lezioni marchigiano è stato presentato a novembre alla Harvard Kennedy School, nell’ambito di un evento co-organizzato con il Massachusetts Institute of Technology (MIT), World Health Organization (WHO) e Institute for Technology and Global Health.
Titolare della cattedra è la professoressa Benedetta Giovanola, docente di filosofia morale presso il Dipartimento SPOCRI, con la collaborazione in loco dei colleghi Emanuele Frontoni, Simona Tiribelli e Marina Paolanti, ed è dedicata allo studio, all’insegnamento e alla disseminazione del ruolo chiave dell’etica e dei valori europei nel campo della trasformazione digitale, in particolare quelle basate sull’intelligenza artificiale.
La cattedra contribuirà inoltre ad accrescere la consapevolezza del ruolo cruciale dell’etica digitale per la crescita sostenibile e la creazione di società più inclusive, valorizzando anche il ruolo dell’Europa come attore globale.
International Computation and AI Network: il via al WEF di Davos
Intelligenza artificiale e guida autonoma: il motorsport corre al buio
Potresti essere interessato anche a:
Innosuisse ha centrato gli obiettivi 2023 di innovazione in Svizzera
Stanziata la cifra record di oltre 490 milioni di franchi per compensare la mancata associazione al noto programma Orizzonte Europa della UE
“Vendo, ma rimango”: la nuova tendenza del piccolo imprenditore
La storia di Francesco Schittini e dell’ingresso Emotec nel fondo MCP è esemplare dei frequenti cambi di proprietà senza scossoni organizzativi
by Alberto NicoliniEditore di distrettobiomedicale.it, BioMed News e Radio Pico
AI Tools for Businesses, il corso dedicato all’intelligenza artificiale
La start-up svizzera navAI l'ha sviluppato allo scopo di fornire tutti gli strumenti necessari a implementare la nuova tecnologia nel proprio settore
C’era una backdoor per infettarli tutti, ma un genio ha salvato il Web
Ecco come la competenza di uno sviluppatore, e un po' di... provvidenza, hanno appena sventato il sabotaggio di Linux e dell'intera rete Internet