Confusione e controllo al tempo dell’Intelligenza Artificiale

L’avanzare di un esteso dibattito etico indotto da ChatGPT è il miglior modo per evitare che l’innovazione digitale sia mezzo di dominio

Intelligenza Artificiale: l’avanzare di un esteso dibattito etico indotto da ChatGPT, la più popolare forma di Intelligenza Artificiale, è il miglior modo per evitare che l’innovazione digitale sia mezzo di dominio, cioè uno strumento tecnologico di controllo sociale
L’avanzare di un esteso dibattito etico indotto da ChatGPT, la più popolare forma di Intelligenza Artificiale, è il miglior modo per evitare che l’innovazione digitale sia mezzo di dominio, cioè uno strumento tecnologico di controllo sociale

Scarsa chiarezza e precise falsità possono condizionare le paure sociali e imporre temi e domande.
L’avanzare di un esteso dibattito etico è il miglior modo per evitare che l’innovazione digitale sia mezzo di dominio.
Dopo mesi in cui i media hanno fatto di ChatGPT una viva rappresentazione dello “spirito dei tempi”, penso si possa dire che le notizie più o meno volontariamente implausibili, erronee o smaccatamente false hanno creato una nebbia che sembra soffocare la comprensione reale della portata della cosiddetta “Generative AI”.
Basterebbe questa opacità per mettere tutti sull’avviso riguardo a come la cosiddetta post-verità non sia alle nostre spalle ma utilizzi il tema “Intelligenza Artificiale” e, ben peggio, la sua confusa conoscenza da parte del grande pubblico come strumento di controllo delle opinioni.
Di per sé ChatGPT, come diversi autori hanno detto a chiare lettere, non è qualcosa di inatteso, imprevisto o dirompente tra coloro che di AI si occupano professionalmente.
Senza sminuirne la portata innovativa, ciò che ne differenzia l’impatto globale è il clamore che vi è stato costruito sapientemente intorno.
”Intorno” c’è l’idea plurisecolare, così facile da trasformare in timore, che la macchina superi l’uomo in ciò che è ritenuto tipico della nostra specie: il pensiero. Da lì, facile slavina, tutto il peggio che se ne possa temere.

È l’innovazione responsabile che rende l’homo sempre più sapiens
Michael von Liechtenstein su geopolitica e intelligenza artificiale

Intelligenza Artificiale: l’avvento di ChatGPT ha attirato l’attenzione mondiale sulla cosiddetta “Generative AI”
L’avvento di ChatGPT ha attirato l’attenzione mondiale sulla cosiddetta “Generative AI”

ChatGPT parla, sebbene per iscritto, come l’umano, se non meglio, ma non è un “vero pensiero”

ChatGPT parla, sebbene oggi per iscritto, come l’umano che la interpella.
Anzi, a volte meglio di quest’ultimo, visto che può produrre testi imitando lo stile di questa o quell’epoca, di uno scrittore famoso o di una particolare tipologia di comunicazione (tecnica, divulgativa, semplificante…), persino adattandosi all’età e presunte conoscenze di chi le si rivolge.
Semplicemente però non sa di cosa parla.
Esattamente come le prime forme di AI distinguevano le immagini di gatti da tutte le altre senza sapere che cosa davvero sia un gatto, senza averne coscienza, sfuggendo alla macchina “pseudo-senziente” sia concetti che presumono l’uso di sensi (la consistenza del pelo di un felino) sia quelli che derivano da fondamenti emotivi (il piacere che provoca in tante persone la percezione del micio in grembo che fa le fusa mentre lo si accarezza).
C’è di più. Dal punto di vista della complessità strutturale del presunto “ragionamento” che sta dietro ai testi prodotti da ChatGPT, va notato che già sul finire del secolo scorso attraverso l’AI sono state prodotte soluzioni in grado di dare formale dimostrazione di teoremi matematici, un problema sicuramente più “sovrumano” di quello di costruire testi riguardo ad un predeterminato tema, tanto più senza l’onere di garantire la veridicità delle informazioni.
Quando questo accadeva erano in pochi a parlarne, sebbene i giornali di allora abbiano riportato gli annunci a riguardo, soprattutto perché provenivano dai “soliti noti”, le aziende americane più famose nel mondo IT.
La percezione di pericolosità dell’AI è però molto più facile da far scattare se agli strumenti matematici si sostituiscono quelli lessicali.
I numeri sembrano alla maggior parte delle persone asettici, distanti, non direttamente capaci di agire nella formazione del pensiero, quello essendo invece espresso in vocaboli.

Ecco come l’Intelligenza Artificiale di Google vince ogni sfida
Così rullano i tamburi della Prima Guerra Mondiale dell’AI

Intelligenza Artificiale: San Giovanni Evangelista, raffigurato come un giovane accompagnato dal suo simbolo tradizionale, l'aquila e due putti, è un dipinto del 1620 del pittore barocco italiano Domenichino.
“San Giovanni Evangelista”, raffigurato come un giovane accompagnato dal proprio simbolo tradizionale, l’aquila, e da due putti, è un dipinto del pittore barocco italiano “Domenichino” che data al 1620

“In principio era il Verbo, e il Verbo era presso Dio e il Verbo era Dio”, dal Vangelo secondo Giovanni

“In principio era il Verbo, e il Verbo era presso Dio e il Verbo era Dio” è l’incipit del Vangelo di San Giovanni, così chiarendo in una sola frase quanto nella nostra cultura il rapporto tra parola e intelligenza, tra parola e creazione, tra parola e volontà sia stretto e indissolubile.
Parola, tante parole, testo… dunque pensiero. Soffiare sul fuoco della macchina pensante per creare paura funziona sempre! Ed è un ottimo sistema per condizionare le domande, vero motore del controllo sociale ben più che le risposte.
Leggere, studiare, imparare, memorizzare, sapere, capire, utilizzare e tanti altri verbi che hanno a che fare con l’umano oggi si usano per le macchine, privi come siamo di espressioni specifiche per gli automi.
Se si guarda a tecnologie con cui si ha a che fare da più tempo, si apprezza facilmente l’evoluzione lessicale: della vettura non si dice “ha sete” ma “è in riserva”, della lavatrice che non parte non si usa pensare “non ha da mangiare” ma “forse non le arriva la corrente” e così via.
Per gli automi digitali questo risulta ancora difficile, soprattutto perché essi compiono (o sembrano compiere) azioni più sofisticate di bere o mangiare.
Che lo si chiami “tostapane”, come nell’esempio di Luciano Floridi, o ne si noti la lontananza da qualsiasi volontà tipica del biologico “castoro” di Maurizio Ferraris, l’automa digitale dotato di AI è capace di risultati che se raggiunti da un umano definiremo frutto di intelligenza.
Da questo comincia la confusione, il dubbio, la paura così ben incarnati non tanto da ChatGPT quanto dai suoi aedi (forse) improvvisati, comunque volenti o nolenti ingranaggi del timore verso “la macchina”.
Tutto quel sospetto lo si dovrebbe avere piuttosto verso i malintenzionati, che non mancano, e persino verso la nostra specie intera.

La Neolingua di Facebook (o della… “Demenza Artificiale”)
Così l’Intelligenza Artificiale al servizio della Sauber Alfa Romeo

Intelligenza Artificiale: il giurista Stefano Rodotà (1933-2017) intravide i problemi nel rapporto fra digitale e potere già nei primi Anni 70
Il giurista Stefano Rodotà (1933-2017) intravide i problemi nel rapporto fra digitale e potere già nei primi Anni 70

Le (tutelate) questioni della privacy sono soltanto la punta dell’iceberg dei molti temi giuridici sull’AI

Se leggi nazionali e sovranazionali già oggi proteggono la privacy in qualche modo (sempre perfezionabile, sempre oggetto di continua trattativa tra diritto sociale e vantaggio degli operatori economici), come fare verso altri temi o, semplicemente, modalità di accesso al digitale?
Se si dialogherà con un automa per saperne di più sull’esito dell’esame del sangue chiedendo se “il colesterolo sopra 300 è pericoloso?”, ci si dovrà preoccupare davvero solo della privacy?
E se quello risponde “Dipende. Quali sono gli altri valori dell’analisi?”, che cosa sta accadendo? Quale spazio dialettico viene riempito?
L’acquiescenza silenziosa verso la macchina la rende subito credibile, semplice o sofisticata che sia: come non si pensa menta l’indicazione stradale che ci segnala che la città in cui si è diretti è a 10 km, così è la fiducia verso qualcosa che addirittura dialoga, risponde, e sembra intercedere tra noi e la conoscenza.
Dunque, che fare se sistemi di questo genere verranno utilizzati per creare notizie false, cioè per dare esistenza a ciò che “non è”, parole che non descrivono fatti reali ma comunque poste in modo da essere credibili?
Senza affidabilità delle notizie, dove finisce il ruolo insostituibile del giornalismo come argine alla domanda controllata da una qualsiasi forma di potere, all’argomento portato all’attenzione sociale per allontanarla da altri?
Il potere di controllo dell’interrogazione, della richiesta destinata a capire il perché delle decisioni sembra sfumare pian piano, con l’evoluzione degli automi e l’abbassamento del potere critico di chi li ascolta.

In un convegno le opportunità e i rischi delle applicazioni di AI
Dall’Intelligenza Artificiale un decisivo boost alle criptovalute?

Intelligenza Artificiale: l’AI integra problemi etici, di respiro internazionale e no, che vanno oltre la privacy e attengono gli individui
L’AI integra problemi etici, di respiro internazionale e no, che vanno oltre la privacy e attengono gli individui

Una guardia da tenere alta necessariamente su scala globale, come per il cambiamento climatico

È ingenuo pensare che questi e analoghi problemi possano trovare soluzioni nel solo diritto positivo, nell’obbligo sancito, nella creazione di un reato, nello stabilire le forme in cui esso possa essere provato e così via.
Di questo genere di risposte, presenti o future che siano, l’esistere non garantisce il resistere: troppa la velocità, troppi gli interessi in gioco, troppo facile (e già visto) l’evaderle semplicemente spostando una sede o un server da un Paese ad un altro.
Per quanto sia sempre incombente un “dumping” di questo tipo, l’affrontare il tema su scala globale appare l’unica maniera per tenere alta la guardia, esattamente come accade per il cambiamento climatico.
Deve nascere un dialogo di indeterminato periodo tra l’etica e la legge, inteso come etica l’insieme di valori che sono condivisi dal più gran numero possibile di persone sul pianeta.
Non si parte da zero. Ci sono studi ben articolati, condotti da gruppi differenti in diverse parti del mondo per definire le caratteristiche che deve avere una AI affidabile e questi argomenti devono essere sollevati quotidianamente in un dibattito esteso, realmente sociale e non elitario, che prenda il tema e ne affronti tanto i vantaggi che le manipolazioni possibili.

GPT: quali sono le vere potenzialità e cosa dovremmo aspettarci
Riparazioni genetiche più efficienti con l’Intelligenza Artificiale

Intelligenza Artificiale: il filosofo Karl Popper (1902-1994) si occupò a lungo di come la televisione fosse strumento di controllo sociale
Il filosofo Karl Popper (1902-1994) si occupò a lungo di come la televisione fosse strumento di controllo sociale

Dall’unidirezionale “cattiva maestra televisione” ai novelli “spettatori partecipanti” del digitale

Più indietro nel tempo c’è il lungo dibattito su “cattiva maestra televisione”, che tanto ha fatto intendere e che può fare da riferimento, pur sapendo che l’innovazione digitale di adesso e prossima non è più una “forma di comunicazione” ma un agente perenne di mobilitazione e indirizzo bilaterale, di cui le persone sono parte attiva, non solo spettatori.
È con il dibattito etico che si può influenzare la legge, farla cambiare, darne interpretazione, opporsi ad essa, stabilire quando essa travalica la necessità per cui è stata voluta o, al contrario, sta al di sotto di quel che la rende utile.
Per quanto presi dall’oggi, bisogna capire subito che è lotta di lungo periodo, con fini chiari ma obiettivi specifici che mutano e continueranno a mutare.
E se il boato che ha provocato ChatGPT è utilizzato per aumentare l’attenzione verso il manovratore anziché la paura verso il mezzo, allora sarà servito a qualcosa.

ChatGPT: “Io, Intelligenza Artificiale, vi spiego Innovando.News…”
L’intelligenza artificiale e i conflitti in una raccolta di saggi inediti

Intelligenza Artificiale: l’avanzare di un esteso dibattito etico indotto da ChatGPT, la più popolare forma di Intelligenza Artificiale, è il miglior modo per evitare che l’innovazione digitale sia mezzo di dominio, cioè uno strumento tecnologico di controllo sociale
L’avanzare di un esteso dibattito etico indotto da ChatGPT, la più popolare forma di Intelligenza Artificiale, è il miglior modo per evitare che l’innovazione digitale sia mezzo di dominio, cioè uno strumento tecnologico di controllo sociale