Intelligenza artificiale e tecnologia digitale. La dimensione etica

Le Nuove tecnologie e intelligenza artificiale.

Esperienza del limite e desiderio di infinito

Cuneo 21-24 Settembre 2023

Relazione della

professoressa Daniela Tafani

all’Incontro nazionale di studi delle Acli nazionali

LA DIMENSIONE ETICA DELLA IA

(testo non rivisto dalla relatrice)

Quando cercherete un lavoro è probabile che vi chiederanno di inviare un video di autopresentazione lasciando la valutazione non solo del vostro curriculum ma di voi, della vostra inclinazione a collaborare, della vostra capacità di affrontare le difficoltà e di quelle che si chiamano soft skills a un sistema di apprendimento automatico, ovvero a quella che chiamiamo intelligenza artificiale, con un termine di marketing. Se foste negli Stati Uniti e foste un imputato davanti ad un giudice questi potrebbe servirsi di uno strumento di intelligenza artificiale per decidere se tenervi o non in prigione chiedendo ad un algoritmo qual è il vostro tasso di rischio di recidiva. Questi strumenti vengono usati già oggi anche da aziende italiane o da università in varie parti del mondo per decidere sulla base dei vostri dati se ammettervi o no.

Dal telefono, ma non solo da quello, voi in ogni istante della vostra vita fornite una miriade di dati personali e tutti quei “si” che digitate non sono un vero consenso ma un consenso estorto. Sono dati che vengono usati prevalentemente a scopi commerciali e contro di voi; per estrarre da voi più denaro possibile. Per le società che producono questi strumenti non siete persone ma portafogli ambulanti e questo è un dato di fatto.

L’utilizzo nell’ultimo decennio di questi strumenti ha dato luogo a discriminazioni e questo è assodato. La vecchia idea: mi giudica l’algoritmo quindi è oggettivo e imparziale; non come il giudice umano che se ha fatto colazione da quattro ore è di pessimo umore e mi condanna, non lo crede più nessuno. L’oggettività presunta delle decisioni algoritmiche è oggetto di numerosi studi e questa convinzione non la nutre ormai più nessuno.

Però commettiamo tutti almeno tre errori quando pensiamo all’intelligenza artificiale. Il primo errore gravissimo è pensare che funzioni. Qualsiasi strumento ci venga presentato, purchè si serva dell’espressione “intelligenza artificiale” noi pensiamo possa funzionare. Quindi se si dice che esiste uno strumento per prevedere se un candidato all’impiego sia anche un bravo lavoratore, l’azienda è convinta che ciò sia possibile. Non ci chiediamo più una cosa banale che è alla base della mentalità scientifica moderna: se si sostiene che un software sia capace di dire, a partire dal video di un candidato, se questo sarà un bravo lavoratore, c’è una correlazione, un nesso causale tra i pixel del viso e quello che farà la persona? Se la risposta è si nego che la persona sia libera di comportarsi in un modo o in un altro; nego che avranno una influenza sul suo comportamento le relazioni che avrà sul posto di lavoro e disconosco che sia una persona.

Quando, vedendo le caratteristiche esteriori o di altro genere, computabili posso predire il futuro? Posso dirlo di un oggetto, ad esempio di una bottiglia di latte leggendo la sua data di scadenza, ma davvero posso sapere se un imputato commetterà di nuovo un crimine o se quella persona sarà un bravo lavoratore e tutto ciò indipendentemente da ciò che lo circonda e dai rapporti che avrà con le altre persone? Questo non lo abbiamo mai creduto, quindi viviamo oggi- per questo la chiamiamo fallacia della funzionalità – in un momento in cui c’è una rinascita dell’astrologia e della fisiognomica; non proprio astrologia ma come l’astrologia è un mix di matematica e di superstizione: la convinzione che sia possibile predire il futuro di un singolo individuo.

Il secondo errore è la fallacia degli esempi tratti dal futuro o dalla fantascienza. Ogni volta che proviamo a costatare che una certa cosa non può essere fatta oggi la risposta è: ma tra poco… ma vedrai che… E questo facendo appello a qualcosa che ciascuno di noi associa spontaneamente all’intelligenza artificiale, cioè quello che si ricorda dai romanzi di fantascienza.

Terzo errore da cui tenersi in guardia è la fallacia del primo passo. In effetti negli ultimi anni ci sono stati grandi progressi su singole specifiche funzioni come la traduzione e la visione artificiale, quindi si dice che se in pochi anni abbiamo compiuto un così grande progresso tra poco arriveremo a costruire macchine dotate di coscienza, come mi è stato detto l’altro giorno, o davvero dotate di intelligenza. Questo è come credere che una scimmia che si sta arrampicando su un albero stia facendo progressi verso lo sbarco sulla Luna, in quanto si presuppone la scienza sia su un continuum, un sentiero che prosegue sulla stessa linea che ci porta là dove vogliamo andare.

Ma non è detto sia così; la scimmia arrivata in cima all’albero cade e se non fa qualcos’altro come costruire un missile non andrà sulla Luna. Non è affatto detto che perché abbiamo fatto un enorme progresso nella visione artificiale o nella traduzione automatica arriviamo a qualcos’altro.

Qui dobbiamo distinguere tra due cose: l’intelligenza artificiale come espressione allude a due cose completamente diverse: è una famiglia di tecnologie che va da quelli che erano i sistemi esperti teoricamente fino alla vera e propria intelligenza artificiale, che però non c’è. E’ però anche un atto linguistico: spesso chi dice oggi “intelligenza artificiale” sta esercitando un potere, un controllo e sta evadendo dalla propria responsabilità. Faccio un esempio: le persone che lavoravano a distanza durante la pandemia spesso sono state telesorvegliate dai datori di lavoro. Se però fosse stato detto loro che sarebbero state telesorvegliate questo sarebbe vietato ma chiamandola intelligenza artificiale, ovvero una entità imparziale e superiore, è passata la telesorveglianza. Dunque è un esercizio linguistico che molto spesso serve ad esercitare un potere sottraendosi alla responsabilità.

Un punto essenziale è che oggi non è disponibile una intelligenza artificiale in senso proprio in grado di fare quello che facciamo noi ma sono disponibili solo sistemi di intelligenza artificiale debole o ristretta, ovvero che possono svolgere anche molto bene un singolo compito specifico – come produrre linguaggio plausibile – però solo fino a quando non incontra dati molto diversi da quelli su cui, come si dice, è stata addestrata; o meglio: calibrata statisticamente.

Tendiamo a dimenticare questo, un po’ perché che lo fanno dimenticare con narrazioni di cui parlerò e un po’ perché effettivamente è molto potente su singoli compiti, ma è molto potente anche la calcolatrice che usavo alle elementari e che sapeva fare i conti molto meglio di me, ma io non dico che è intelligente. Perché dobbiamo dire che un software in grado di prevedere stringhe di testo è intelligente? Una prima ragione è la nostra inclinazione al pensiero magico: noi tendiamo ad antropomorfizzare tutti gli oggetti tecnologici, e tantopiù se producono linguaggio, in quanto siamo abituati al fatto che se io chiedo qualcosa a qualcuno e questi mi risponde sono autorizzata a presumere che abbia capito cosa gli ho detto e che sappia cosa mi sta dicendo.

La grande novità è che per questi strumenti questo non vale.

Perché siamo così ingannati? Quando nel 2010 ci si è resi conto – ed è stato un reale salto tecnologico e progresso – che i sistemi di apprendimento automatico di natura sostanzialmente statistica erano diversi dai precedenti programmi basati sulla logica, che dovevano essere scritti per dire alla macchina cosa fare e se c’era un errore lo si correggeva.

I sistemi di apprendimento automatico si basano su tre “ingredienti”, più altri tre di cui parleremo tra poco: la potenza di calcolo, una quantità enorme di dati e algoritmi che erano noti già da qualche decennio. Chi aveva questi ingredienti, nel 2010, quando ci si è resi contro che si potevano fare cose nuove? Non tutte le aziende ce le avevano e neppure oggi ce le hanno. Ad averli sono pochissime e si contano sulle dita delle mani le aziende in grado di produrre questi strumenti, perché servono enormi infrastrutture: i data center computazionali, un modello di calcolo, un modello di business già fondato sulla sorveglianza; ovvero serviva qualcuno già attrezzato per rubare i nostri dati e metterli insieme.

Le società come Google, Facebook, Amazon, Microsoft… che avevano già gli ingredienti hanno sfruttato l’opportunità e si sono dette: se un sistema di cosiddetta intelligenza artificiale può tradurre quello che scrivo perché non dire alla gente che può anche capirlo, così che possa essere il loro amico artificiale, il consulente mentale o il fidanzato virtuale? Ci sono persone che si sono disperate quando il garante della privacy ha spento gli amici immaginari.

Se si può identificare un singolo individuo dalle sue fattezze esteriori avendo la foto perché non dire anche che si può riconoscere un bravo lavoratore o un delinquente da una configurazione di pixel? Insomma hanno visto una opportunità di profitto e potere enorme e l’hanno sfruttata.

Hanno fatto anche un’altra cosa a cui abbiamo già assistito varie volte negli anni: hanno messo in moto un meccanismo di cattura culturale. Quando una grande azienda deve tutelare il proprio modello di business può catturare il regolatore; fenomeno noto in sociologia. Come si fa? Si può corrompere il legislatore, e questo è il modo più antico; un altro sistema non nuovo è quello delle porte girevoli, ovvero gli stessi personaggi che una volta stanno all’interno di una struttura privata, un’altra in una agenzia terza che dovrebbe essere neutra, poi in una istituzione pubblica.

Oggi c’è un terzo metodo per la cattura del regolatore molto più potente, ovvero la cattura culturale: se il regolatore è già convinto che questi strumenti sono intelligenti metà del lavoro di corruzione è già fatto. Io confido molto nell’Unione europea ma l’altro giorno ho visto un comunicato della Commissione che recitava: l’intelligenza artificiale è una priorità globale perché c’è un rischio di estinzione nel genere umano da intelligenza artificiale; come se l’intelligenza artificiale fosse una intelligenza vera, come nei film di fantascienza. Questo è molto triste e molto preoccupate perché già lo scriveva negli anni Settanta Joseph Weizenbaum, l’inventore del primo chatbot: quando si antropomorfizza una macchina è inevitabile che si deumanizzino le persone. E poi contribuiamo alla cattura culturale perché nascondiamo le persone.

Dietro a questi strumenti c’è qualcuno che li costruisce, qualcuno che li progetta, qualcuno che decide. Non è obbligatorio che il vostro smartphone vi spii ma è costruito così e potete disattivare tutto quello che volete ma vi spierà ugualmente; eppure non era obbligatorio costruirlo così. Chi lo ha fatto è perché da un punto di visa commerciale gli conveniva e perché le aziende essendo ormai nella condizione di monopolio detengono anche un grande potere politico.

La grande concentrazione economica porta con se una concentrazione di potere politico che non è compatibile con le democrazie. Questo gli Stati Uniti lo sapevano già dalla fine del 1800. Il senatore Sherman, autore della prima legge antitrust diceva che in una democrazia non vogliamo il re e come non vogliamo il re non vogliamo nemmeno l’autocrate del commercio, che avrà lo stesso potere che avrebbe il re.

Quello che possiamo vedere nello spazio pubblico digitale non è più determinato da noi. Se compriamo qualcosa quello che ci viene proposto non lo decidiamo noi, i discorsi, le persone, quello che appare o non appare sul social non lo decidiamo noi. Dunque un grande potere economico non è compatibile con la democrazia perché porta con se un enorme potere politico; in più, avendo a disposizione i mezzi per la cattura culturale, succede che finiamo per credere a moltissime narrazioni.

Quali sono queste narrazioni? Una l’abbiamo nominata: il principio dell’inevitabilità della tecnologia: appena si prova a formulare una obiezione subito arriva la contro-obiezione: “Non vorrai mica fermare la tecnologia?”. Ci costringono a ragionare nella logica del fatto compiuto. Il fatto che sia possibile preparare del cemento non significa che qualcuno sia autorizzato a costruire un muro davanti la porta di casa mia per impedirmi di uscire. Non esiste una tecnologia in astratto ma singoli strumenti costruiti da qualcuno e ogni volta dovremmo chiederci per ogni singola tecnologia cosa fa ma anche a chi lo fa e soprattutto per chi lo fa. Chiarendo questi punti si mette meglio a fuoco di cosa si tratta.

Prendiamo tutti gli strumenti della cosiddetta ottimizzazione predittiva, ovvero quelli che dalla vostra foto presumono di dire se sarete un bravo studente o un bravo lavoratore; che cosa sono? Niente più che un imbroglio perché non è possibile predire il futuro di un singolo essere umano. Perché a volte sembrano funzionare? Per un meccanismo noto dall’antichità classica: le profezie si autoavverano. Se dico su basi statistiche – ed è successo negli Stati Uniti – che questo individuo commetterà un crimine perché è nero e povero la polizia si presenta alla porta di questa persona dicendo che secondo l’algoritmo entro sei mesi sarà coinvolta in un conflitto a fuoco anche se non si sa se sarà la vittima o lo sparatore ma per questo sarà sorvegliata giorno e notte. La polizia ha così cominciato a seguire questa persona, ha parlato con i datori di lavoro, gli stava sempre intorno, tanto che nel quartiere povero e malfamato come quello in cui abitava i vicini hanno visto che la persona stava sempre con la polizia e si sono convinti che fosse un loro informatore e gli hanno sparato. Come di vede le profezie hanno una tendenza ad autoavverarsi.

Se dico che le donne possono fare solo le segretarie e non le dirigenti e quando le assumo gli faccio fare la segretaria l’algoritmo si autoavvera. Ma ai ricercatori che si sono messi a fare i conti sul serio – e ci sono studi in questo senso – è apparso chiaro che tirare a indovinare o usare uno di questi strumenti non fa molta differenza e quando si tratta di attribuire scarse risorse gli stessi ricercatori hanno suggerito di usare una lotteria invece di uno di questi strumenti di cosiddetta intelligenza artificiale.

Un altro principio è il principio di innovazione, che si ritiene importante perché rende competitivi e produce ricchezza. Ma questo è falso da due punti di vista; innanzitutto perché un monopolio non favorirà mai una innovazione che nuoce al proprio modello di business ma solo quella che gli consente di estrarre ancora più denaro o potere ed è perciò un classico che le grandi aziende acquistino quelle più innovative per poi strangolarle nella culla o farle proprie. Altro punto importante il mito dell’eccezionalismo tecnologico e del vuoto giuridico.

Si dice che non ci sono leggi per regolare oggi l’intelligenza artificiale ma perché dobbiamo pensarlo? Si tratta di attività commerciali che producono software, dunque pensiamo piuttosto che le leggi devono essere applicate. Se andiamo in un negozio di mobili e compriamo una sedia e il proprietario del negozio ci dice che per il fatto stesso che siamo entrati si sente autorizzato a venire a casa nostra, istallare telecamere, sedersi a manipolazione delle menti strumento di potereguardare quello che facciamo tutto il giorno e vendere tutti questi dati a chi gli pare in modo che quando stipuliamo una assicurazione o un qualsiasi altro contratto li usano contro di noi, gli diremmo che è pazzo e che si tenga la sedia. Perché allora per una azienda tecnologica, come chi produce telefonini, deve valere qualcosa di diverso? Perché deve poter prendere i nostri dati e usarli contro di noi? E’ chiaro che la mossa è una cattura culturale, perché di nuove leggi non c’è bisogno, già esistono e questi strumenti oggi stanno violando i nostri diritti. Anzitutto questi strumenti non sono spiegabili e ci sono già sentenze secondo le quali decisioni prese sulla base di una statistica automatizzata di cui non è possibile dare ragione non sono valide.

Normalmente si pensa di risolvere tutto con l’etica dell’intelligenza artificiale ma questa è un’altra narrazione, perché la si intende nel modo sbagliato. C’è una questione etica che però viene rimossa. Gli ingredienti dei sistemi di apprendimento automatico non sono solo tre come detto prima ma almeno sei: c’è una energia in quantità spaventosa che viene consumata, c’è lavoro umano dietro la macchina anche se normalmente non lo vediamo e ci sono danni ambientali.

Fermandoci solo sul lavoro. Le immagini vengono etichettate da persone a volte in parti del mondo molto distanti che neppure vediamo e se non vediamo immagini pedopornografiche o di stupri è perché in Kenia ci sono lavoratori pagati un dollaro l’ora, ma non è neppure questo il problema principale, che per tutto il giorno, tutti i giorni vedono immagini o leggono testi che parlano di stupri, assassini, violenze, pornografia. Queste persone raccontano che la sera quando provano a dormire non ci riescono perché appena chiudono gli occhi rivedono quello che hanno visto tutto il giorno.

E’ obbligatorio costruire così questi sistemi? No, ma così si fa prima e costa meno. Potrebbero costruire sistemi in modo diverso e dovrebbero pagare il lavoro ma se la legge non li forza a farlo non lo faranno.

Potrebbero costruire sistemi in chiaro, in cui si possa vedere quali elementi si stanno utilizzando? Certo, ma non potrebbero più dire che predicono il futuro perché si vedrebbe cosa stanno pesando: magari non solo che sono una donna e di una certa età ma anche il fatto che ho gli occhiali o che il mio foulard ha un pezzo di stoffa a righe, perché è una statistica automatizzata che non capisce nulla e traccia tutte le correlazioni e non solo quelle cui corrisponde un nesso causale.

Noi ci accorgiamo delle discriminazioni che facciamo – contro i poveri, i neri… –  ma una statistica automatizzata mi può discriminare e mettere nella categoria dei potenziali debitori insolventi solo perché bevo la stessa marca di birra di chi non ha pagato dei debiti. Un sistema statistico automatizzato non può smettere di discriminare perché lo fa per costituzione: separa, fa dei mucchietti di persone e trova correlazioni, cui può corrispondere nessun nesso causale. Per capire se una variabile è pertinente o no serve un essere umano dotato di comprensione, intelligenza e queste non sono esplicitabili.

Etica dell’intelligenza artificiale può voler dire solo una cosa, se non è un inganno: rendiamoci conto di cosa è sul serio, di cosa ci sta dietro, del lavoro, dello sfruttamento e delle sofferenze e ingiustizie che generano quando viene utilizzata. In molti stati europei a molte persone sono stati tolti i sussidi sociali sulla base del responso di un algoritmo. L’etica dell’intelligenza artificiale intesa invece come dichiarazione di buona volontà dell’azienda è ovvio che sia una presa in giro. E se ci dicono che si stanno costruendo strumenti di intelligenza artificiale che saranno anche giusti e che non discrimineranno è come se avessimo la lavatrice rotta nella casa allagata e il tecnico dicesse: la lavatrice funziona benissimo, solo che non è buona, ma tra poco la renderemo buona e deciderà di non allagare casa. E’ la stessa stupidaggine, perché il giudizio morale non è un elemento che viaggia da solo ma che come minimo presuppone alcuni prerequisiti non morali di cui il primo è il senso comune.

Cosa è il senso comune? È una parte della nostra intelligenza molto importante di cui ci dimentichiamo. Faccio un esempio: ogni volta che formuliamo un ordine – e chi programma le macchine ragione in termini di comandi – ne presupponiamo altri mille senza esplicitarli. Se lascio il bambino alla baby sitter dicendole: fallo divertire se quando torno il bambino sta lanciando coltelli al gatto perché questo lo fa divertire molto, la baby sitter non può dire: non mi hai detto di non fargli incendiare le tende, non fargli lanciare coltelli, non farlo buttare dalla finestra, ecc. perché noi condividiamo un orizzonte di senso e conoscenze sterminate che nessuna macchina al momento ha e che noi non ricordiamo di avere.

Questo è un punto per cui fraintendiamo cosa può fare l’intelligenza artificiale, perché quello che per noi è difficile le macchine lo fanno facilmente – anche la calcolatrice che avevo alle elementari faceva facilmente conti che non sarei mai stata capace di fare così rapidamente – e quello che per noi è facile non lo sanno fare. Il dipartimento della difesa degli Stati Uniti ha finanziato un progetto colossale per dare ad un sistema di intelligenza artificiale il buon senso di un bambino di otto mesi che però è fallito.

Il fatto è che sono molto più indietro rispetto a quello che ci raccontano e i progetti seri stanno cercando di far si che una macchina in qualche modo sia in grado di registrare se quello che accade nell’ambiente circostante lo ha fatto lei o accade indipendentemente da lei. Non è semplice, ma pensate a che livello sono in realtà. Poi su singoli settori di ricerca, come la traduzione automatica, la produzione di linguaggio, ci sono progressi.

C’è chi ha detto: ho provato ChatGPT e mi risponde. E’ vero, risputa testo plausibile perché statisticamente e grazie alla potenza di calcolo è in grado di produrre testo grammaticalmente e sintatticamente corretto e a tono avendo ingurgitato tutti i libri, tutta Wichipedia e tutta internet. Ma non è testo che ha prodotto da sola e dietro c’è una operazione di plagio automatizzato, come è stato detto; una immagine sfuocata di tutta internet ed è chiaro che lascia qualcosa di plausibile.

Ultima cosa. Pensate a come l’amministratore delegato di Amazon ha chiamato la piattaforma dedicata alla intermediazione del lavoro digitale: Turco meccanico. Con sfacciataggine e onestà intellettuale l’ha chiamata come un marchingegno che un imbroglione del ‘700 portava per tutte le corti europee dicendo di aver inventato un automa in grado di giocare a scacchi. Dentro ovviamente c’era un omino che giocava a scacchi. Amazon ha chiamato la sua piattaforma in questo modo perché l’intelligenza artificiale è, appunto, artificiale: ci sono gli omini dietro che non vedete e una quantità enorme di lavoro umano e talvolta proprio nel senso del Turco meccanico, poiché i generatori di linguaggio che le aziende usano per certe consulenze a volta sono esseri umani che rispondono.

Come dice Antonio Casilli l’intelligenza artificiale è fatta a mano. Ci sono persone dietro che la costruiscono, che sono sfruttate ed espropriate per fare un lavoro immane retribuito al limite della schiavitù e persone di aziende che decidono cosa deve fare la macchia e cosa deve impedirvi di fare.

 * * *

Daniela Tafani è ricercatrice a tempo determinato di filosofia politica presso il Dipartimento di Scienze Politiche dell’Università di Pisa. Fa parte del Comitato Scientifico della rivista «Zeitschrift für Rechtsphilosophie» e della redazione della rivista «Bollettino telematico di filosofia politica».

_________________________________________

Le altre relazioni pubblicate:

Intelligenza artificiale tecnologia digitale. Carlo Acutis e la dimensione spirituale  Luca Peyron

Intelligenza artificiale, tecnologia digitale, democrazia e algoterica – Paolo Benanti

Come l’intelligenza artificiale apprende – Andrea Bonarini

Democrazia, Costituzione e intelligenza artificiale  – Giulio M. Salerno

Intelligenza artificiale, tecnologia digitale, democrazia e algoterica – Paolo Benanti

Intelligenza artificiale e lavoro che cambia Ivana Pais