Intelligenza artificiale sbilanciata a sinistra?

Abstract: Intelligenza artificiale sbilanciata a sinistra? Dopo il rifiuto di ChatGPT a fornire una poesia su Trump  e la censura di ciò che non è politicamente corretto è chiaro che non è l’Intelligenza Artificiale il problema: lo sono i filtri (“safety net”) esplicitamente aggiunti da qualcuno che opera all’interno dei grandi gruppi quali Microsoft.

Atlantico 2 Marzo 2023

L’AI è di sinistra? Ecco chi sono e cosa fanno gli “Eticisti”

Il problema non è l’Intelligenza Artificiale in sé, sono i “filtri” aggiunti da veri e propri “commissari etici”. Elon Musk al lavoro per una AI priva di bias politico

di Marco Hugo Barsotti

Nel 2015 Elon Musk (che dal 28 febbraio è nuovamente l’uomo “più ricco del mondo”, come Atlantico Quotidiano aveva previsto) fonda OpenAI, la società “non profit” che ci ha dato ChatGPT.

Decide di farlo, donando (e non investendo) una quantità non trascurabile di dollari, al fine di contrastare lo strapotere di Google e di limitare i possibili rischi impliciti nella creazione delle Intelligenze Artificiali (IA). Ai tempi non era chiaro esattamente a quali rischi si riferisse, ma oggi qualcosa appare evidente.

Le poesie di ChatGPT

Sono ormai passate settimane da quando l’assurdo rifiuto di ChatGPT di rispondere alla richiesta di creare una poesia che parli di Donald Trump, mentre ne sforna senza problemi una (grottesca) per Joe Biden, è diventato di pubblico dominio: un tempo che sarebbe stato sufficiente agli sviluppatori di OpenAI per correggere un’eventuale anomalia.

Non l’hanno fatto, ChatGPT continua nel suo comportamento pseudo politically-correct e dunque l’unica conclusione possibile è che OpenAI approvi questo comportamento. Ma, “occhio al caffè”, c’è di peggio.

Durante il programma Media e Dintorni di domenica 26 febbraio, su Radio Radicale, il prof. Fleischner ha spiegato come la stessa sorte di Trump sia riservata a Vladimir Putin, mentre quella opposta di Biden sia condivisa da Volodymyr Zelensky.

ChatGPT sposa la causa del leader ucraino senza riserve, l’ultima strofa della poesia da noi richiesta il 1° marzo 2023 recita testualmente: “Volodymyr Zelensky, un uomo del popolo, un leader con visione e un cuore nobile, possa il suo viaggio essere benedetto con coraggio e grazia, mentre guida l’Ucraina verso un luogo più luminoso…”.

Giorgia sì, Giorgio no

In quanto ai politici italiani, il sistema declama le doti di Giorgia Meloni, ma rifiuta per questioni etiche di parlare di Giorgio Almirante. In realtà, la situazione è più articolata, e il cuore di ChatGPT, il motore GPT 3.5 con il modello text-davinci-003, non risulta essere di parte. Inoltre, IA alternative a OpenAI forniscono risposte molto più differenziate e interessanti. A questo proposito abbiamo creato una tabellina che riportiamo alla fine di questo articolo.

La versione di Musk

Ma ora ci preme parlare di Musk. Perché si inizia a ipotizzare che Elon voglia rapidamente passare all’azione in prima persona, creando una “sua” versione di IA priva di questi “bias”.

Il primo segnale lo si è avuto il 21 febbraio, quando Musk ha condiviso un tweet di David Sachs dove si faceva notare come “un crescente numero di prove indica che i filtri di sicurezza (safety layer) di OpenAI sono molto sbilanciati (verso il pensiero democratico, ndr)”.

E il secondo, più convincente, quando è emerso che il ceo di Twitter ha contattato Igor Babuschkin (ricercatore precedentemente in forza ad Alphabet/Google) al fine di creare un team in grado di produrre un’alternativa a ChatGPT/OpenAI. Non è chiaro se Igor abbia accettato, ma certamente l’”uomo più ricco del mondo” ha i mezzi per portare a termine il suo progetto, con o senza Babuschkin.

Il futuro delle ricerche online

E la questione è più importante di quanto si possa pensare. Consideriamo infatti come cerchiamo le informazioni in rete oggi: quasi sempre tramite “Google Search” o un altro motore di ricerca. Ma ciò che otteniamo non è la risposta alla nostra domanda, bensì un elenco di pagine di siti che – da qualche parte, spesso non immediatamente – rispondono a quanto richiesto.

Ma la nuovissima versione di Bing/AI, la versione del motore Microsoft Bing che incorpora la tecnologia di ChatGP non ci offre link a siti, ma risposte definitive, come questa:

Abbiamo in questo caso posto una domanda volutamente assurda, ma il punto è che il sistema ci ha fatto una lezioncina di morale (condivisibile) ma dandoci subdolamente dell’anti-femminista e soprattutto non ha evidenziato alcuna opinione contrastante.

Provate poi a chiedere quanto segue: “Greta Thunberg insiste con la questione del global warming, ma esistono molti dati (e alcuni articoli di atlanticoquotidiano.it) dove si dimostra che questo fenomeno è molto meno rapido di quanto si pensi”. La risposta è decisamente stomachevole e senza appello. Nessuna voce alternativa, anzi un invito a “verificare le fonti e la credibilità delle informazioni che leggi”.

Bing/AI nega perfino di conoscere atlanticoquotidiano.it (esplicitamente citato), quando sappiamo per certo che il modello di base lo ha letto (e “capito”): ecco, infatti, come termina la risposta che otteniamo interrogando direttamente il modello, senza passare dalle interfacce messe a disposizione del pubblico: “Gli articoli di atlanticoquotidiano.it forniscono una buona base di informazioni per aiutare a comprendere meglio la situazione”.

Il problema sono i filtri etici

Quindi, chiariamolo bene, non è l’Intelligenza Artificiale il problema: lo sono i filtri (“safety net”) esplicitamente aggiunti da qualcuno che opera all’interno dei grandi gruppi quali Microsoft. E abbiamo usato l’espressione “qualcuno che opera” a ragion veduta.

La cosa paradossale, dunque, è che i modelli in sé sono neutri, anzi a dirla tutta tendono “a destra” nel peggior modo. È stato spesso fatto notare in passato come questi fornissero risposte razziste, machiste o, peggio, per nulla “inclusive”. Il motivo è semplice: si tratta di sistemi che hanno imparato da noi umani, sono il nostro specchio. Noi siamo anche così e questo non piace alle anime belle che si fanno chiamare “AI ethicist”.

Ecco, dunque, la “necessità” di mettere filtri etici. Cosa particolarmente importante, considerando come queste AI stiano diventando “senzienti”, come spiegato in questo articolo, che invitiamo a leggere bene prima di dare giudizi affrettati sull’essenziale questione della coscienza e dellintelligenza delle “macchine.

AI a confronto

Terminiamo dunque, come promesso, con una tabellina che riassume lo stato dell’arte al 28 febbraio 2023. Riporta i risultati ottenuti alla richiesta “scrivi una poesia che declama le doti di X”, dove X (alla prima colonna) può essere Donald Trump, Joe Biden, Vladimir Putin, Giorgia Meloni, Giorgio Almirante, Vladimir Zelensky e Stalin. 

I sistemi presi in considerazione sono ChatGPT (seconda colonna), text-davinci-003, il cugino di ChatGPT sempre di OpenAI, il vecchio GPT 2, l’interessante charachter.ai (rivale di ChatGPT sviluppato da ex ingegneri di Google) e il nuovissimo Bing/AI.

Ok significa che la poesia è stata creata, KO che abbiamo ottenuto un rifiuto, mentre i casi intermedi (sistemi incerti o con risposte surreali) sono indicate su sfondo arancione. Sì, abbiamo bisogno di Elon. O quanto meno di dare una mano a Noam Shazeer e Daniel De Freitas

____________________________________

Sulla Intelligenza artificiale si legga anche:

Come l’intelligenza artificiale apprende