Intelligenza artificiale, quale rischio?

Abstract: intelligenza artificiale, quale rischio?  Il fronte dell’intelligenza artificiale conta un altro disertore eccellente. Geoffrey Hinton, ingegnere di alto livello di Google, rassegna le dimissioni segnalando i rischi che corriamo a causa dell’IA. Ma davvero un programma può diventare più intelligente dell’uomo? Il dibattito è antropologico.

La Nuova Bussola quotidiana 3 maggio 2023

Intelligenza artificiale, fra paure infondate e veri rischi

Il fronte dell’intelligenza artificiale conta un altro disertore eccellente. Geoffrey Hinton, ingegnere di alto livello di Google, rassegna le dimissioni segnalando i rischi che corriamo a causa dell’IA. Ma davvero un programma può diventare più intelligente dell’uomo? Il dibattito è antropologico.

di Stefano Magni

Il fronte dell’intelligenza artificiale conta un altro disertore eccellente. Geoffrey Hinton, ingegnere di alto livello di Google, considerato uno dei padri del progetto Chat GPT, ha rassegnato le dimissioni e in una sua intervista rilasciata al New York Times, ci ha messo in guardia dal possibile cattivo uso della sua creatura: «È difficile vedere come non puoi impedire ai cattivi attori di usarlo per cose cattive», ha dichiarato. Questo avvertimento fa il paio con la lettera aperta di Musk, Wozniak e un migliaio di esperti del settore in cui si denunciavano «profondi rischi per la società e umanità».

Geoffrey Hinton

Hinton, nella sua intervista alla BBC, sostiene un concetto ancor più inquietante: «Mentre vi sto parlando, le intelligenze artificiali non sono più intelligenti di noi. Ma presto possono diventarlo». Questi programmi funzionano imitando un cervello umano, una rete neurale che può apprendere e aumentare le sue competenze, anche senza l’intervento esterno di un programmatore. Il programma gratuito Chat GPT, che possiamo tornare a usare liberamente anche in Italia dalla settimana scorsa, dà l’idea di cosa possa realizzare, anche se si tratta di tecnologia ormai obsoleta, del 2021. I prodotti già usati dagli addetti ai lavori nel 2023 sono molto più potenti.

Alla Tv britannica, Hinton dichiara: «Al momento, stiamo vedendo cose come il GPT-4, che eclissa una persona nella quantità di conoscenze generali che possiede e la eclissa di gran lunga. In termini di ragionamento, non è altrettanto bravo, ma è già in grado di fare ragionamenti semplici». E quindi, «dato il ritmo dei progressi, ci aspettiamo che le cose migliorino abbastanza velocemente. Quindi dobbiamo preoccuparci».

La paura per la nuova tecnologia esiste dall’alba della scienza. Romanzi come Frankenstein rivelano come questa angoscia del creatore a cui sfugge il controllo della creazione fosse già un incubo due secoli fa. E allora si conosceva, al massimo, il principio fisico dell’elettricità, non la si usava ancora nella vita quotidiana, men che meno era concepibile un qualcosa come un cervello artificiale. Qui parliamo di una situazione veramente più vicina a quella di Frankenstein (un uomo creato da un altro uomo) che non al luddismo classico, che era rivolto contro macchine utilizzate dall’uomo per svolgere lavori manuali, o al massimo aiutarsi a svolgere compiti intellettuali.

Però, proprio per questo, il dibattito sull’intelligenza artificiale ci costringe a meditare su cosa sia la ragione umana, molto più che su come funzioni la nostra mente. Alla domanda aiuta a rispondere Philip Larrey, sacerdote cattolico statunitense, docente di Epistemologia e Logica alla Pontificia Università Lateranense. Larrey, nel suo saggio Artificial Humanity, pubblicato nel 2019, si poneva già il problema di cui oggi parlano Musk, Wozniak e Hinton. “Cosa rende l’uomo veramente umano?” si chiede e risponde: “È semplice dirlo: è l’intelligenza razionale e l’azione libera.  In altre parole, le nostre decisioni e gli atti liberamente scelti – con tutte le conseguenze del caso, nel bene e nel male – sono ciò che ci contraddistingue come umani”.

L’intelligenza artificiale non potrà mai essere come l’uomo o superiore. Perché, spiega Larrey: “Un sistema di intelligenza artificiale, per quanto sofisticato, può solo scegliere al meglio tra più opzioni. Nessun sistema di intelligenza artificiale può realmente decidere, perché per prendere una decisione è necessario avere una volontà, una capacità di volere”. Cosa che nessuna intelligenza artificiale potrà mai avere.

Resterebbe, però, al di là delle paure di Hinton o dell’ottimismo di padre Larrey, la tentazione umana di usare l’intelligenza artificiale al peggio. Come tutte le nuove scoperte, come l’energia nucleare, come l’aereo, come l’energia elettrica, può essere usata per costruire o per distruggere. Con l’intelligenza artificiale la tentazione è quella di spingere agli eccessi il transumanesimo, cioè l’illusione di usare la tecnologia per creare un uomo che vada al di là delle sue capacità naturali. Non solo per curarlo o per allungare la speranza di vita, ma proprio per trasformarlo in uomo-macchina dalle capacità superiori. Ma non serve andare con l’immaginazione alla letteratura cyberpunk o ai manga giapponesi sui robot: basta pensare al magistrato che fa emettere le sentenze da un’intelligenza artificiale per capire il rischio che corriamo nel prossimo futuro.

_______________________________________

Sulla Intelligenza artificiale si legga anche:

Tempi e luoghi del lavoro che cambia

Democrazia, Costituzione e intelligenza artificiale

Apprendere digitale

Democrazia e algoterica

Verso la sostituzione finale