Tradizione famiglia Proprietà newsletter 26 Giugno 2025
Con loro sorpresa, gli scienziati scoprono i limiti dell’Intelligenza Artificiale
di Edwin Benson
Gli scienziati hanno scoperto un difetto nei processi informatici generalmente noti come Intelligenza Artificiale (IA). Sorprendentemente, una delle grandi aziende del settore, Apple, ha pubblicato questo studio. Per usare un eufemismo, esso mette in dubbio quel futuro dominato dalle macchine che molti cosiddetti esperti ritengono imminente.
Conoscenza e intelligenza
Nella mente di molti, conoscenza e intelligenza sono sinonimi. In realtà, non lo sono affatto. La conoscenza è un accumulo di fatti e informazioni. L’intelligenza è la capacità di applicare tali conoscenze. A prima vista, questa può sembrare una distinzione senza reale differenza, ma i due concetti sono distinti. Un modo meno accademico per esprimere questa discrepanza potrebbe essere: “Conosce tanti fatti, ma gli manca il buon senso”.
I fatti sono impersonali. Sono gli stessi per tutti. Ad esempio, un miglio equivale a 5.280 piedi, sia che a percorrerlo sia un bambino, un atleta o un pilota di jet. Tuttavia, il modo in cui ciascuno applica tale informazione – una funzione dell’intelligenza – è molto diverso. Per il bambino, la distanza può sembrare insormontabile. L’atleta la considera una questione di pochi minuti, mentre per il pilota scorre in frazioni di secondo.
Questo scenario è utile per comprendere lo sviluppo dell’IA. Nessuno dubita che i computer possano memorizzare enormi quantità di dati e aiutare gli utenti ad accedervi. Questa capacità ha creato un’industria e trasformato interi ambiti accademici e pratici. Tuttavia, almeno fino a tempi recenti, nessuno affermava che i computer potessero trasformare tali dati in intelligenza.
Cos’è l’intelligenza artificiale?
I promotori dell’IA cercano di convincere il pubblico che i loro prodotti compiono proprio quel salto. In realtà, però, si affidano alla combinazione di quantità sempre maggiori di dati. Possono fornire all’utente un risultato che sembra generato dal computer. Ma quella “creazione” è semplicemente un rimescolamento e una disposizione di innumerevoli frammenti di informazione.
Ecco una “definizione” di IA fornita dal California Institute of Technology (Caltech): “L’intelligenza artificiale, spesso chiamata IA, si riferisce allo sviluppo di sistemi informatici capaci di svolgere compiti che solitamente richiedono l’intelligenza umana. È come permettere alle macchine di pensare, imparare e prendere decisioni in autonomia. La tecnologia IA consente ai computer di analizzare enormi quantità di dati, riconoscere schemi e risolvere problemi complessi senza una programmazione esplicita. Essa implica la creazione di macchine intelligenti che possono percepire il mondo che le circonda, comprendere il linguaggio naturale e adattarsi a circostanze mutevoli.”
Un video che cerca di spiegare l’IA riduce il processo a “insegnare” alle macchine tre abilità: come imparare, come ragionare e come correggersi. Il conduttore esulta affermando che l’IA può creare “interi nuovi mondi di musica, arte e idee che gli esseri umani non hanno mai nemmeno immaginato”.
Sorgono dei dubbi
Tuttavia, un gruppo di scienziati della Apple ha recentemente gettato sabbia negli occhi di coloro che vedono il futuro attraverso le lenti dell’IA. Il loro studio ha un titolo insolito e inquietante: L’illusione del pensiero: comprendere i punti di forza e i limiti dei modelli di ragionamento attraverso la lente della complessità dei problemi.
Per comprendere la questione, è importante familiarizzare con due acronimi comuni nel mondo dell’IA: LLM e LRM.
- LLM significa “modello linguistico di grandi dimensioni”. L’idea è che un computer possa replicare i modelli linguistici di una persona, se ha a disposizione un numero sufficiente di esempi da cui attingere. Perciò, se il programma ha abbastanza informazioni su san Tommaso d’Aquino, potrei chiedergli di scrivere un testo su un qualsiasi argomento come se fosse stato redatto dal dottore angelico. Ovviamente, quel prodotto sarebbe un falso, ma si leggerebbe come un autentico scritto del grande scolastico.
- Il secondo acronimo, LRM, si basa sul primo. Sta per “modello di ragionamento di grandi dimensioni”. Va dove il linguaggio non può. Ad esempio, in questo ufficio c’è una stampa del “San Girolamo nello studio” di Antonello da Messina. Un LRM potrebbe collocare san Girolamo in un’ambientazione mai immaginata né da lui né dall’artista. Potrebbe dunque produrre un “quadro” in cui il traduttore della Vulgata guida una Ferrari, e il tutto nello stile di Antonella da Messina. Gli LRM possono fare molto di più, ma questo semplice esempio è utile a scopo illustrativo.
Un passo utile?
Nessuno dubita che l’LRM rappresenti un progresso rispetto agli LLM, il che può sembrare straordinario a chi non ha familiarità con l’IA. Tuttavia, gli scienziati della Apple contestano coloro che esaltano queste capacità come se fossero infinite.
Lo studio di Apple consta di trenta pagine di retorica quasi indecifrabile, ma due passaggi relativamente semplici danno un’idea delle riserve degli autori: “Dimostriamo che gli LRM più avanzati non riescono comunque a sviluppare capacità generalizzabili di risoluzione dei problemi, con una precisione che crolla a zero oltre certi livelli di complessità nei diversi ambienti.”
“Scopriamo che esiste un limite di scalabilità nello sforzo di ragionamento degli LRM in relazione alla complessità dei problemi, come evidenziato dall’andamento decrescente – e controintuitivo – del numero di ‘token di pensiero’ oltre un certo punto di complessità.”
In altre parole, esistono tipologie di problemi che gli LRM non riescono proprio a elaborare. Naturalmente, resta da vedere se i programmatori riusciranno a superare questo ostacolo. Ma il fatto stesso che questo limite esista indica che nemmeno i geni del mondo dell’IA hanno risolto tutto. Quanti altri ostacoli simili si celano dietro l’angolo?
Una barriera insormontabile?
È tuttavia plausibile che tali difficoltà permangano – e si moltiplichino – man mano che le problematiche legate all’IA diventeranno sempre più complesse.
Nessuno nega che i computer siano in grado di svolgere compiti che anche il più abile matematico, scienziato o ingegnere troverebbe ardui. Ad esempio, questo autore ha chiesto al computer di calcolare la radice quadrata di 300.558. La risposta, 548.231703, è arrivata in meno di un secondo. Per un non-matematico, è qualcosa di stupefacente.
Tuttavia, il cervello umano resta immensamente superiore. Dio, che è onnisciente, onnipotente e onnipresente, lo ha creato come vertice della creazione materiale. Su tutta la terra, il cervello umano è l’unico organo dotato della coscienza di sé. Un essere umano può usare un computer per ottenere una descrizione di un computer, ma la macchina non può sapere di essere un computer. Questa autocoscienza – e dunque l’individualità – è prerogativa esclusiva dell’uomo. Tranne la redenzione dei peccati, è il più grande dono dell’Onnipotente a una Sua creatura. Non ci ha però concesso di trasferirlo a una macchina, per quanto complessa essa sia.
Fonte: TFP.org, 19 giugno 2025. Traduzione a cura di Tradizione Famiglia Proprietà – Italia.