2025-12-23

Stiamo confondendo un intelligente pappagallo con un genio?


Negli ultimi anni ci siamo convinti che ChatGPT, Gemini e compagnia (LLM - modelli linguistici di grandi dimensioni) siano una sorta di cervello digitale in rapida evoluzione.

Parlano bene, rispondono in fretta e non si lamentano mai: come non considerarli intelligenti?

Dal punto di vista della neuroscienza, stiamo facendo un clamoroso errore di prospettiva: stiamo scambiando la capacità di mettere insieme frasi con la capacità di pensare. Il punto è semplice, un LLM non ragiona, prevede. Ogni frase che produce è solo la scelta statistica del prossimo token più probabile. È un po' come quando ricicliamo frasi o battute soltanto perché le leggiamo ovunque: il modello fa qualcosa di simile ma in versione estrema e completamente automatica.

La mente umana, invece, usa il linguaggio come strumento, non come materia prima del pensiero. Le persone con gravi lesioni linguistiche continuano a ragionare; alcuni che non parlano affatto hanno un'intelligenza perfettamente integra. Insomma: per noi il linguaggio è un mezzo, per i modelli è tutto ciò che hanno.

Molti sostenitori dell'AGI raccontano che basterà "scalare" i modelli: più dati, più GPU, più tutto... et voilà l'intelligenza generale. È come sostenere che se alleni un pappagallo a memorizzare abbastanza frasi, prima o poi diventerà un filosofo. I neuroscienziati ricordano che l'intelligenza umana non è fatta solo di parole: è radicata nel corpo, nei sensi, nell'esperienza, nelle percezioni, nell'intuizione.

Un LLM non ha nulla di tutto questo. Ha soltanto testo, tanto testo (tanto, tanto, tanto!).

Nonostante tutto gli LLM sono strumenti eccellenti per usare il linguaggio: scrivere, riassumere, tradurre, rispondere in modo simpatico e disinvolto. Il problema nasce quando pretendiamo che facciano ciò che non possono fare: capire davvero il mondo, ragionare come un essere umano, prendere decisioni sensate in contesti imprevisti. Sono ottimi imitatori, ma pessimi filosofi.

La cosa più intelligente che noi possiamo fare è ricordarcelo.


Per approfondire il tema un ottimo punto di partenza è l'articolo: Large language mistake - Cutting-edge research shows language is not the same as intelligence. The entire AI bubble is built on ignoring it di Benjamin Riley.
Correlato è lo storico esperimento mentale della Stanza Cinese di John Searle.