Sapienza, studio su PNAS: i modelli linguistici imitano il giudizio ma non lo comprendono
di Redazione
16/10/2025
I modelli linguistici di nuova generazione, sempre più presenti nella vita quotidiana, sembrano capaci di valutare e argomentare come un essere umano. Ma dietro questa abilità apparente si nasconde un meccanismo puramente linguistico, privo di reale comprensione. È la conclusione di una ricerca del Dipartimento di Informatica della Sapienza, guidata da Walter Quattrociocchi, pubblicata su PNAS, che mette in guardia dalla “illusione del giudizio” creata dagli algoritmi.
L’esperimento: giudicare l’affidabilità delle fonti
I ricercatori hanno confrontato le valutazioni di sei LLM con quelle di esperti umani, chiamati a stimare l’affidabilità di centinaia di testate online. A un primo sguardo, i risultati sembrano allineati: i modelli mostrano una competenza comparabile a quella dei valutatori. Ma il parallelismo si infrange nei meccanismi interni.
Gli LLM non comprendono il senso delle affermazioni, bensì associano pattern linguistici appresi nel training a concetti di attendibilità. Quando “spiegano” una risposta, non costruiscono un’argomentazione: espandono statisticamente un contesto linguistico. È un processo di proiezione semantica, non di ragionamento.
Bias, autonomia e il rischio dell’epistemia artificiale
Un secondo set di esperimenti ha evidenziato bias politici e cognitivi: i modelli replicano le tendenze prevalenti nei corpus di addestramento, spesso sbilanciati verso specifiche visioni ideologiche. Quando operano in modalità autonoma, selezionando fonti e costruendo risposte, gli LLM mostrano una divergenza radicale dal comportamento umano: la valutazione si fonda su segnali lessicali e reputazionali, non su criteri critici o retorici.
Secondo gli autori, la questione non riguarda solo la disinformazione, ma una dimensione più profonda: l’epistemia, ossia la forma del sapere. L’intelligenza artificiale linguistica, nella sua capacità di produrre risposte plausibili, induce una illusione di conoscenza che rischia di erodere il rapporto stesso tra linguaggio e verità.
Lo studio invita a ripensare il modo in cui l’umanità delega ai modelli non soltanto il compito di informare, ma quello – ben più delicato – di giudicare.
Articolo Precedente
Biodiversità forestale, la lezione della natura: gestire meno per conservare di più
Articolo Successivo
Sei milioni per gli oratori del Lazio: spazi di comunità e futuro per i giovani