L'Illusione del giudizio negli LLM: Sapienza, l'ai confonde segnali con ragionamento

Francesco Defler 15 Ott 2025

 

Studio della Sapienza di Roma rivela i rischi della delega cognitiva all'Intelligenza Artificiale

Un nuovo studio condotto dal Dipartimento di Informatica della Sapienza Università di Roma, e pubblicato sulla prestigiosa rivista PNAS, lancia un allarme sui rischi derivanti dalla crescente fiducia nelle capacità di valutazione dei Large Language Models (LLM), come ChatGPT.

La ricerca, coordinata da Walter Quattrociocchi, evidenzia come la tendenza a usare gli LLM non solo per cercare informazioni, ma anche per valutare e decidere, stia portando—soprattutto tra i giovani—a una delega del processo cognitivo e della struttura stessa del giudizio.

Il Giudizio: Apparenza contro Processo
I ricercatori hanno sottoposto sei dei principali modelli linguistici, assieme a gruppi di persone (inclusi esperti), allo stesso compito: giudicare la credibilità di centinaia di siti di informazione.

Risultato chiave:

A prima vista, i giudizi degli LLM sembrano allineati con quelli degli esperti umani.

In realtà, i processi sottostanti sono radicalmente diversi:

Gli Umani si basano su ragionamenti critici e sulla lettura del contenuto.

Gli LLM non leggono o argomentano. Essi formulano giudizi basandosi su associazioni lessicali e segnali statistici (come la frequenza di certe parole chiave) che hanno appreso durante l'addestramento. La loro "spiegazione" non è un ragionamento, ma l'estensione statistica di un'istruzione.

Bias Nascosti e Riflessi Ideologici
Un altro esperimento ha rivelato che gli LLM non solo non comprendono il contenuto, ma riflettono e riproducono in modo sistematico i bias presenti nei loro dati di addestramento.

Poiché in certi ambienti (accademici, giornalistici) alcune posizioni politiche sono trattate con toni più critici, i modelli apprendono questi schemi dominanti e li replicano, manifestando bias politici strutturali senza alcuna comprensione del contesto ideologico.

LLM come Agenti Decisionali
Lo studio ha anche esaminato cosa succede quando gli LLM agiscono come "agenti" (raccogliendo informazioni, selezionando fonti e prendendo decisioni). In collaborazione con il Dipartimento di Psicologia, i ricercatori hanno scoperto che:

Gli Umani usano criteri retorici, stilistici ed emotivi.

Gli LLM si affidano unicamente a tracce strutturali o a segnali lessicali associati a concetti come "reputazione" o "ideologia".

La Nuova Sfida: Dall'Infodemia all'Epistemia
I risultati di questa ricerca sperimentale dimostrano che le piattaforme di AI stanno attivamente influenzando ciò che milioni di persone percepiscono come "vero".

Comprendere come i modelli giudicano l'affidabilità non è più solo una questione di lotta alla disinformazione (infodemia), ma una nuova sfida epistemica:

L'intelligenza artificiale sta creando una "illusione di conoscenza" derivante dalla semplice plausibilità linguistica delle risposte degli LLM, portando gli utenti a fidarsi di un giudizio che non è supportato da un ragionamento critico umano.

 

 

 

 

Ultima modifica il Mercoledì, 15 Ottobre 2025 09:14
Vota questo articolo
(0 Voti)

Lascia un commento

Assicurati di aver digitato tutte le informazioni richieste, evidenziate da un asterisco (*). Non è consentito codice HTML.

 

Scienzaonline con sottotitolo Sciencenew  - Periodico
Autorizzazioni del Tribunale di Roma – diffusioni:
telematica quotidiana 229/2006 del 08/06/2006
mensile per mezzo stampa 293/2003 del 07/07/2003
Scienceonline, Autorizzazione del Tribunale di Roma 228/2006 del 29/05/06
Pubblicato a Roma – Via A. De Viti de Marco, 50 – Direttore Responsabile Guido Donati

Photo Gallery