L’AI ci rimbambisce? ChatGPT risponde a uno studio del Mit che non convince. La vecchia e comoda diffidenza

Lo studio del Mit accusa l’AI di spegnere il cervello, ma confonde fatica con intelligenza. Più che dimostrare un danno, rivela un pregiudizio antico: quello contro ogni scorciatoia

C’è un momento, leggendo il lungo e meticoloso studio “Your Brain on ChatGPT”, in cui viene voglia di chiudere tutto e tornare a studiare con la luce fioca e i dizionari Zanichelli. Non perché lo studio sia illuminante. Ma perché riesce a condensare in 206 pagine un sospetto vecchio come la scuola: quello secondo cui ogni innovazione è una scorciatoia pericolosa. Il sottotesto è chiaro: se usi ChatGPT per scrivere un saggio, il tuo cervello si spegne, la memoria si offusca e la tua capacità di apprendere evapora. E’ la versione postmoderna del “con la calcolatrice non imparerai mai a fare i conti”. Il problema, però, è che lo studio non dimostra ciò che pretende. Anzi, è l’esempio perfetto di un esperimento costruito attorno a un’idea preconcetta: che il pensiero vero sia quello che nasce senza aiuti, che l’intelligenza artificiale sia una stampella per pigri, e che i neuroni lavorano meglio se lasciati a lottare nel vuoto. Un gruppo di ricercatori del Mit sottopone 54 studenti alla scrittura di saggi SAT divisi in tre gruppi. Uno può usare ChatGPT, uno solo Google, uno solo il proprio cervello. Risultato: chi scrive “a mano nuda” mostra un’attivazione cerebrale più estesa, una maggiore capacità di ricordare frasi del proprio testo, un maggior senso di proprietà su quanto scritto.

Chi usa l’AI, al contrario, “offre prestazioni inferiori” sotto tutti i profili. Fine dell’esperimento, titoli pronti: “l’AI ci danneggia”, “più usi ChatGPT, meno pensi”. Ma è davvero così semplice? No. E non solo per motivi metodologici. Il primo problema è confondere l’intensità dell’attività cerebrale con la sua qualità. Il fatto che scrivere senza AI attivi più connessioni non vuol dire che si stia pensando meglio, ma solo che si sta facendo tutto da soli. E’ lo stesso motivo per cui lavare i piatti a mano ti attiva più muscoli del lavastoviglie. Ma nessuno direbbe che farlo a mano è “più intelligente”. Il secondo problema è che il gruppo AI viene trattato come un gruppo passivo. Si parte dal presupposto che usare ChatGPT equivalga a copiare. Ma chi ha davvero usato questi strumenti sa che il valore sta nella conversazione, nella selezione, nel riuso. E infatti molti partecipanti lo dicono: ho chiesto a ChatGPT una struttura, ma poi ci ho messo del mio; ho usato l’AI per i connettivi, ma ho scritto le idee da solo. Questo uso critico dell’AI è ignorato nello studio, come se non esistesse.

L’altra grande accusa dello studio riguarda il “senso di proprietà” dei testi. I partecipanti che hanno usato ChatGPT ricordano meno dettagli dei loro saggi e si sentono meno “autori” di quanto hanno scritto. Ma anche qui la deduzione è scorretta: se scrivo un testo con l’aiuto di un sistema che propone frasi e alternative, è normale ricordare meno le parole esatte. Ma questo vuol dire che il testo è meno mio? O vuol dire solo che l’esperienza dell’autorialità sta cambiando?




Il cuore dello studio, però, non è tecnico. E’ culturale. E’ l’idea – antica, comoda – secondo cui la mente umana si affina solo se lasciata da sola. Che la vera intelligenza è quella che fatica. Che ogni scorciatoia è un impoverimento. E che l’AI, come prima il motore, la radio, la tv, internet, è un inganno per menti deboli. Ecco perché questo studio non convince. Non perché sia privo di dati ma perché tutti i suoi dati servono a dimostrare qualcosa che era già deciso prima. Ma c’è un’altra ipotesi, forse meno rassicurante ma più vera: che l’intelligenza artificiale non ci renda meno intelligenti, ma ci costringa a ridefinire cosa significa essere intelligenti. Non tutte le AI sono usate bene. Ma non è colpa dell’AI. E’ responsabilità di chi la usa. E anche di chi la studia.

Leave a comment

Your email address will not be published.