Si può usare l’AI per fare ricerca? Iniziamo con una banalità. Quando si pianta un chiodo il martello può colpire il chiodo stesso o la mano di chi lo usa. La banalità applicata all’AI può spiegare i pericoli che si corrono nell’usarla – prima ancora di non saperlo fare – non sapendo bene che cosa sia.
Ora una cosa non banale: che significa epistemologia?
L’epistemologia è il ramo della filosofia che studia la conoscenza: che cosa significa conoscere, quali sono le fonti della conoscenza, quando una credenza è giustificata e in che condizioni possiamo considerare qualcosa vero o affidabile.
L’uso dell’AI ha limiti ben precisi su che tipo di conoscenza produce e che cosa non può (mai) sostituire. L’intelligenza artificiale non ha esperienza né intenzionalità, non sperimenta il mondo reale, ma produce solo correlazioni statistiche su testi già esistenti. Non ha intenzioni di ricerca, perché non formula domande proprie, un programma teorico, né ha un’agenda critica.
Per questo, non può “validare” un’interpretazione di quello che dice. Può solo generare possibilità più o meno plausibili. Il passaggio da “plausibile” a “vero rilevante” è sempre responsabilità del ricercatore.
Insomma, l’AI produce conoscenza senza dare garanzia di verità.
I modelli linguistici di grandi dimensioni (Large Language Models, LLM) non “sanno” se qualcosa è vero, ma solo se è probabile dato il corpus degli archivi. Il pericolo più grosso è che faccia una specie di “confabulazione statistica”, mettendo in relazione dati probabilistici, ma non certi. Il modello non sa che sta “mentendo”, sta solo producendo la sequenza di parole statisticamente più probabile, e tocca al ricercatore verificare tutto su testi e studi reali. Tocca all’essere umano riconoscere le allucinazioni dell’AI.
L’AI è quindi adatta per fare brainstorming, mappe di concetti, prime ipotesi. È inadatta come fonte primaria di fatti o citazioni senza verifica esterna (fonti, testi, archivi).
Un ricercatore, di solito, conosce l’ambito teorico della propria disciplina e sa quindi dare limiti di validità alle proprie affermazioni.
L’AI non ha una visione teorica di una disciplina, né comprende scuole di pensiero diverse, tradizioni, o conflitti ermeneutici, cioè su come si interpretano i dati raccolti.
Quindi l’AI è pessima nel prendere posizioni minoritarie ma argomentate, non può sostituire la scelta consapevole di un quadro teorico rispetto a un altro.
L’AI dipende dai dati e ha inevitabilmente pregiudizi, perché ciò che non c’è (o è poco presente) nel corpus degli archivi disponibili viene sistematicamente sottorappresentato o distorto. Aree geografiche, lingue, tradizioni marginali avranno meno peso di quelle più forti, più note all’archivio.
I modelli “consolidano” il canone esistente, gli stereotipi linguistici, i pregiudizi diffusi. Questo pone un limite epistemologico (cognitivo), perché l’AI tende a rafforzare ciò che è già dominante, non a scoprire ciò che manca.
Al ricercatore resta il presidio del giudizio critico. Ovvero gli resta la scelta e la definizione del problema di ricerca, la valutazione della qualità delle fonti, la costruzione dell’argomentazione (che cosa conta come prova, che cosa è irrilevante), l’assunzione di responsabilità etica sulle conclusioni.
L’AI può proporre strutture, riassumere, suggerire collegamenti; ma il “che cosa vale come conoscenza valida” resta un atto umano.
L’enorme rischio che si sta correndo (in mancanza di una pedagogia seria sull’uso dell’AI) è quello di confondere assistenza con autorità. In pratica c’è il rischio vero di scivolare dall’uso dell’AI come strumento per chiarire, generare e riformulare idee, all’uso come arbitro di verità.
Se lo dice l’AI, sarà vero.
Dal punto di vista epistemologico, l’AI va trattata come una bibliografia “rumorosa”, non come un testo canonico. Ogni affermazione va ricondotta a fonti verificabili (testi, dati, prove materiali) prima di entrare in un discorso scientifico.
Se solo il concetto di epistemologia fosse più largamente compreso, sarebbe già un passo avanti.
Gian Luigi Corinto, docente di Geografia e marketing agroalimentare Università di Macerata, collaboratore Aduc
