Quando la macchina sbaglia con sicurezza

Un collega mi racconta che, per curiosità, ha chiesto a un’intelligenza artificiale chi avesse vinto il Nobel per la Chimica nel 1968. Risposta: “Linus Pauling”. Peccato che Pauling abbia vinto due Nobel, sì, ma mai per la Chimica in quell’anno — e che nel 1968 il premio non sia stato nemmeno assegnato. Nessuna esitazione, nessun “potrei sbagliarmi”: solo la compostezza elegante di un errore ben confezionato.

Questa è la natura dei Large Language Model (LLM) come ChatGPT o Gemini: non sono depositi di verità, ma ricombinatori statistici di testo. Analizzano miliardi di frasi e ne restituiscono di nuove che suonano plausibili. E qui sta la trappola: plausibile non è sinonimo di vero. Galileo ricordava che “la verità non teme il tempo, ma l’errore sì”: ma in questo caso l’errore è strutturale, non passeggero.

Nonostante questo, cresce l’idea di affidare a queste macchine ruoli ad alto impatto: terapeuti digitali, mentori, persino protesi cognitive. La retorica tecnoentusiasta gioca con titoli e metafore (“AI e buddhismo”, “AI e freni a mano sulla ghiaia”), come se la bellezza di un’immagine potesse sostituire la comprensione tecnica. È un meccanismo antico: nell’Ottocento, gli automi meccanici venivano descritti come “pensanti” per impressionare il pubblico, non per dire la verità.

Oggi viviamo in quella che potremmo chiamare Epistemia: un ecosistema in cui la plausibilità si traveste da conoscenza. Gli LLM “allucinano” risposte, e l’utente medio — senza strumenti critici — le assume come fatti. È un po’ quello che accadde con le prime enciclopedie popolari: democratizzavano le informazioni, ma insieme alle nozioni corrette diffondevano errori e leggende. La differenza è che oggi la scala e la velocità sono senza precedenti.

Il cuore della questione è economico: il modello di business degli LLM si basa sull’agentificazione, cioè delegare loro compiti complessi. Ma senza affidabilità, la delega fallisce. E senza delega, il castello economico crolla. È il paradosso di voler monetizzare uno strumento che, per design, non garantisce verità.

La distorsione culturale è evidente quando si leggono frasi come: “L’AI, se sbaglia, ci obbliga a pensare. Ed è una cosa ottima.” È un rovesciamento retorico che scambia la virtù di analizzare un errore con la giustificazione di una fallacia sistemica. È come dire che un orologio rotto è prezioso perché, due volte al giorno, segna l’ora giusta.

Non dobbiamo demonizzare queste tecnologie. Sono strumenti straordinari, se usati con consapevolezza. Ma serve un’alfabetizzazione scientifica diffusa, il recupero di quel dubbio metodico che Voltaire descriveva così: “Dubitare è scomodo, ma la certezza è ridicola.”

Perché quando una macchina sbaglia con sicurezza, l’illusione è doppia: non ci inganna solo su ciò che crediamo di sapere, ma soprattutto su quanto siamo disposti a rinunciare al nostro giudizio. E il rischio è che, un giorno, non saremo più noi a chiedere alla macchina “Come lo sai?”, ma lei a chiedere a noi: “Perché ti fidi?”.

(Giulia Remedi)

Prompt:

intro: racconto Un aneddoto con un collega sulla plausibilità degli LLM. Nel dibattito contemporaneo sull’intelligenza artificiale, i Large Language Model (LLM) come ChatGPT o Gemini sono al centro di una narrazione confusa e frammentata. Tra slogan pubblicitari, filosofie pop e metafore fuorvianti, il discorso pubblico si è trasformato in un campo minato di distorsioni e bias cognitivi.

parte 1: Gli LLM non sono motori di verità, ma ricombinatori statistici di testo. Generano contenuti plausibili, non necessariamente corretti. Questo non è un difetto temporaneo, ma una caratteristica intrinseca delle loro architetture attuali. L’errore è fisiologico, non eliminabile, e ignorarlo significa fraintendere la natura stessa di questi sistemi.

parte 2: Nonostante i limiti evidenti, c’è chi propone gli LLM come terapeuti digitali o protesi mentali, ignorando il fatto che ciò che producono è spesso fallace. La retorica tecnoentusiasta, che li eleva a strumenti di conoscenza, maschera la mancanza di comprensione tecnica con titoli accattivanti e metafore vaghe come “AI e freni a mano sullla ghiaia” o “AI e buddhismo”.

parte 3: In questo contesto nasce l’Epistemia, un ecosistema dove la plausibilità viene scambiata per conoscenza. Le macchine “allucinano” risposte, e gli utenti si sentono informati. Il problema non è solo se gli LLM funzionino bene o male, ma che ridefiniscono la produzione di sapere senza ridefinire i criteri per valutarlo.

parte 4: Gli investimenti nei LLM puntano sull’agentificazione: delegare compiti agli algoritmi per ottenere ritorni economici. Ma se l’affidabilità è insufficiente, la delega fallisce. E senza delega, il modello economico crolla. Il paradosso è evidente: si cerca di monetizzare sistemi che, per design, non garantiscono verità.

parte 5: Il livello di distorsione è tale che si arriva a leggere affermazioni come: “L’AI, se sbaglia, ci obbliga a pensare. Ed è una cosa ottima.” Non è satira, ma sintomo di una cultura che confonde stimolo intellettuale con fallacia sistemica.

Articolo: intro, parte 1, parte 2, parte 3, parte 4, parte 5. Approfondisci dove necessario.

Assumendo personalità e stile di scrittura di Giulia Remedi, scrivi un Articolo. Usa un tono coinvolgente, diretto, e accattivante.


Scopri di più da Le Argentee Teste D'Uovo

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

Un commento

Lascia un commento