6 C
Comune di Caselle Torinese
domenica, Febbraio 8, 2026

    “Ho chiesto a ChatGPT di prenotare le vacanze”, (e altre idee pessime)

    Ne hanno parlato diversi giornali nelle settimane scorse. La scena è quasi perfetta, un piccolo capolavoro di comicità involontaria per l’era digitale. Un’influencer spagnola, Mery Caldass, è bloccata in aeroporto, in lacrime, davanti alla telecamera del suo smartphone. Il suo viaggio da sogno a Porto Rico è appena naufragato contro lo scoglio della burocrazia. Il colpevole? Non una coincidenza persa o un documento dimenticato, ma il suo assistente virtuale, il suo oracolo tascabile: ChatGPT. Secondo quanto raccontato dalla ragazza, l’intelligenza artificiale le avrebbe fatto credere che per entrare a Porto Rico fosse necessario un visto, inducendola così a non presentarsi al check-in con i documenti corretti. «Io di solito mi informo molto – spiega tra i singhiozzi davanti alla telecamera – ma stavolta mi sono fidata della risposta dell’intelligenza artificiale, ed era sbagliata».
    La storia, di per sé, è un aneddoto. Ma se ci fermiamo un attimo, smettendo di ridere, ci accorgiamo che è la parabola perfetta del nostro tempo. La domanda non è tanto cosa sia successo, ma perché. Perché una persona affida un dettaglio così cruciale e facilmente verificabile a un chatbot noto per il rischio di allucinazioni e imprecisioni? E, domanda ancora più interessante, perché, una volta subita l’umiliazione, la sua prima reazione è quella di filmare tutto e condividerlo con il mondo? L’incidente non è solo una notizia di colore. È il canarino nella miniera di carbone digitale, un evento che segnala un cambiamento più vasto e preoccupante nel nostro modo di pensare e di fidarci.
    La risposta sta in un mix di pigrizia mentale e fiducia mal riposta. Siamo affetti da quello che gli psicologi chiamano automation bias: la tendenza a fidarci ciecamente dei sistemi automatizzati, sopravvalutando la loro correttezza fino al punto di ignorare il nostro stesso buon senso. L’interfaccia conversazionale e la prosa sicura di ChatGPT creano un’aura di autorevolezza che ci spinge ad abbassare le difese critiche. A questo si aggiunge lo “scarico cognitivo”, l’atto di usare strumenti esterni per ridurre il nostro carico di lavoro mentale. Se da un lato ci rende più efficienti nell’immediato, dall’altro può essere deleterio per lo sviluppo di abilità interne. Stiamo diventando una società di “scaricatori cognitivi” cronici, delegando non solo compiti banali, ma anche processi complessi come il ragionamento e la verifica. Si innesca un circolo vizioso: la dipendenza genera incompetenza, e l’incompetenza approfondisce la dipendenza.
    Se la prima parte della storia ci parla di un rapporto acritico con la tecnologia, la seconda — la decisione di pubblicare il video in lacrime — ci svela le logiche spietate dell’economia dell’attenzione. In un mondo digitale dove l’attenzione è la risorsa più preziosa, un disastro di viaggio genera più engagement di una vacanza perfetta. L’imbarazzo diventa una metrica di performance. La vulnerabilità si trasforma in una strategia di marketing: per il “content” si accetta anche di rendersi ridicoli davanti a un pubblico globale e giudicante. Il fallimento non è più un incidente da nascondere, ma un prodotto da vendere, un contenuto da cui trarre profitto.
    Questa abitudine a prendere scorciatoie intellettuali assume contorni ancora più allarmanti quando si sposta nel mondo dell’istruzione. Qui, l’uso acritico dell’intelligenza artificiale non rischia di far perdere un volo, ma di compromettere la formazione di un’intera generazione. Il rischio principale è l’aggiramento sistematico del processo di apprendimento. Quando uno studente usa un’IA per generare un tema, sta di fatto delegando alla macchina tutte le operazioni cognitive fondamentali: la ricerca, la sintesi, l’analisi critica, la strutturazione di un’argomentazione. Diventa un “amanuense digitale”, un copista passivo di un testo generato da un algoritmo. Questo porta a una potenziale atrofia delle capacità intellettuali chiave, come il ragionamento logico e la risoluzione di problemi. L’obiettivo non è più capire come si arriva a una risposta, ma come ottenere la “risposta giusta” dalla macchina, trasformando l’apprendimento in una superficiale ingegneria dei prompt.
    Tutto questo si inserisce in un contesto sociale più ampio, caratterizzato da un’adozione tecnologica senza precedenti. L’ascesa dell’intelligenza artificiale generativa non è stata una progressione graduale, ma un’esplosione, una vera e propria “euforia di massa”. ChatGPT ha raggiunto 100 milioni di utenti in due mesi, un ritmo di adozione più veloce di qualsiasi altra tecnologia nella storia. Questa velocità vertiginosa significa che la società sta adottando la tecnologia prima di aver avuto il tempo di sviluppare l’alfabetizzazione critica necessaria per gestirla. Ci affidiamo a questi nuovi oracoli senza comprenderne appieno i difetti intrinseci. I modelli linguistici non sono database di fatti, ma motori probabilistici inclini a due tipi di errori: le “allucinazioni”, ovvero l’invenzione di informazioni presentate come vere, e i bias, che riflettono e amplificano i pregiudizi della nostra società. Lo strumento che sembra rendere tutti più intelligenti potrebbe, in pratica, rendere la società più vulnerabile a falsità sofisticate.
    Sia chiaro: questo non è un manifesto luddista. L’intelligenza artificiale è uno strumento potentissimo. Il problema non è lo strumento in sé, ma il nostro rapporto di delega acritica nei suoi confronti. In un’epoca di risposte istantanee, l’abilità umana più preziosa non è più trovare informazioni, ma esercitare il giudizio critico. Significa imparare a formulare domande, a valutare la logica di una risposta e, soprattutto, a coltivare un sano senso del dubbio. L’appello è sia personale che collettivo. Dobbiamo educare noi stessi e le nuove generazioni non solo a usare l’IA, ma a capire come funziona e, soprattutto, dove fallisce. La storia dell’influencer in lacrime non è una storiella su ChatGPT. È una storia su di noi. È un promemoria che ci ricorda che il posto di pilotaggio del nostro intelletto non è qualcosa che possiamo permetterci di automatizzare. Il pensiero critico è un muscolo: o lo si allena, o si atrofizza. E nessuno vuole rimanere a terra.

    LASCIA UN COMMENTO

    Per favore inserisci il tuo commento!
    Per favore inserisci il tuo nome qui
    Captcha verification failed!
    Punteggio utente captcha non riuscito. Ci contatti per favore!

    Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

    - Advertisment -

    Iscriviti alla Newsletter

    Ricevi ogni giorno, sulla tua casella di posta, le ultime notizie pubblicate

    METEO

    Comune di Caselle Torinese
    poche nuvole
    6.3 ° C
    7.2 °
    4.3 °
    79 %
    2.6kmh
    20 %
    Dom
    10 °
    Lun
    11 °
    Mar
    8 °
    Mer
    11 °
    Gio
    7 °

    ULTIMI ARTICOLI

    Conoscere la lingua piemontese

    0
    Cari Amici lettori, dedicheremo quest’anno ad approfondire la conoscenza della lingua piemontese. Parleremo di proverbi e modi di dire; parole da non dimenticare; italianismi da...