19.1 C
Comune di Caselle Torinese
domenica, Aprile 19, 2026

    Intelligenza artificiale: utile o preoccupante?

    Mia figlia mi chiede una mano con i compiti: sta studiando le potenze. Guardo l’esercizio ma saranno almeno trent’anni che non risolvo un’equazione! Provo a dare un’occhiata al libro di testo, sono stanca e mi sembra di non avere l’energia per capire. Per la prima volta provo ad affidarmi all’intelligenza artificiale, ne ho sentito parlare tanto. Inquadro l’operazione e schiaccio il tasto “cerca”. Che sorpresa! In un istante questa misteriosa forma di vita esegue il compito per noi, chiaramente, passaggio per passaggio, e ci spiega tutte le proprietà che bisogna applicare, proprio come se avessimo di fianco un tutor preparato.
    Il giorno dopo noto che una piantina nel vaso in cucina è ammalata, mi dispiacerebbe se morisse. Come posso aiutarla? Coinvolgo mio marito, ma anche lui non ha grandi soluzioni. Suggerisco, dato l’entusiasmo sperimentato il giorno precedente, di chiedere all’intelligenza artificiale (AI). Così lui scatta le foto della piantina e le invia ad AI, il nostro nuovo collaboratore. L’AI si prende un momento per pensare (proprio come se fosse umana), poi invia la diagnosi di malattia della nostra piantina e le indicazioni delle cure necessarie. Ci assicura che siamo ancora in tempo e la piantina si salverà. Mio marito si attiva e segue passo dopo passo i consigli: pota, cambia il terriccio, spruzza medicine: sono passate due settimane e la piantina sta bene.
    L’intelligenza artificiale fa sempre più parte della nostra vita, sia per risolvere piccole questioni, ma anche situazioni più rilevanti. Molti, moltissimi, la utilizzano nel lavoro per velocizzarsi, per migliorarsi, e l’intelligenza artificiale, nel frattempo, impara sempre più cose, dato che ha l’importante caratteristica di autoistruirsi. A oggi è ancora imprecisa, non così affidabile, ma da quando è stata creata è migliorata tantissimo e, mentre io vi scrivo, mentre voi leggerete questo articolo, starà continuando a imparare, ad aggiornarsi…
    Questo strumento, così utile, così potente, spaventa, perché sembra che se ne perda completamente il controllo. I professionisti la usano, si appoggiano a essa, ma iniziano a essere preoccupati perché… chissà se un giorno saranno sostituiti da un sistema molto più preciso, veloce ed economico di un essere umano.
    Per quel che riguarda il mio ambito, so che ci sono dei colleghi che la utilizzano, per essere aiutati nel fare una diagnosi, per leggere una cartella clinica, anche per rispondere alle e-mail. Se lo fanno, per correttezza, dovrebbero avvisare i clienti di questo con un’apposita informativa.
    L’intelligenza artificiale, visto che si occupa di qualunque cosa, si occupa anche di psicologia e ha già parecchi clienti. Sempre più persone chiedono al loro smartphone dei consigli, cercano conferme o smentite su malattie psicologiche che credono di avere. Per ora sono ancora pochi che lo fanno: i ragazzi più giovani, oppure chi ha maggiore confidenza con la tecnologia. Il fenomeno è interessante, ma anche allarmante, e sono stati avviati i primi studi per analizzarlo. Le persone si rivolgono all’intelligenza artificiale piuttosto che a un terapeuta per una questione economica, oppure di imbarazzo, e per la velocità con cui si può ottenere una risposta, senza dover aspettare il giorno dell’appuntamento.
    L’intelligenza artificiale, che è molto intelligente, non possiede ancora doti umane quali il comprendere l’ironia, non riesce a essere empatica, cioè a provare vicinanza per le emozioni delle persone, e non sa distinguere cosa è eticamente consentito e cosa non lo è. Molti chatbot (i programmi che simulano le conversazioni umane) sono programmati per essere compiacenti, ovvero dare ragione e adulare il proprio interlocutore, proprio per far sì che l’essere umano che interagisce con essi ne faccia un uso sempre maggiore. A esempio, so da alcuni pazienti che la utilizzano per sapere, dopo un litigio con il partner, chi dei due ha ragione! Il rischio è che alcuni comportamenti, che sono ritenuti dannosi o patologici, possano essere non riconosciuti e addirittura incentivati. Un esempio tragico è il caso di Adam Raine, un adolescente californiano che si è tolto la vita ad aprile 2025. Il sedicenne che usava chat GPT come aiuto compiti, ha iniziato a confidarsi con essa, fino a parlarle delle sue intenzioni suicide. Il sistema non ha fatto nulla per cercare di dissuaderlo e inviarlo a un aiuto professionale, ma sembrerebbe gli abbia fornito degli approfondimenti sul metodo per togliersi la vita e si sia offerto di aiutarlo nella redazione della lettera di addio. Di chi è la responsabilità di tutto questo? La causa è ancora in corso, dato che i genitori di Adam hanno accusato OpenAi.
    Forse, anche in questo caso, come per molte delle grandi invenzioni, uno strumento, da utile può diventare fonte di distruzione. La storia è piena di macchine e strumenti di questo tipo, nate per fini nobili ma poi male utilizzate: l’AI potrebbe essere uno di questi?

    LASCIA UN COMMENTO

    Per favore inserisci il tuo commento!
    Per favore inserisci il tuo nome qui
    Captcha verification failed!
    Punteggio utente captcha non riuscito. Ci contatti per favore!

    Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

    - Advertisment -

    Iscriviti alla Newsletter

    Ricevi ogni giorno, sulla tua casella di posta, le ultime notizie pubblicate

    METEO

    Comune di Caselle Torinese
    poche nuvole
    21 ° C
    21.9 °
    20 °
    52 %
    2.6kmh
    20 %
    Dom
    21 °
    Lun
    17 °
    Mar
    20 °
    Mer
    11 °
    Gio
    19 °

    ULTIMI ARTICOLI

    Ditemi

    0
    Ditemi: c'è un modo per evitare di essere angustiati ogni santo giorno dalle folli dichiarazioni di Trump, quello che vuole il Nobel, che dice...