
Nel numero scorso di Cose Nostre ho letto un interessante articolo firmato da Nazarena “Naz” Braidotti, che ha spiegato in maniera semplice e facilmente comprensibile “Come diavolo funziona ‘sta IA?”. L’articolo nella sua semplicità mi ha portato a riflettere sul punto in cui ci troviamo, oggi, nei confronti di questa sorta di “scatola magica”. Una delle metafore più efficaci per descrivere l’Intelligenza Artificiale è proprio quella di una “scatola” piena di “manopole”. Una scatola che, ricevendo parole in ingresso, ne produce altre in uscita, con una complessità tale che, a un certo punto, ha iniziato a “sembrare capace di pensare”. Voler smontare questo “giocattolo” è un istinto fondamentale per non subirlo.
C’è un però. Come succede quasi sempre con le cose digitali, che sono liquide per definizione e riempiono ogni vuoto che trovano , l’ordine di ieri è già il disordine di oggi. Il punto non è solo capire cosa c’è dentro la scatola, ma accorgersi che, nel tempo impiegato a guardarci dentro, la scatola stessa è cambiata. Anzi, si è trasformata. È diventata più piccola, quasi tascabile, si è moltiplicata finendo nelle nostre auto e nei nostri elettrodomestici e, soprattutto, ha sviluppato occhi e orecchie. La conversazione sull’IA, quindi, non può fermarsi: è necessario riaprire quella scatola, ma con una nuova consapevolezza.
Le “migliaia di miliardi di manopole” (i parametri) che determinano il comportamento di un modello di IA sono un concetto ormai noto. Per anni, l’equazione è stata semplice: più manopole, più potenza, più intelligenza. Questo ha creato l’immagine di un’IA che vive solo in remoti e assetati supercomputer, una sorta di oracolo a cui possiamo accedere solo tramite una connessione internet. La prima grande novità è che questa equazione non è più l’unica valida. La tendenza più significativa degli ultimi tempi è la “miniaturizzazione” dei modelli: stiamo assistendo alla nascita di Large Language Models (LLM) molto più leggeri, con “solo” qualche decina di miliardi di parametri, abbastanza snelli da poter funzionare localmente, direttamente sui nostri dispositivi. Non più nel cloud, ma “on-device”. Questo non è un semplice dettaglio tecnico, ma un cambio di paradigma.
Il primo esempio arriva dalla Cina, dove le automobili stanno diventando veri e propri compagni di viaggio intelligenti. Aziende come Nio, con il suo assistente Nomi, integrano LLM direttamente nell’abitacolo. Non si tratta di un semplice assistente vocale, ma di un co-pilota che impara le abitudini del guidatore, comprende il contesto di una conversazione e può persino mostrare tratti di una personalità, creando una vera “connessione emotiva” con gli occupanti. Questo livello di interazione è possibile solo perché l’intelligenza vived entro l’auto. Un secondo esempio, guidato da una filosofia diversa, è quello di Apple. Con la sua “Apple Intelligence”, l’azienda di Cupertino ha messo l’elaborazione “on-device” al centro della sua proposta di valore. La maggior parte delle richieste viene processata direttamente su iPhone, iPad o Mac, garantendo che i dati personali dell’utente non lascino mai il dispositivo. Per i compiti più complessi, Apple ha creato il “Private Cloud Compute”, un sistema in cui solo i dati strettamente necessari vengono inviati a server sicuri, senza mai essere memorizzati. Questa scelta rivela come la privacy stia diventando un vantaggio competitivo fondamentale. Infine, c’è Google, che con “Gemini for Home” sta trasformando gli assistenti domestici da semplici esecutori di comandi a gestori intelligenti della casa, capaci di interpretare richieste complesse e contestuali. Questi esempi descrivono la nascita di un nuovo paradigma: l’era dell’IA personale, dove il valore non risiede più solo nella potenza del “cervello” centrale nel cloud, ma nella sua capacità di operare in modo sicuro e intelligente all’interno della nostra vita.
Questo spostamento verso un’intelligenza più personale e diffusa si scontra con una sfida cruciale: la fame di dati per l’addestramento. Per anni, i modelli sono stati nutriti con un’enorme quantità di testi presi da internet. Oggi, però, l’industria sta raggiungendo il “picco dei dati”: figure come Elon Musk e Ilya Sutskever, ex chief scientist di OpenAI, hanno dichiarato che abbiamo quasi finito i libri, le enciclopedie e i blog di qualità da dare in pasto alle IA. Le previsioni indicano che entro il 2026 i dati testuali di alta qualità saranno esauriti. Di fronte a un banchetto quasi terminato, la fame dell’IA ha semplicemente cambiato menù. La nuova frontiera non è più fatta di parole scritte, ma di immagini, suoni e video. Piattaforme come YouTube e Spotify sono diventate le nuove Biblioteche di Alessandria, archivi di conoscenza di una vastità quasi inconcepibile. Ogni minuto che passa, su YouTube vengono caricate circa 360 ore di nuovi video. Non si tratta solo di avere più dati, ma di avere dati diversi. Un’IA che “guarda” le lezioni di storia o i video divulgativi non impara solo nozioni, ma anche il tono di voce, la gestualità, il contesto. Questo passaggio dall’addestramento su testo a quello su video è il passo evolutivo che sta permettendo all’IA di trasformarsi da un “modello di linguaggio” a un “modello di realtà”, ancorando la sua intelligenza a una rappresentazione del mondo fisico.
E questo ancoraggio al mondo fisico sta già producendo risultati che fino a poco tempo fa appartenevano alla fantascienza. Come spiega il divulgatore Marco Camisani Calzolari, non sono più solo le intelligenze “conversazionali” a imparare dai video. Anche i robot stanno guardando YouTube, ma per imparare a muoversi. Nascono così i “Large Behavior Models” (LBM), modelli che, in modo analogo ai loro cugini linguistici, non imparano a scrivere, ma a compiere azioni fisiche. Osservando miliardi di esempi di movimenti umani, costruiscono una sorta di “grammatica del corpo” che permette loro di replicare compiti complessi senza bisogno che un programmatore scriva ogni singola istruzione. La cosa più sorprendente è che, una volta imparato un compito, il robot lo esegue spesso meglio dell’umano da cui ha appreso, con maggiore velocità, stabilità e precisione.
Questa enorme produzione di contenuti da parte delle intelligenze artificiali ha creato un problema inaspettato. Immagina di fare una fotocopia di una fotocopia: ogni volta, l’immagine perde un po’ di qualità. Allo stesso modo, se le nuove intelligenze artificiali imparassero solo da contenuti creati da altre IA, finirebbero per ripetere gli stessi errori e le stesse imperfezioni, allontanandosi sempre di più dalla conoscenza e dalla creatività umane. Per evitare che l’IA impari da un'”eco” di se stessa, si sta creando una sorta di “carta d’identità” invisibile per ogni contenuto digitale. Non è un logo che possiamo vedere, ma un marchio nascosto che solo le macchine possono leggere. Questo marchio funziona come un “passaporto digitale” che racconta la storia di un’immagine o di un testo: chi lo ha creato (una persona o un’IA), quando e se è stato modificato. Questa tecnologia è fondamentale non solo per aiutarci a riconoscere i contenuti artificiali, ma soprattutto per la sopravvivenza delle IA stesse. Permette loro di distinguere le creazioni umane originali dalle copie sintetiche, garantendo che possano continuare a imparare dal mondo reale.
Tutto questo ci porta a una conclusione inevitabile: l’immagine di un’IA con cui si interagisce solo attraverso una chat di testo descrive già il passato. Il presente è multimodale. Questo non significa semplicemente che l’IA può processare diversi tipi di file, ma che può ragionare attraverso queste diverse modalità contemporaneamente e in tempo reale. Prendiamo GPT-4o di OpenAI, dove la “o” sta per “omni”. È un’unica rete neurale addestrata nativamente a processare audio, immagini e testo, capace di rispondere a un input vocale con una latenza paragonabile a quella di una reazione umana. Il risultato è un dialogo fluido, in cui l’IA può cogliere il tono della nostra voce e persino interromperci o essere interrotta. L’esempio più potente, però, viene da Gemini di Google e dalla sua capacità di analizzare il mondo reale attraverso la fotocamera di uno smartphone. Immaginiamo di essere al supermercato, puntare il telefono verso uno scaffale di verdure e chiedere a voce: “Cosa posso preparare di veloce e sano con queste cose?”. In pochi istanti, l’IA vede le verdure, riconosce gli ingredienti, accede a un database di ricette, filtra i risultati in base alle richieste e risponde con una proposta. Questo segna un punto di svolta: l’IA sta passando dall’essere uno strumento di recupero della conoscenza a un partner per l’azione nel mondo reale. Non risponde più solo alla domanda “cos’è un carciofo?”, ma a “cosa faccio con questo carciofo che ho in mano adesso?”.
Arriviamo così alla domanda più difficile: ma questa IA è veramente “intelligente”? Per rispondere, è ancora una volta illuminante la prospettiva di Marco Camisani Calzolari, che definisce gli attuali sistemi come “in lettura” (read-only). Usare un’IA oggi è come avere accesso a un libro interattivo e infinito. Possiamo interrogarlo, ma non possiamo cambiare il modo in cui è stato scritto, non possiamo alterare la sua “visione del mondo” fondamentale. A questo concetto si contrappone l’orizzonte futuro di un’IA “scrivibile” (writable): un sistema che non sia un prodotto monolitico, ma una sorta di “tabula rasa” che un individuo può plasmare profondamente, trasferendovi non solo conoscenze, ma anche il proprio stile cognitivo, i propri valori, la propria etica. Questa visione ridefinisce il dibattito sull’Intelligenza Artificiale Forte, il famoso punto di singolarità. La singolarità potrebbe non essere l’avvento di un’unica super-coscienza distaccata, ma la nascita di milioni di intelligenze ibride, profondamente personali e simbiotiche con il proprio “utente”. Da un lato, c’è lo scenario distopico della perdita di controllo; dall’altro, quello evolutivo della creazione del vero assistente personale definitivo, un’estensione della nostra mente che realizza una visione di “cyberumanesimo” in cui la tecnologia rimane uno strumento al servizio dell’uomo. La vera rivoluzione, quindi, potrebbe non essere un aumento puramente quantitativo di potenza, ma un salto qualitativo verso una personalizzazione profonda. La domanda più importante non è più “quanto diventerà intelligente?”, ma “quanto diventerà nostra?”. La “scatola”, quindi, non è più un singolo oggetto misterioso da smontare. È diventata un ecosistema complesso e diffuso di intelligenze diverse: alcune gigantesche, che vivono nelle nuvole e imparano guardando il mondo; altre piccole e personali, che abitano nelle nostre tasche e nelle nostre case, imparando a conoscere noi.
La conversazione è appena ricominciata. E forse la domanda più interessante, oggi, non è più “come funziona?”, ma “come funzioneremo noi, insieme a lei?”.
IA, oltre la scatola magica
- Advertisment -
METEO
Comune di Caselle Torinese
nubi sparse
1.4
°
C
3
°
-0.2
°
86 %
1kmh
55 %
Ven
4
°
Sab
3
°
Dom
3
°
Lun
5
°
Mar
3
°
ULTIMI ARTICOLI
L’energia condivisa passa anche dai campanili
Dall’ispirazione dell’enciclica Laudato Si di Papa Francesco a un progetto concreto capace di incidere sul territorio: la Diocesi di Torino ha dato vita a...







