È notizia di pochi giorni fa: la manovra economica in discussione potrebbe essere la prima legge di bilancio italiana scritta anche grazie all’Intelligenza Artificiale. Non è fantascienza, ma cronaca parlamentare. Da mesi, infatti, molti deputati e senatori hanno preso confidenza con i chatbot generativi, usandoli per interrogazioni, emendamenti e ora persino per affrontare la complessità monumentale della legge di bilancio. Da un lato, è il segno più evidente dei tempi che viviamo. È difficile negare che la legge, con la sua infinita mole di dati, vincoli, tabelle e incastri burocratici, sia un terreno dove l’IA può portare enormi vantaggi: analisi più rapide, testi più coerenti, meno errori formali, un aiuto concreto nella gestione di una complessità che richiede tempo, energie e spesso interi team di lavoro. In un certo senso sarebbe assurdo non sfruttare questa opportunità.
Eppure, accanto all’entusiasmo, la notizia porta con sé una vena di grottesco e persino di inquietudine. Il primo nodo critico riguarda gli aspetti legali. Da anni ormai si discute di AI Act, tutela dei dati, privacy e localizzazione dei server in Europa. Poi scopriamo che molti parlamentari utilizzano tranquillamente strumenti non conformi a queste stesse norme: ChatGPT, Gemini, Claude e altri servizi internazionali, preferiti perché funzionano meglio, sono più veloci e più semplici rispetto ai sistemi “nostrani” pensati proprio per essere conformi alla legge. È un paradosso che non può passare inosservato: chi dovrebbe garantire il rispetto delle regole è anche chi, per comodità, le aggira usando strumenti non del tutto in linea con quelle stesse regole.
L’altro elemento critico è di natura comunicativa, persino culturale. È possibile che i nostri legislatori non si rendano conto della gravità di una dichiarazione del genere? Ammettere pubblicamente di usare strumenti non compliant per redigere atti fondamentali dello Stato non è solo ingenuo: è un segnale preoccupante di scarsa consapevolezza del loro stesso ruolo. L’impressione, per certi versi, è la stessa che si prova osservando gli adolescenti a scuola quando scoprono una scorciatoia tecnologica: la usano, la trovano comoda e, se scoperti, lo ammettono con disarmante sincerità. Solo che qui non parliamo di un compito in classe, ma di un atto che influisce sulle vite di milioni di persone.
Dalle cronache emerge che alcuni parlamentari utilizzano strumenti di IA per scremare e analizzare centinaia di emendamenti, mentre altri hanno preferito rimanere fedeli a carta e stilografica. Nel frattempo, la Camera ha fatto sviluppare tre sistemi interni – Depuchat, Norma e Mse – che avrebbero lo scopo di supportare il lavoro legislativo garantendo al tempo stesso la tutela dei dati. Peccato che, a quanto dicono gli stessi deputati, questi strumenti siano ancora lenti, imprecisi e poco affidabili. Per questo la maggior parte sembra preferire le soluzioni già sul mercato, nonostante i rischi legati alla riservatezza dei documenti caricati e ai limiti noti delle IA generative: possibili errori, allucinazioni, fraintendimenti, bias politici e stilistici.
La verità è che il problema non è l’IA in sé, ma il modo in cui viene usata. Nessuno può mettere in discussione l’utilità di questi strumenti per affrontare una complessità normativa sempre più ingestibile. Ma il legislatore non può comportarsi come uno studente che copia il compito da un chatbot, né può farlo usando strumenti che lui stesso definisce non allineati ai criteri di sicurezza e conformità. Se davvero l’IA diventerà parte integrante del processo legislativo, lo Stato ha il dovere di stabilire regole chiare e trasparenti, di scegliere strumenti adeguati e conformi, e di assumersi la piena responsabilità di ciò che questi strumenti producono.
Alla fine, la vera domanda non riguarda la tecnologia, ma il modello di Paese che vogliamo costruire. Preferiamo uno Stato che usa l’IA in modo trasparente, regolamentato e tracciabile, oppure uno Stato che sceglie scorciatoie perché “fanno risparmiare tempo”? E soprattutto: se la legge è scritta in parte da un algoritmo, chi controlla l’algoritmo che scrive la legge? È una domanda che, per ora, resta senza risposta. E proprio per questo merita di essere posta, discussa e compresa.
Ecco la prima Finanziaria scritta con l’IA
- Advertisment -
METEO
Comune di Caselle Torinese
nubi sparse
1.4
°
C
3
°
-0.2
°
86 %
1kmh
55 %
Ven
4
°
Sab
3
°
Dom
3
°
Lun
5
°
Mar
3
°
ULTIMI ARTICOLI
L’energia condivisa passa anche dai campanili
Dall’ispirazione dell’enciclica Laudato Si di Papa Francesco a un progetto concreto capace di incidere sul territorio: la Diocesi di Torino ha dato vita a...







