L’intelligenza artificiale nei tribunali: tra efficienza burocratica e ombre di spionaggio

L’intelligenza artificiale nei tribunali italiani solleva interrogativi su sicurezza e indipendenza del potere giudiziario.

“La tecnologia è un servo utile, ma un padrone pericoloso.” — Christian Lous Lange

Intelligenza artificiale tribunali italiani e sicurezza

​L’intelligenza artificiale è penetrata nel cuore del sistema giudiziario italiano.
Non attraverso una riforma discussa in Parlamento, ma tramite un aggiornamento software silenzioso. È apparso sui monitor dei magistrati al loro rientro dalle festività. Quello che il Ministero della Giustizia presenta come un innocuo “copilot” per la gestione dei documenti è diventato, in poche ore, il centro di una tempesta politica e giudiziaria.
Una tempesta che coinvolge il ministro Carlo Nordio, il Governo Meloni e le più alte cariche della magistratura. La questione sollevata dalle recenti inchieste giornalistiche, in particolare da Report, non riguarda solo l’ammodernamento tecnico. Tocca, infatti, le corde scoperte della sicurezza nazionale e dell’indipendenza del potere giudiziario.

Attivazione silente dell’intelligenza artificiale nei tribunali italiani

Il primo dato che desta preoccupazione riguarda la modalità di distribuzione di questo strumento. Il software, basato su licenze Microsoft, è stato attivato di default il primo gennaio scorso. In un ambito in cui la segretezza delle indagini è il presupposto di ogni azione dello Stato, emerge un interrogativo centrale.

L’idea che un algoritmo possa scansionare, riassumere e indicizzare fascicoli processuali senza un esplicito ordine del magistrato appare problematica.
Sembra, infatti, una violazione dei protocolli di sicurezza più elementari. Il Ministero ha precisato che la “sperimentazione” non è obbligatoria. Ha inoltre chiarito che il software può essere disattivato su richiesta. Tuttavia, questo approccio ribalta il principio di cautela. Invece di chiedere il permesso per entrare in una stanza blindata, come il PC di un magistrato, lo Stato vi è entrato d’ufficio.

All’inquilino è stato lasciato l’onere di chiudere la porta solo a posteriori.
Questa dinamica solleva dubbi sulla reale consapevolezza tecnica di chi è chiamato a gestire dossier delicatissimi.
Spesso si tratta di fascicoli riguardanti criminalità organizzata o corruzione politica.

Rischio di dossieraggio automatizzato con l’IA nei tribunali italiani

Le rivelazioni di Report hanno gettato benzina sul fuoco.
Hanno ricordato come già nel 2019 esistessero timori legati a software di gestione remota.
Secondo tali timori, gli amministratori di sistema avrebbero potuto visionare documenti riservati. Se a questo si aggiunge la potenza di calcolo dell’intelligenza artificiale generativa, il quadro cambia ulteriormente. Diventa, per molti osservatori, apertamente distopico.

Un sistema capace di effettuare ricerche all’interno dell’archivio di un magistrato non è neutro.
Per sua natura, è anche un sistema in grado di estrarre correlazioni.
Correlazioni che l’occhio umano potrebbe ignorare.

Chi controlla questi dati resta la domanda centrale.
Sebbene via Arenula assicuri la segregazione delle informazioni all’interno dell’infrastruttura ministeriale, il tema resta aperto.
È il tema della sovranità digitale. Affidarsi a colossi tecnologici privati per la gestione dei flussi di pensiero di una Procura comporta una conseguenza precisa.
Significa concedere una chiave di lettura privilegiata sulla vita democratica del Paese a soggetti esterni. In un’epoca dominata dallo spionaggio informatico, il database di un tribunale assume un altro valore. Non è solo un archivio burocratico. Diventa la mappa del potere e dei suoi conflitti.

Autonomia della magistratura e intelligenza artificiale nella giustizia italiana

​Oltre alla sicurezza informatica, esiste un tema squisitamente giuridico: l’autonomia del giudizio. Se un magistrato inizia a dipendere da una sintesi prodotta da un’IA per decidere sulla libertà personale di un cittadino o sulla prosecuzione di un’inchiesta, dove finisce la responsabilità umana? Il rischio è quello di una “pigrizia cognitiva” indotta dalla tecnologia, dove l’algoritmo non si limita a supportare, ma finisce per orientare la decisione attraverso la selezione gerarchica delle informazioni.

​Carlo Nordio ha spesso ribadito la necessità di una giustizia più rapida, ma la velocità non può essere barattata con l’opacità. La magistratura, già scossa da tensioni interne e dal confronto acceso con la politica sulla riforma delle carriere, percepisce questa intrusione tecnologica come un ulteriore attacco alla propria indipendenza. La lettera inviata dal Ministero per rassicurare le toghe sembra aver ottenuto l’effetto opposto, alimentando lo scetticismo di chi vede nel “copilot” un potenziale cavallo di Troia per il controllo dell’attività giudiziaria.

​Sicurezza nazionale e sovranità del dato

​In questo scenario, il Governo Meloni si trova a dover rispondere di una scelta che appare tecnicamente audace ma politicamente rischiosa. Se è vero che l’Italia deve recuperare il gap digitale, è altrettanto vero che la sicurezza informatica delle istituzioni non può essere trattata come una banale installazione di un pacchetto office in una qualsiasi azienda privata. Un dossier gestito da un’intelligenza artificiale è un dossier vulnerabile a intrusioni che potrebbero non lasciare traccia, trasformando i tribunali in territori di caccia per agenzie di spionaggio straniere o gruppi di pressione occulti.

​La protezione del dato giudiziario è una colonna portante della sicurezza dello Stato. Permettere che algoritmi non trasparenti abbiano accesso ai segreti istruttori apre scenari di ricattabilità e manipolazione che nessun “corso di aggiornamento online” può neutralizzare. La preoccupazione espressa da molte toghe non è un rifiuto del progresso, ma una richiesta di trasparenza su chi, effettivamente, detenga le chiavi di accesso al cervello digitale della giustizia italiana.

​Una democrazia sotto osservazione algoritmica

​In conclusione, l’introduzione dell’intelligenza artificiale nei computer della magistratura apre una ferita nel rapporto di fiducia tra istituzioni. Senza un dibattito pubblico trasparente e senza garanzie ferree sulla localizzazione e l’inviolabilità dei server, la modernizzazione rischia di trasformarsi in una sorveglianza di massa del potere giudiziario. Il Paese non ha bisogno di scorciatoie tecnologiche che minano la Costituzione, ma di una tecnologia che sia al servizio dell’uomo e, soprattutto, della verità.

​La domanda che resta sospesa, tra i corridoi dei tribunali e le stanze del Ministero, è inquietante: stiamo costruendo una giustizia più efficiente o stiamo semplicemente fornendo gli strumenti per il dossieraggio del futuro? Finché l’attivazione di questi software rimarrà avvolta nel silenzio e nella mancanza di controllo parlamentare, la risposta tenderà pericolosamente verso la seconda opzione.

di Carlo Di Stanislao

La Redazione de La Dolce Vita
Segui La Dolce Vita 4.0 su FacebookX,  Instagram, Tik Tok e  per non perderti inoltre, le ultime novità!