Rimini, quando l’intelligenza artificiale diventa criminale: “Truffe da milioni di euro”

I reati non sono più commessi solo da persone fisiche o attraverso strumenti telematici. Quello che poteva sembrare fantascienza è diventato realtà. Modificare radicalmente fotografie ritraenti persone reali, o addirittura filmati, con tanto di audio e affermazioni, quasi fossero un videogioco (con la differenza che questi di “ultima generazione” sembrano veri) sono i nuovi prodotti generati dall’intelligenza artificiale. Prodotti, i cosiddetti “deep fake”, che, come mette in guardia l’avvocato riminese Alessandro Sarti, responsabile dell’Osservatorio nazionale “Scienza, processo e intelligenza artificiale” dell’Unione delle Camere penali italiane, «possono essere utilizzati per commettere truffe e anche crimini più gravi». Un rischio da cui è sempre più urgente imparare a proteggersi, in primo luogo attraverso normative studiate ad hoc. Tema che l’avvocato Sarti, in qualità di responsabile dell’Osservatorio nazionale, ha già relazionato in commissione alla Camera dei deputati come esperto della materia.
Avvocato, come la possibilità di modificare fotografie e addirittura video rischia di far approdare in tribunale materiale falso, che potrebbe assurgere a fonte di prova?
«Il cosiddetto deep fake, ossia la possibilità partendo da contenuti reali (immagini e audio) di realizzare video o immagini in grado di ricreare le caratteristiche e i movimenti di un volto o di un corpo e di imitare fedelmente una determinata voce, rappresenta uno degli aspetti più preoccupanti e inquietanti dell’intelligenza artificiale. Al momento non sono a conoscenza di una casistica legata all’utilizzo del deep fake in ambito probatorio all’interno di un processo. Al contrario, è sempre più frequente l’utilizzo di immagini e video “create” dall’intelligenza artificiale quale strumento per commettere reati. Recentemente, il dipendente di una importante multinazionale con sede a Hong Kong è stato vittima di un raggiro che lo ha portato a trasferire oltre 25 milioni di dollari dopo aver ricevuto l’incarico a compiere l’operazione nel corso di una conference call in cui erano presenti on line un dirigente esecutivo e alcuni colleghi. Solo successivamente il malcapitato ha scoperto che le immagini erano state create attraverso l’intelligenza artificiale. A Rimini, nel corso dell’open day dell’Unione delle Camere penali Italiane, abbiamo mostrato alcuni esempi di come sia semplice creare dei deep fake in grado di ingannare chiunque. Il 24 maggio la Banca d’Italia ha pubblicato un avviso in cui avverte della presenza in rete di videomessaggi che, in maniera artificiosa, riproducono l’immagine e la voce di esponenti di autorità competenti in materia finanziaria e personalità note».

L’Ia, come lei ha rilevato durante l’open day svoltosi a Rimini lo scorso giugno, può essere impiegata anche nell’amministrazione della legge, ovvero nell’elaborazione di una sentenza e nel comminare la pena. Può essere anche un vantaggio? Magari aiutando a superare i cosiddetti biases cognitivi o le trappole mentali in cui possono incappare i giudici?
«Va premesso che l’intelligenza artificiale è un fenomeno irreversibile e inarrestabile e costituisce la quarta rivoluzione industriale dopo vapore, elettricità e computer. Risulta, pertanto, inevitabile il suo utilizzo anche nel processo penale in cui potrà essere una risorsa importante al fine di rendere più efficiente e rapida la giustizia. A mio avviso, l’intelligenza artificiale dovrà comunque limitarsi a svolgere una funzione di ausilio al giudice, aiutandolo a evitare euristiche (scorciatoie e trappole mentali) che sono alla base di errori cognitivi (bias) scoperti e catalogati dagli studi scientifici. è impensabile e non auspicabile che la decisione su qualsiasi aspetto del processo penale possa essere demandata all’intelligenza artificiale. Dovrà sempre rimanere sulla macchina un controllo umano significativo».
Mi (e le) domando, però, se l’assenza di un giudizio etico o morale possa in qualche modo inficiare questo processo.
«L’intelligenza artificiale non è dotata di morale. In altri termini, non è in grado di vincolare la propria elaborazione dei dati a principi etici. Questo limite risulta particolarmente rilevante visto che il rispetto dei diritti fondamentali dell’uomo e dei “metavalori” a cui è informato il giusto processo (presunzione di innocenza, principio del contraddittorio, motivazione della decisione) costituisce un aspetto irrinunciabile della nostra visione di giustizia. Per riprendere le parole del professor Franco Cordero, nel processo penale “la caccia vale più della preda”».
Ci sono altri aspetti in cui l’Ia può intervenire nel modificare il processo?
«A mio avviso, bisogna scongiurare il rischio che l’intelligenza artificiale possa modificare il processo penale nel suo attuale spirito e finalità. Noi dobbiamo continuare a perseguire una “giustizia giusta” e non una “giustizia esatta”. Una “giustizia esatta”, che non sia contemperata dal rispetto dei valori etici, non può essere giusta».
A oggi, dopo che il Governo lo scorso 23 aprile ha licenziato il disegno di legge in materia di intelligenza artificiale - in attesa del vaglio del parlamento - quali sono gli interventi di legge che lei ritiene più urgenti?
«Il disegno di legge varato dal Consiglio dei Ministri e il regolamento europeo denominato “Ai act” (pubblicato il 12 luglio) tracciano degli indirizzi di carattere generale che dovranno necessariamente essere integrati da una normativa più specifica che adegui soprattutto il codice di procedura penale all’impatto di questa rivoluzionaria tecnologia. Come ha già evidenziato dall’Unione delle camere penali Italiane, vanno con urgenza introdotte norme specifiche idonee a garantire i diritti inviolabili dell’uomo e i valori costituzionali, soprattutto nella fase delle investigazioni e in quella di acquisizione nel processo della prova».
© RIPRODUZIONE RISERVATA