Intelligenza artificiale e pornografia. Una combinazione potenzialmente pericolosissima soprattutto per gli adolescenti.
Insidie generate da un uso sconsiderato dell’intelligenza artificiale che arrivano in una fase della vita dove le gravi conseguenze di certi gesti non sono ancora pienamente percepite, dal punto di vista psicologico, ma anche da quello penale.
Oggi basta un clic per spogliare compagne di scuola, seppur “virtualmente”, ed è sufficiente avere un’app come Bikinioff per fare video che, agli occhi di un adolescente, potrebbero sembrare bravate, ma che in realtà sono veri e propri reati capaci di stravolgere le esistenze delle vittime.
Molti i casi segnalati nei gruppi di adolescenti, di cui - anche in Romagna - si comincia a parlare a scuola e (più raramente) nelle famiglie, mentre in altre zone d’Italia (vedi Roma) i casi più gravi sono già arrivati davanti ai giudici.
Le frontiere dell’IA
Ma come fare a produrre certi video? Niente di complicato, basta avere una foto in cui una persona è vestita di tutto punto per denudarla e postare il ritocco hot sui social. Ma non è tutto. Circolano immagini o video hard di ragazzi, ragazze ma anche adulti che non si sono mai fatti ritrarre in simili pose. Il peggio è che non si tratta nemmeno di immagini rubate. Come è possibile? Sono immagini create dall’IA e mai esistite nella realtà. Il fenomeno, quantomeno agghiacciante, perché chiunque potrebbe già esserne vittima inconsapevole, prende il nome di deepfake pornografico e sta a indicare immagini o video sessualmente espliciti, quando non pornografici, dove i volti degli attori porno (reali) sono stati sostituiti, come detto, tramite i prodigi dell’IA con il nostro.
La nuova legge
L’Italia è corsa ai ripari con una norma sull’intelligenza artificiale che si è affiancata all’articolo 612-ter introdotto nel 2019 contro la diffusione illecita di immagini o video sessualmente espliciti. Il problema era che l’applicazione, in caso di contenuti multimediali non reali, non era assicurata, dando adito così a un vero e proprio vuoto normativo, specie a danno dei maggiorenni, che in merito risultano meno tutelati rispetto ai minori.
Ecco perché il 10 ottobre scorso è stato introdotto il reato di deepfake all’articolo 612-quater che punisce la diffusione illecita di contenuti generati o manipolati artificialmente che causino un danno. Ma quella avviata resta una lotta impari tra Davide e Golia perché, nonostante recenti divieti - ad esempio lo stop all’app Clothoff (di cui esisteva anche una versione gratuita) - siti come “Nudify Deepfake” e portali analoghi ne esistono a iosa. Parliamo, entrando nel dettaglio, di oltre cento portali e software capaci di creare immagini intime, ma contraffatte, a partire da semplici fotografie in pochi secondi.