La disinformazione generata tramite IA: ecco quali sono i rischi
Le piattaforme di IA che consentono di generare video, immagini o audio partendo da contenuti testuali, ma anche di modificare immagini e video preesistenti, sostituendo i volti o modificando altri particolari, sono sempre più diffuse e popolari...
del 18/07/23 - di Diana Cecchi
Le piattaforme di IA che consentono di generare video, immagini o audio partendo da contenuti testuali, ma anche di modificare immagini e video preesistenti, sostituendo i volti o modificando altri particolari, sono sempre più diffuse e popolari. Semplici da utilizzare, rapide nell'esecuzione, sofisticate e talvolta anche gratuite, possono essere utilizzate da chiunque per qualsiasi finalità, dal puro divertimento all'utilizzo per finalità lavorative.
Andando a leggere l’indagine di ExpressVPN sui rischi legati ai deepfake, però, ci si rende conto di quanto questi software, se utilizzati in modo errato, possano risultare pericolosi, in quanto in grado non solo di diffondere notizie false, ma anche di manipolare l'opinione pubblica e persino i ricordi. In questo articolo focalizzeremo l'attenzione proprio su questo aspetto dell'IA e cercheremo di capire quali sono i rischi di un uso improprio e come difendersi dalle fake news generate tramite intelligenza artificiale.
Che cos'è l’IA
Quando si parla di “Intelligenza Artificiale” si fa riferimento alla capacità di alcune macchine di analizzare grandi quantità di dati e di utilizzarli non solo per eseguire determinate azioni, ma anche per apprendere e modificare comportamenti, funzionalità e risposte. L'analisi dei dati, i quali possono essere inseriti da un utente primario, ma anche ricavati dal mondo esterno attraverso l'impiego di speciali sensori oppure dalle reazioni e dai feedback dei vari utilizzatori dei sistemi, nonché dalla rete e da altri dispositivi, viene effettuata attraverso particolari algoritmi e porta la macchina a simulare attività umane come il ragionamento e la creatività.
Le tecnologie basate sull'Intelligenza Artificiale possono offrire numerosi benefici alla società e al mondo nel suo complesso, rendendo ad esempio più sicure le strade e le città, nonché alcune attività lavorative, sollevando l'uomo da alcuni compiti, eliminando l'errore umano, accelerando l'analisi di grandi quantità di dati e via dicendo. Al fianco di questi, però, si collocano anche alcuni elementi negativi, derivanti in primo luogo da utilizzi errati o poco etici.
Con l'IA generativa, la disinformazione corre sui social
Tra le tante applicazioni dell'IA, rientra quella, definita generativa, che consente di realizzare o modificare immagini e video, ma anche audio o semplici contenuti testuali.
Accessibile anche attraverso piattaforme e software disponibili in rete, in genere molto semplici da utilizzare, permette, a seconda dei casi:
- di creare contenuti da zero, inserendo descrizioni testuali di quanto si desidera ottenere e, in alcuni casi, aggiungendo immagini o audio di esempio;
- di modificare immagini, video o file audio preesistenti sostituendo corpi e volti, modificando il labiale o la gestualità, eliminando o cambiando i vestiti, modificando l'ambientazione e, per quanto riguarda l'audio, cambiando le parole o la voce.
Queste funzioni possono essere utilizzate per scopi creativi, ad esempio per realizzare cortometraggi o fotografie realistiche di mondi immaginari, ma anche per scopi promozionali o di insegnamento.
Al fianco di questi utilizzi leciti, se ne trovano numerosi che leciti non sono e che includono finalità di truffa o raggiro, oppure la volontà di far circolare notizie false per veicolare l'opinione pubblica, sostenere tesi scientifiche prive di fondamento, mettere in cattiva luce persone famose o gente comune e via dicendo. Tutti questi contenuti, dopo essere stati creati, vengono in genere condivisi sul web, in particolare sui social network, i quali consentono una diffusione rapida e virale. Dato l'elevato livello di realismo che li caratterizza, smascherarli non è sempre facile, sebbene i metodi non manchino e includano, tra le altre cose, la ricerca della fonte originale e l'individuazione di elementi anomali, come mani poco realistiche, contorni sfumati o labiale non ben sincronizzato.
Deepfake: cosa dice la legge
Sebbene ad oggi non esistano leggi riguardanti in modo specifico deepfake e, più in generale, i contenuti realizzati tramite IA, il nostro ordinamento giuridico dispone già delle basi necessarie per contenere e prevenire azioni illlecite messe in atto tramite IA. In particolare è possibile fare riferimento a:
- articolo 7 e 8 della Carta dei Diritti Fondamentali dell'UE, i quali si occupano della privacy e i dati personali di ogni singolo individuo;
- GDPR, che prevede sanzioni anche molto severe per trattamento di dati personali non autorizzato. L'utilizzo improprio dell'immagine di un soggetto che non ha fornito nessun tipo di autorizzazione, può essere fatto rientrare a tutti gli effetti in questo ambito;
articolo 10 del Codice Civile, il quale tutela il diritto all'immagine.
Photo by: Foto di Tara Winstead via Pexels