Deep-fake e revenge-porn: il problema è la rete o siamo noi?

Deep-fake: da effetto speciale d'avanguardia a strumento alla portata di tutti, aprendo la strada anche ad abusi che non siamo attrezzati ad affrontare

Nel film Rogue One: A Star Wars Story del 2016, Ingvild Deila e Guy Henri hanno recitato nella parte della principessa Leia Organa e Gran Moff Tarkin rispettivamente. La loro immagine è poi stata “digitalmente ricoperta” con le sembianze degli attori originali della saga: Carrie Fisher, morta nel 2016, e Peter Cushing, morto nel 1994. Una prima cinematografica nella quale due attori sono stati “resuscitati” sul set, grazie all’incontro dell’intelligenza artificiale con la grafica digitale.

A distanza di pochissimi anni, quella che era una costosa novità dal sapore fantascentifico, è diventata tecnologia disponibile ai più, comprensiva di simulazione del timbro vocale e versioni gratuite già discretamente performanti. Se un film rimane in tutti i casi un’opera corale cui contribuiscono a vario titolo decine e a volte centinaia di persone, la possibilità per il singolo di accedere a tecnologie in grado di creare prodotti audiovisivi artificiali ma decisamente credibili (tanto credibili da essere indicati con l’espressione inglese deep-fake) apre invece molte aree grigie su chi possa vantare il diritto di disporre di queste opere.

Su questo genere di prodotti audiovisivi si sovrappongono infatti diverse norme e consuetidini, che vanno dal diritto di satira alla tutela reputazionale e d’immagine, entrambe intese come strumenti di lavoro. A questi vanno aggiunti i diritti di chi ha fisicamente fornito la recitazione su cui sono state sovrapposte immagine e voce del personaggio famoso, e ovviamente i diritti di chi ha materialmente eseguito il lavoro creativo e tecnico di fusione digitale. Nel giro di pochissimi anni il confine tra plagio e opera derivata si è fatto ancora più sfumato.

La principessa Leia in una scena di Rogue One: a Star Wars Story. Il volto di Carrie Fisher è stato sovrapposto digitalmente a quello dell’attrice Ingvild Deila che ha recitato la scena

La popolarizzazione di queste tecnologie ha però creato anche aree con una sfumatura di grigio molto più scura. Se nelle imitazioni di personaggi famosi, il “falso” è di solito facilmente distinguibile dall’originale, lo stesso non si può dire dei falsi digitali. La qualità sempre crescente di queste produzioni, anche nelle versioni gratuite o quasi, rende disponibile a tutti uno strumento con una potenzialità ingannatoria articolata ed estrema. Fino a pochissimi anni fa, un video poteva essere considerato documento attendibile in sé, oggi non è più così. Inoltre questa nuova realtà dei deep-fake non coinvolge solo personaggi famosi, coinvolge anche e soprattutto le persone comuni.

Da un punto di vista strettamente legale, l’uso dei falsi digitali ai danni di terzi tende ad essere già abbastanza ben definito, sconfinando ad esempio nei reati di diffamazione o sostituzione di persona. Ma l’aspetto strettamente legale è solo una parte della storia, soprattutto quando ad essere coinvolte sono le persone comuni, che non possono contare su una notorietà propria e indipendente, capace in qualche modo di aiutare a diffondere smentite e spiegazioni, controbilanciando l’impatto sociale di un falso digitale ben riuscito.

Revenge Porn e deep fake

Il caso di Tiziana Cantone ‒ arrivata al suicidio a causa della diffusione incontrollata di video che sarebbero dovuti restare privati ‒ è l’esempio più noto di quel fenomeno che oggi viene chiamato revenge-porn: una vera e propria aggressione psicologica che fa leva sullo stigna sociale legato alla sfera sessuale; stigma ingiustificato ma non per questo meno reale. Con i falsi digitali non è più neppure necessario che il materiale compromettente esista davvero e venga sottratto alla vittima: si possono creare con relativa facilità dei falsi così simili al vero da averne nei fatti i medesimi effetti.

Falsehood flies, and the Truth comes limping after it.
(La falsità vola, mentre la verità insegue zoppicando)

Jonathan Swift (1667-1745)

Il problema di fondo sta nella sostanziale asimmetria tra un messaggio con una forte componente emozionale, come un video compromettente, e la fredda pragmaticità di una smentita: il primo si diffonderà molto più in fretta e verrà ricordato molto più efficacemente. La legge nota come Codice Rosso del 2019 affronta in parte questo problema, istituendo una corsia d’azione preferenziale che può rendere più tempestiva l’azione legale a protezione delle vittime di vari reati, tra i quali proprio la «diffusione illecita di immagini o video sessualmente espliciti».

Tuttavia, questa legge è stata pensata per affrontare la «violenza domestica e di genere», non specificatamente quella online. È quindi ben lontana dall’abbracciare l’interezza della questione dei falsi digitali. Anzitutto perché i contenuti sessualmente espliciti non sono l’unica possibilità per aggredire psicologicamente una persona. L’uso di sostanze psicotrope, malattie fisiche o mentali, la frequentazione di alcuni ambienti sociali (come un rave-party) o di alcune persone, sono tutte cose che, alle giuste condizioni, possono essere usate per innescare fenomeni di stigma sociale analoghi al revenge-porn, ma che rischiano di restare fuori dall’ombrello tutelare dalla legge del 2019.

Inoltre, questa legge non ha grandi effetti sul problema del ritardo con cui le vittime trovano il coraggio di denunciare quei reati che hanno a che fare con la reputazione sociale. Ritardo che può compromettere l’efficacia dell’intervento, ad esempio se il materiale compromettente ha già raggiunto server esteri, dove l’azione legale può essere più lenta o addirittura impossibile.

Ritardo che sembra avere radici anche nella cronica incapacità dimostrata da molti media nel gestire la delicatezza di alcune situazioni: in troppi casi l’attrazione morbosa per lo scandalo finisce col prevalere sulla tutela delle vittime. La sola remota possibilità che la propria storia giunga all’attenzione dei media nazionali, con il relativo materiale (vero o falso che sia), è un potentissimo deterrente alla denuncia di qualsiasi forma di abuso che coinvolga un aspetto sociale potenzialmente oggetto di stigma.

La questione è complessa, ed è facile puntare il dito contro una tecnologia nuova che non ci è familiare, invocando magari una qualche improbabile caccia alla stregoneria tecnologica. Caccia che con tutta probabilità finirebbe con l’infrangersi contro il più banale servizio di VPN.

Piuttosto, è forse giunto il momento di chiederci se la diffidenza e la paura che sembrano circondare tecnologie come il deep-fake o l’intelligenza artificiale non abbiano a che fare anzitutto con noi stessi, con i nostri confortevoli stereotipi sociali. O se magari qualche aspetto della hybris accusatoria e censoria che spesso traspare nel dibattito sociale e politico su questi temi, non nasonda il tentativo di crearsi un comodo alibi per non affrontare una meschinità che, prima ancora che allo strumento usato da qualcuno per esprimerla, appartiene a ognuno di noi.

di Giovanni Perini

Scrivi un commento

L'indirizzo email non sarà pubblicato.


*