La figlia di Robin Williams contro l’utilizzo sconsiderato dell’IA con le immagini di suo padre
Negli ultimi giorni, Zelda Williams – figlia del leggendario attore Robin Williams – ha denunciato pubblicamente l’uso di intelligenza artificiale per ricreare la voce e il volto del padre, definendolo “disgustoso e disumano”.
E ha ragione.
Perché dietro la commozione, la nostalgia e la curiosità tecnologica, si nasconde un problema che presto potrebbe riguardare ognuno di noi.
Digital Twinning: quando i morti tornano “vivi” (ma non per volontà loro)
Il digital twinning – la creazione di copie digitali di persone reali, spesso defunte – è una delle frontiere più ambigue dell’intelligenza artificiale generativa. Non parliamo solo di deepfake di attori famosi.
Parliamo di profili fantasma: milioni di repliche digitali, realistiche e conversazionali, generate con IA addestrate su foto, video, voci o testi di persone normali che sono decedute.
Oggi questi cloni vengono utilizzati senza consenso, a volte per scopi di lucro, altre per curiosità morbosa, altre ancora per esperimenti “emotivi” di dubbia etica, come il trend delle vittime che raccontano i propri omicidi, e perfino la pedopornografia su profili di minori non più tra noi.
I rischi concreti (e inquietanti)
Dietro la pratica innovativa del digital twin, del gemello digitale, si nascondono impatti devastanti, se non tutelati dalle leggi sulla privacy e sulla data protection degli individui:
-
Violazione dell’identità postuma: chi stabilisce se un defunto può essere “replicato”? E chi ne detiene i diritti digitali, una volta che questa azione viene compiuta da un'azienda e il digital twin viene inserito in un database? L'eredità digitale resta sempre e comunque degli eredi, per il diritto europeo.
-
Deepfake e crimini digitali: immagini o voci dei defunti vengono già usate in pornografia non consensuale, truffe deepfake, pedopornografia e storytelling criminale.
-
Manipolazione emotiva: esistono “servizi” che permettono a un genitore di parlare con la propria figlia scomparsa — tramite chatbot AI. Questo pone numerosi interrogativi su come si vivrà in futuro l'elaborazione del lutto con l'esistenza di questi strumenti.
-
Reputazione aziendale a rischio: pensate se domani comparisse un AI agent con il volto del vostro ex CEO — creato da terzi — che “parla a nome” dell’azienda. Oppure che intrattiene videochiamate con i competitor, svelando segreti aziendali.
Non è fantascienza. Sta accadendo adesso.
Dalla star al cittadino comune: il digital afterlife non fa distinzioni
Così come tocca ai personaggi pubblici come Robin Williams, succede anche ai key manager, ai brand ambassador, agli influencer e politici. Ma capita, sempre più spesso, anche a tua zia Maria, di cui esiste un’intera gallery su Instagram pronta per essere convertita in un AI agent da qualche piattaforma “creativa”.
Il paradosso è che la tecnologia che oggi ci aiuta a preservare la memoria digitale, domani potrebbe distruggere il concetto stesso di Identità e Dignità postuma.
Bisogna intervenire. Ora.
Non possiamo più parlare di “sperimentazione etica” o di “zona grigia”.
Serve una presa di posizione netta:
-
Le aziende tech devono implementare sistemi di watermark, tracciabilità e consenso digitale post-mortem.
-
I policy maker devono riconoscere il diritto alla “morte digitale” e alla protezione dell’identità dopo la vita.
-
I brand e le imprese devono definire policy interne sull’uso dell’IA per rappresentare ex collaboratori, testimonial o fondatori.
-
E noi, utenti e cittadini, dobbiamo smettere di applaudire ogni “resurrezione virtuale” come se fosse un miracolo tecnologico, e occuparci della storia e della memoria dei noi cari che non ci sono più, e di noi stessi per il futuro.
Perché sì, la domanda è solo una:
👉 E se fosse tuo padre? Tua madre? Tuo figlio? Quanto ti farebbe incaxxare sapere che un algoritmo li ha riportati in vita per intrattenere gli altri?
L’etica dell’intelligenza artificiale non è un dibattito da convegno: è un’urgenza culturale, umana e civile.
Se hai bisogno di aiuto ora, contattaci.
Leave a Comment