Una volta che sarà approvata la direttiva europea sulla lotta alla violenza contro le donne, fornitori e sviluppatori di modelli di intelligenza artificiale (IA) potrebbero essere ritenuti responsabili per la creazione di deepfake sessualmente espliciti. È quanto emerge da un'analisi del think tank Future of Life Institute che approfondisce un aspetto della normativa poco dibattuto sebbene molto attuale, come dimostra la vicenda di Taylor Swift, la pop star vittima di deepfake porn. Un fenomeno in crescita quest'ultimo che, secondo il think tank, riguarda almeno il 96% dei casi di deepfake, ossia immagini, video e audio falsi, ma verosimili, generati dall'IA, con donne e ragazze che rappresentano il 99% delle vittime.
"Data la diffusa popolarità dei sistemi di IA che generano deepfake, l'approccio più efficace per contrastarli è che i governi istituiscano divieti completi in ogni fase della produzione e della distribuzione" osserva Future of Life Institute ritenendo "non sufficiente" la mera criminalizzazione della produzione e della condivisione di deepfake. "La responsabilità deve estendersi agli sviluppatori, ai fornitori di modelli, ai fornitori di servizi e ai fornitori di calcolo coinvolti nel processo" spiega il think tank.
Secondo gli esperti, alcune disposizioni sui deepfake contenute nella direttiva potrebbero essere interpretate in questo senso. Sarebbe, osserva il think tank, "un primo passo fondamentale per smantellare l'oleodotto che alimenta lo sfruttamento sessuale attraverso i deepfake". La direttiva, su cui le istituzioni Ue hanno raggiunto un accordo il mese scorso, dovrà essere approvata in via definitiva dal Parlamento europeo e dal Consiglio.
Riproduzione riservata © Copyright ANSA