/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Studio, europee non sono state l'Armageddon dei deepfake atteso

Studio, europee non sono state l'Armageddon dei deepfake atteso

'Ma sono già diventati una parte critica del dibattito pubblico'

BRUXELLES, 23 ottobre 2024, 12:03

Redazione ANSA

ANSACheck
© ANSA/EPA

© ANSA/EPA

Le elezioni europee non sono state l'Armageddon dei deepfake che alcuni media avevano previsto. Eppure, in diverse parti d'Europa, i deepfake dei politici sono già diventati una parte critica del dibattito pubblico. Un fenomeno che non è possibile arginare con accordi con partiti politici e piattaforme online senza la capacità dei governi di far rispettare tali accordi. Un fenomeno soprattutto che rischia di minare la fiducia degli elettori nel sistema politico. È la fotografia scattata dall'University of Texas at Austin sull'uso dell'intelligenza artificiale generativa (GenAI) nella politica europea.
Il rapporto, che prende in esame sia le europee sia le elezioni in Francia e Regno Unito, si concentra in particolare sulla questione dei deepfake sebbene, scrivono gli esperti, non sia ancora un fattore dominante nei processi elettorali. Diversi politici di spicco, tra cui il cancelliere tedesco Olaf Scholz, il primo ministro britannico Keir Starmer e la leader del Rassemblement National Marine Le Pen, sono stati bersaglio di deepfake, alcuni dei quali con sfumature più satiriche. "Quando il discorso si confonde - si legge nel rapporto - gli elettori iniziano a dubitare dell'integrità non solo di particolari deepfake ma di tutte le comunicazioni delle campagne politiche, un vero motivo di preoccupazione".
Secondo gli esperti, gli accordi volontari non vincolanti sottoscritti da partiti politici e dalle piattaforme tecnologiche "non hanno impedito la condivisione di deepfake politici". Nel rapporto si cita il Digital Forensics Lab (DFRLab) dell'Atlantic Council, secondo cui la coalizione di estrema destra dell'Ue Identità e Democrazia (Id) ha utilizzato la GenAI nelle campagne elettorali, violando il codice di condotta per le elezioni del Parlamento europeo del 2024 che Id aveva sottoscritto. Allo stesso modo, AlgorithmWatch ha riferito che aziende come OpenAI non hanno rispettato le regole che impedivano la creazione di immagini realistiche dei candidati per le elezioni. "Questi esempi illustrano quanto siano cruciali la trasparenza e la chiarezza - scrivono gli esperti - Quando né i partiti politici né le piattaforme etichettano i contenuti in modo sufficientemente chiaro, per gli elettori è una partita persa, perché lo spettro del dubbio persiste".
Gli impegni volontari delle piattaforme in materia di provenienza, trasparenza e divulgazione sono dunque importanti, ma, si evidenzia nel rapporto, lo è ancor più "la capacità dei governi di far rispettare" tali accordi, facendo pressione sulle piattaforme affinché mantengano le promesse di watermarking, rilevamento e mitigazione. 
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza