Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.
Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.
Come sopravvivere a un mondo che è già cambiato
Oggi chiunque si mette dietro a uno smartphone o a un computer ed è in grado di generare verità che non esistono. Nel 2023 il 16% dei 27mila casi trattati di truffe on line è rappresentato da trading on line fraudolento. E quel 16% rappresenta il 60% dei 180 milioni di euro di profitto illecito complessivo
Ottimismo e preoccupazione: è questo l’approccio che italiani e italiane sembrano avere nei confronti dell’IA. Secondo il quarto rapporto Ital Communications-IISFA sull’intelligenza artificiale, presentato a luglio e realizzato con il contributo dell’Istituto Piepoli, l’Italia oscilla tra il riconoscere l’importanza dell’IA per il futuro e i timori su privacy, lavoro ed etica.
Il 69% delle persone intervistate usa tecnologie basate sull’IA. Lo fanno di più i giovani che utilizzano soprattutto assistenti virtuali e applicazioni di IA generativa. Il 31%, soprattutto over 54, non utilizza invece queste tecnologie.
Il 37% del campione ha una visione positiva dell’IA e la associa a fiducia, progresso e innovazione. Il 21% però esprime preoccupazione e diffidenza, temendo perdita di controllo e minacce alla sicurezza e al lavoro.
Le principali fonti di informazione rilevate sono internet e la televisione, poi i social media e i giornali online. E c’è preoccupazione per l’affidabilità delle notizie: il 96% delle persone intervistate riconosce criticità nelle fonti di informazione a causa della diffusione di fake news e dell’overload informativo.
Usa e Cina sono i Paesi percepiti come leader nello sviluppo dell’IA, mentre l’Europa e l’Italia seguono, anzi rincorrono. Ma c’è forte fiducia nelle capacità del Vecchio Continente di guidare una regolamentazione etica: l’AI Act, approvato a marzo dal Parlamento europeo, viene considerato come un passo necessario per la sicurezza e la tutela dei diritti.
“L'intelligenza artificiale spopola”, dice all’ANSA Guido Scorza, componente del Garante per la protezione dei dati personali. “Consente di erodere la linea di frontiera tra il vero e il falso, di fare apparire vero ciò che non lo è o addirittura ciò che non è mai esistito”. La novità è che tutto questo passa oggi da strumenti “sempre più alla portata di chiunque”, ragiona Scorza. “Ieri esistevano ma erano per pochissimi. Costavano tanto e richiedevano competenze enormi. Oggi chiunque si mette dietro a uno smartphone o a un computer ed è in grado di generare verità che non esistono”.
E questo preoccupa. “Il 2024 è un anno in cui ad andare alle elezioni sono moltissimi Paesi, il voto coinvolge un’importante quantità di popolazione mondiale e il timore è che anche alcune elezioni possano essere condizionate dalla circolazione di video generati artificialmente che contrabbandano per verità quello che non lo è”.
A metà luglio l'Unione Europea ha pubblicato in Gazzetta Ufficiale il nuovo regolamento UE 2024/1689, che introduce norme armonizzate sull'intelligenza artificiale, in vigore il 2 agosto 2026. Entro novembre gli Stati dovranno designare le autorità pubbliche responsabili di garantire il rispetto delle disposizioni a tutela dei diritti fondamentali. Le aziende, dai fornitori agli sviluppatori di IA, e le amministrazioni pubbliche dovranno mappare i sistemi in uso e applicare le norme.
Non solo: le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti "deepfake") dovranno essere chiaramente etichettati come tali. “Si obbliga chi produce e poi pubblica un contenuto digitale utilizzando l'intelligenza artificiale a dichiararne l'utilizzo, a ‘bollinare’ quel contenuto come generato artificialmente”, spiega Guido Scorza, componente del Garante per la protezione dei dati personali.
Una soluzione utile in quella che definisce “l’era di mezzo”. “È utile finché i contenuti generati artificialmente saranno l'eccezione rispetto alla regola. Completamente inutile in una stagione della vita del mondo che verrà nella quale i contenuti generati artificialmente saranno di più rispetto a quelli generati in maniera non artificiale”.
Nell'era di mezzo la ricetta di Bruxelles è quella di avvisare l’utente. “Qualsiasi strumento funzionale a ostacolare queste condotte, anche normativo, è apprezzato”, commenta all’ANSA Massimo Bruno, direttore della Divisione Financial Cybercrime del Servizio Polizia Postale e per la Sicurezza Cibernetica. “Non è però possibile pensare che sia la soluzione definitiva: le truffe sul web vedono ormai in prima linea organizzazioni criminali ben strutturate che inevitabilmente tenderanno sempre a trovare soluzioni per neutralizzare gli strumenti di contrasto”.
“Il bollino non basta oggi e ancora meno basterà domani”, aggiunge Scorza. L’oggi, infatti, è vissuto da utenti di contenuti “distratti” e quello che il giurista prevede è una inesorabile assuefazione. “Né il bollino avrà lo stesso significato o senso di allarme per tutti”.
Il fenomeno è globale, di velocità inedita e una ricetta alternativa, al momento, non c’è. “Niente era mai stato, nell'universo dell'innovazione tecnologica, così rapido, pervasivo e alla portata di tutti”, conclude. “Forse la soluzione migliore è lo spirito critico. Interrogarsi e verificare quello che propongono i social. È il miglior antidoto, il miglior vaccino rispetto a una rivoluzione che ci travolge e in cui le regole sono utili e necessarie ma non sono naturalmente sufficienti a risolvere il problema”.
Riproduzione riservata © Copyright ANSA
"Il web è accessibile a sempre più persone e con crescente confidenza. Quindi - dice il dirigente della polizia postale Massimo Bruno - il prototipo della vittima, secondo segnalazioni e denunce, non c’è, e siamo tutti e tutte a rischio. Nel trading on line le forze dell’ordine vedono coinvolti soggetti che abbiano un minimo di disponibilità economica per la richiesta fraudolenta di cifre spesso importanti".
Nel 2023, spiega Bruno, il 16% dei 27 mila casi trattati di truffe on line è rappresentato da trading on line fraudolento. E quel 16% rappresenta il 60% dei 180 milioni di euro di profitto illecito complessivo: 108 milioni di euro.
E poi ci sono i rischi della pedopornografia. “Attraverso l’intelligenza artificiale è possibile per esempio modificare un video porno, mettere il volto di una persona, preso magari da una foto di un profilo social”, spiega il dirigente della Polizia. “Con quel video poi la persona viene ricattata. In questo caso non parliamo di truffa ma di estorsione. E arrivano sempre più segnalazioni e denunce di questo tipo”.
“Le piattaforme sono responsabili della dieta mediatica del mondo intero”, riflette Guido Scorza (componente Garante Privacy). “Decidono cosa leggiamo, i video che guardiamo, cosa ascoltiamo: in pratica come viviamo. Sono strumenti di manipolazione di massa della vita delle persone e hanno una responsabilità enorme”. È attraverso le piattaforme che circolano contenuti veri e falsi. “Hanno sicuramente risorse finanziarie, umane e tecnologiche per arginare la circolazione dei contenuti falsi e portarci nello smartphone contenuti più verosimilmente attendibili”.
“Il lavoro con le piattaforme è frequente e continuo e come polizia postale troviamo collaborazione per rimuovere questi spazi”, spiega Bruno. Ma non basta: perché uno spazio chiuso viene rapidamente riaperto. “È come svuotare il mare col secchiello. Ecco perché è importante la prevenzione”.
Riproduzione riservata © Copyright ANSA
App e dispositivi aiutano sempre di più a rendere meno complicata la vita di ogni giorno in famiglia e al lavoro. Le testimonianze
Notizie ANSA Scegli l’informazione di ANSA.it
Abbonati per leggere senza limiti tutte le notizie di ANSA.it
Abbonati oraSe è una notizia,
è un’ANSA.
Raccogliamo, pubblichiamo e distribuiamo informazione giornalistica dal 1945 con sedi in Italia e nel mondo. Approfondisci i nostri servizi.
Resta connesso
Ultima ora