OpenAI ha ammesso che ChatGpt è stato usato per realizzare malware. Nel suo ultimo rapporto sulla sicurezza, l'azienda guidata da Sam Altman ha spiegato che il software di intelligenza artificiale è stato utilizzato da diversi gruppi di cybercriminali. Tra questi, il gruppo cinese SweetSpecter che ha inviato email di phishing al personale dell'azienda. Il piano prevedeva di nascondere dei file malevoli all'interno di alcune finte richieste di supporto, gli allegati portavano all'installazione del malware SugarGh0st che si intrufola nei sistemi informatici e ruba dati.
Inoltre, il gruppo iraniano Storm-0817 ha usato ChatGpt per creare un software che raccoglie dati a strascico su Instagram e LinkedIn. E l'IA è stata sfruttata anche per creare malware per Android in grado di rubare dati come contatti, cronologia delle chiamate, file e posizione dell'utente. OpenAI ha comunicato di aver già bannato permanentemente tutti gli account utilizzati dagli hacker, condividendo i dati raccolti con autorità, analisti e ricercatori nel campo della sicurezza informatica.
Le fragilità sul fronte sicurezza di ChatGpt non sono una novità. La prima allerta da parte degli esperti è scattata a gennaio dell'anno scorso e di recente è anche stato dimostrato che le misure di sicurezza del chatbot possono essere aggirate per ottenere una guida che spieghi come fabbricare esplosivi.
Riproduzione riservata © Copyright ANSA