OpenAI ha confermato che ChatGPT è stato sfruttato da gruppi di cybercriminali per creare malware. Nell’ultimo rapporto sulla sicurezza, l’azienda, guidata da Sam Altman, ha descritto come il software sia stato sfruttato per attacchi informatici mirati.
Tra questi gruppi di cybercriminali, vi è il gruppo cinese SweetSpecter, che ha inviato email di phishing al personale di diverse aziende. L’obiettivo era quello di nascondere file malevoli all’interno di false richieste di supporto, con gli allegati che contenevano il malware SugarGh0st, capace di infiltrarsi nei sistemi informatici e rubare dati sensibili.
Un altro gruppo, Storm-0817 di origine iraniana, ha utilizzato ChatGPT per creare un software in grado di raccogliere dati a strascico su Instagram e LinkedIn. Inoltre, l’intelligenza artificiale è stata sfruttata per sviluppare malware per dispositivi Android, in grado di accedere a contatti, cronologia delle chiamate, file e posizione degli utenti.
OpenAI ha prontamente reagito, bannando permanentemente tutti gli account utilizzati da questi hacker e condividendo i dati raccolti con le autorità, analisti e ricercatori nel campo della sicurezza informatica.
La crescente diffusione di AI a scopi malevoli riaccende il dibattito sulla regolamentazione e sulla necessità di sviluppare sistemi di sicurezza più robusti per proteggere utenti e infrastrutture critiche.
https://openai.com/global-affairs/an-update-on-disrupting-deceptive-uses-of-ai/