Attenzione ChatGPT potrebbe creare anche malware

Spread the love

Il chatbot più famoso al mondo, ChatGPT, sta sfruttando i suoi poteri di intelligenza artificiale per creare nuovi ceppi di malware. La società di sicurezza informatica WithSecure ha confermato di aver trovato esempi di malware creati dal famigerato scrittore di intelligenza artificiale in natura. A rendere ChatGPT particolarmente pericoloso è la possibilità di generare innumerevoli varianti di malware, il che le rende difficili da rilevare. I malintenzionati possono semplicemente fornire a ChatGPT esempi di codice malware esistente e istruirlo a creare nuovi ceppi basati su di essi, rendendo possibile perpetuare il malware senza richiedere quasi lo stesso livello di tempo, impegno e competenza di prima.

La notizia arriva mentre abbondano i discorsi sulla regolamentazione dell’IA, per evitare che venga utilizzata per scopi dannosi. Sostanzialmente non esisteva alcuna regolamentazione che disciplinasse l’uso di ChatGPT quando è stato lanciato in modo frenetico nel novembre dello scorso anno e, nel giro di un mese, è stato già dirottato per scrivere e-mail e file dannosi. All’interno del modello sono presenti alcune misure di salvaguardia che hanno lo scopo di impedire l’esecuzione di suggerimenti nefasti, ma ci sono modi in cui gli attori delle minacce possono aggirarli.

Juhani Hintikka, CEO di WithSecure, ha dichiarato a Infosecurity che l’intelligenza artificiale è stata solitamente utilizzata dai difensori della sicurezza informatica per trovare ed eliminare il malware creato manualmente dai creatori delle minacce. Sembra che ora, tuttavia, con la disponibilità gratuita di potenti strumenti di intelligenza artificiale come ChatGPT, la situazione stia cambiando. Gli strumenti di accesso remoto sono stati utilizzati per scopi illeciti, e ora lo è anche l’intelligenza artificiale.

Tim West, responsabile dell’intelligence sulle minacce presso WithSecure, ha aggiunto che “ChatGPT supporterà l’ingegneria del software nel bene e nel male ed è un abilitatore e abbassa la barriera all’ingresso per i creatori delle minacce per sviluppare malware“. E le e-mail di phishing che ChatGPT può scrivere vengono solitamente individuate dagli umani, poiché gli LLM diventano più avanzati, potrebbe diventare più difficile evitare di cadere in tali truffe in futuro, secondo Hintikka. Inoltre, con il successo degli attacchi ransomware in aumento a un ritmo preoccupante, i creatori delle minacce stanno reinvestindo e diventando più organizzati, espandendo le operazioni esternalizzando e sviluppando ulteriormente la loro comprensione dell’intelligenza artificiale per lanciare attacchi più efficaci. Hintikka ha concluso che, guardando al panorama della sicurezza informatica che ci attende, “Questo sarà uno scontro tra buona e cattiva intelligenza artificiale“.

Lascia un commento