Email Security 2023

    Minacce dell'intelligenza artificiale generativa

    Le salvaguardie di ChatGPT possono prevenire l'uso improprio, ma gli strumenti di jailbreak possono dare ai cattivi attori il vantaggio di aggirare tali salvaguardie per creare email di phishing più credibili.

    by Kiri Addison

    Key Points

    • Gli strumenti di modelli linguistici di grandi dimensioni come ChatGPT possono essere utilizzati per generare e-mail di phishing convincenti ad alto volume.
    • Queste e-mail convincenti possono essere più difficili da individuare rispetto alle e-mail di phishing tradizionali, piene di errori ortografici e grammaticali.
    • ChatGPT e strumenti simili dispongono di salvaguardie per impedire un uso improprio, ma gli strumenti di jailbreak possono aggirare queste salvaguardie.

    Gli strumenti basati su modelli linguistici di grandi dimensioni, come ChatGPT, possono essere utilizzati per generare e-mail di phishing convincenti, ben formulate e grammaticalmente corrette ad alto volume. Possono anche essere utilizzati per effettuare ricerche su obiettivi, sia persone che organizzazioni.

    Gli attacchi BEC (Business Email Compromission) spesso comportano una conversazione tra l'aggressore e la vittima, prima che l'aggressore raggiunga i suoi obiettivi (ricevere un bonifico bancario, dati sensibili, ecc). Oltre a essere utilizzati per creare il messaggio iniziale, questi servizi possono anche aiutare gli aggressori a creare risposte pertinenti e accurate alle risposte delle loro vittime. 

    ChatGPT Salvaguardie e Jailbreaking

    ChatGPT dispone di salvaguardie e restrizioni per cercare di prevenire l'uso improprio e la creazione di contenuti dannosi. Tuttavia, esistono diversi siti web e forum che condividono 'jailbreak' per ChatGPT. Questi jailbreak sono dei suggerimenti specifici che consentono di bypassare le protezioni e faranno sì che ChatGPT segua qualsiasi comando inserito dall'utente. Questo potrebbe includere la creazione di contenuti che rivelano informazioni sensibili o che sono dannosi, come la generazione di codice maligno e di e-mail di phishing. 

    Quattro varianti di ChatGPT utilizzate dagli hacker

    Il jailbreak di ChatGPT non è necessariamente necessario perché i criminali informatici possano abusare di questa tecnologia. Ora ci sono molte varianti in vendita sul dark web che si comportano essenzialmente come una versione illimitata dello strumento e sono presumibilmente perfezionate per scopi malevoli. In genere costano diverse centinaia di dollari all'anno, ma sono disponibili anche abbonamenti mensili:

    • WormGPT è uno strumento in stile ChatGPT basato sul modello linguistico GPTJ che aiuta gli aggressori a creare codice maligno ed email di phishing. Secondo quanto riferito, WormGPT è stato addestrato su grandi quantità di dati, tra cui, in particolare, i dati relativi al malware.
    • XXXGPT è un'altra variante che viene fornita con un pacchetto di supporto esperto. XXXGPT è progettato per aiutare gli aggressori a sviluppare codice per botnet, trojan, key logger, infostealer e altri tipi di malware.
    • WolfGPT è uno strumento costruito in Python con un'attenzione particolare alla riservatezza. Le aree di specializzazione di WolfGPT comprendono la creazione di malware crittografico (utilizzato per il crypto mining) e gli attacchi di phishing avanzati. 
    • FraudGPT può creare e-mail di phishing a tema bancario, in cui l'utente deve semplicemente inserire il nome della banca target e inserire i link di phishing nei segnaposto del contenuto di output. Oltre alla generazione di e-mail, può anche codificare pagine di login progettate per rubare le credenziali. I creatori sostengono che può creare codice maligno, costruire malware non rilevabile, trovare vulnerabilità e identificare gli obiettivi. Viene venduto sul dark web e su telegram, con aggiornamenti rilasciati ogni poche settimane.

    La linea di fondo

    Le organizzazioni devono essere consapevoli che strumenti come ChatGPT faranno parte del loro panorama di cybersicurezza nel prossimo futuro. I dipendenti utilizzeranno gli strumenti, ma anche gli aggressori. Questi cattivi attori cercheranno di anticipare le misure di sicurezza che potrebbero impedire loro di utilizzare strumenti di modelli linguistici di grandi dimensioni per creare e-mail di phishing e pagine web dannose perfezionate, che non conterranno più i segni rivelatori di errori di ortografia e di cattiva grammatica. 

    Si abboni a Cyber Resilience Insights per altri articoli come questi.

    Riceva tutte le ultime notizie e le analisi del settore della cybersecurity direttamente nella sua casella di posta elettronica.

    Iscriviti con successo

    Grazie per essersi iscritto per ricevere gli aggiornamenti del nostro blog

    Ci terremo in contatto!

    Back to Top