Email Security 2023

    Amenazas de la IA generativa

    Las salvaguardas de ChatGPT pueden evitar el uso indebido, pero las herramientas de jailbreaking pueden dar ventaja a los malos actores a la hora de saltarse esas salvaguardas para crear correos electrónicos de phishing más creíbles.

    by Kiri Addison

    Key Points

    • Se pueden utilizar grandes herramientas de modelos lingüísticos como ChatGPT para generar correos electrónicos de phishing convincentes en grandes volúmenes.
    • Estos correos electrónicos convincentes pueden ser más difíciles de detectar que los correos electrónicos de phishing tradicionales, plagados de errores ortográficos y gramaticales.
    • ChatGPT y otras herramientas similares disponen de salvaguardas para impedir el uso indebido, pero las herramientas de jailbreaking pueden saltarse estas salvaguardas.

    Las herramientas basadas en grandes modelos lingüísticos, como ChatGPT, pueden utilizarse para generar correos electrónicos de phishing convincentes, bien redactados y gramaticalmente correctos en grandes volúmenes. También pueden utilizarse para realizar investigaciones sobre objetivos, tanto personas como organizaciones.

    Los ataques de correo electrónico comercial comprometido (BEC) suelen implicar una conversación entre el atacante y la víctima antes de que el atacante logre sus objetivos (recibir una transferencia bancaria, datos confidenciales, etc.). Además de utilizarse para elaborar el mensaje inicial, estos servicios también pueden ayudar a los atacantes a crear respuestas pertinentes y precisas a las respuestas de sus víctimas. 

    ChatGPT Salvaguardias y Jailbreaking

    ChatGPT cuenta con salvaguardas y restricciones para tratar de evitar el uso indebido y la creación de contenidos perjudiciales. Sin embargo, hay varios sitios web y foros que comparten 'jailbreaks' para ChatGPT. Estos jailbreaks son avisos específicos que permiten saltarse las protecciones y harán que ChatGPT siga cualquier comando introducido por el usuario. Esto podría incluir la creación de contenidos que revelen información sensible o sean maliciosos, como la generación de códigos maliciosos y correos electrónicos de phishing. 

    Cuatro variantes de ChatGPT utilizadas por los piratas informáticos

    El Jailbreaking de ChatGPT no es necesariamente necesario para que los ciberdelincuentes abusen de esta tecnología. Ahora hay muchas variantes a la venta en la web oscura que esencialmente se comportan como una versión sin restricciones de la herramienta y que supuestamente están afinadas para fines maliciosos. Suelen costar varios cientos de dólares al año, aunque también existen suscripciones mensuales:

    • WormGPT es una herramienta del tipo ChatGPT basada en el modelo de lenguaje GPTJ que ayuda a los atacantes a elaborar código malicioso y correos electrónicos de phishing. Según los informes, WormGPT se entrena con grandes cantidades de datos, entre los que se incluyen específicamente datos relacionados con malware.
    • XXXGPT es otra variante que viene con un paquete de apoyo experto. XXXGPT está diseñado para ayudar a los atacantes a desarrollar código para botnets, troyanos, key loggers, infostealers y otros tipos de malware.
    • WolfGPT es una herramienta construida en Python centrada en la confidencialidad. Las áreas de especialidad de WolfGPT incluyen la creación de malware criptográfico (utilizado para la cripto minería) y ataques avanzados de phishing. 
    • FraudGPT puede crear correos electrónicos de phishing con temática bancaria, en los que el usuario sólo tiene que introducir el nombre del banco objetivo e insertar enlaces de phishing en los marcadores de posición del contenido de salida. Además de generar correos electrónicos, también puede codificar páginas de inicio de sesión diseñadas para robar credenciales. Sus creadores afirman que puede crear código malicioso, construir malware indetectable, encontrar vulnerabilidades e identificar objetivos. Se vende en la web oscura y en Telegram, con actualizaciones lanzadas cada pocas semanas.

    Lo esencial

    Las organizaciones deben ser conscientes de que herramientas como ChatGPT van a formar parte de su panorama de ciberseguridad en un futuro previsible. Los empleados utilizarán las herramientas, pero también lo harán los atacantes. Estos malos actores intentarán por todos los medios adelantarse a las salvaguardas que podrían impedirles utilizar grandes herramientas de modelos lingüísticos para crear correos electrónicos de phishing afinados y páginas web maliciosas que ya no contendrán los signos reveladores de los errores ortográficos y la mala gramática. 

    Suscríbase a Cyber Resilience Insights para leer más artículos como éste

    Reciba las últimas noticias y análisis del sector de la ciberseguridad directamente en su bandeja de entrada

    Inscríbase con éxito

    Gracias por inscribirse para recibir actualizaciones de nuestro blog

    ¡Estaremos en contacto!

    Back to Top