Los ciberdelincuentes ya utilizan ChatGPT para crear herramientas maliciosas

En foros clandestinos de la Dark Web, los ciberdelincuentes están creando malware del tipo Infostealer, herramientas de cifrado y facilitando la actividad fraudulenta. Los investigadores quieren alertar del creciente interés de los atacantes por ChatGPT.

Desarrollado por la empresa OpenAI con sede en San Francisco, ChatGPT es un nuevo chatbot de inteligencia artificial que brinda respuestas de calidad humana a las preguntas que realiza el usuario de una manera sorprendentemente creativa, detallada e inquietantemente conversacional. Se debatió mucho sobre la inteligencia artificial (IA), una tecnología disruptiva con el potencial de mejorar drásticamente nuestras vidas a través de la medicina personalizada, un transporte más seguro , entre otros usos. Tiene un gran potencial para ayudar al sector de la ciberseguridad a acelerar el desarrollo de nuevas herramientas de protección y validar algunos aspectos de la codificación segura. Sin embargo, la introducción de esta nueva tecnología también conlleva un potencial riesgo que hay que tener en cuenta.

El mundo experimentó un aumento del 38% en los ciberataques en 2022 (en comparación con 2021). Las empresas de media fueron atacadas 1.168 veces por semana. Educación y salud fueron dos de los sectores más afectados, con casos de parálisis de hospitales y escuelas por ciberataques. En esa línea, es posible que ahora veamos un aumento exponencial de los ciberataques debido a ChatGPT y otros modelos de IA.

Check Point Research explica tres casos recientes que muestran este peligro y el creciente interés de los ciberdelincuentes en ChatGPT para escalar y enseñar actividades maliciosas:

Creación de Infostealer: el 29 de diciembre de 2022, apareció un hilo llamado «ChatGPT – Beneficios del malware» en un popular foro clandestino de hacking. El editor del hilo reveló que estaba experimentando con ChatGPT para recrear variantes de malware y técnicas descritas en publicaciones de investigación y escritos sobre malware común. Estos mensajes parecían estar enseñando a otros atacantes menos capacitados técnicamente cómo utilizar ChatGPT con fines maliciosos, con ejemplos reales que podían aplicar inmediatamente.

Creación de una herramienta de cifrado multicapa: el 21 de diciembre de 2022, un ciberdelincuente apodado USDoD publicó un script en Python al que se refirió como «primer script que había creado». Cuando otro ciberdelincuente comentó que el estilo del código se parecía al código de OpenAI, USDoD confirmó que OpenAI le echó una «buena [mano] para terminar el script con un buen alcance». Esto podría significar que los ciberdelincuentes potenciales que tienen poca o ninguna habilidad de desarrollo, podrían aprovechar ChatGPT para desarrollar herramientas maliciosas y convertirse en atacantes con capacidades técnicas. Por supuesto, todo el código mencionado puede utilizarse de forma benigna. Sin embargo, este script puede modificarse para cifrar un equipo sin ninguna interacción del usuario. Por ejemplo, podría convertir el código en ransomware.

Facilitar ChatGPT para actividades fraudulentas: en este caso, un ciberdelincuente muestra cómo crear un mercado de scripts en la Dark Web utilizando ChatGPT. El papel principal del mercado en la economía clandestina ilícita es proporcionar una plataforma para el comercio automatizado de bienes ilegales o robados como cuentas o tarjetas de pago robadas, malware, o incluso drogas y municiones, con todos los pagos en criptomonedas.

Dejá un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *