ChatGPT ya lleva algún tiempo entre nosotros (¡casi un año!) y no son pocas las personas que han incluido esta herramienta en su día a día, pero los cibercriminales también han añadido este chatbot a su arsenal para perfeccionar sus estafas. Aunque programas como el de OpenAI cuentan con una serie de medidas de seguridad para que no se puedan usar de forma fraudulenta, en diferentes foros se comienzan a popularizar supuestas alternativas como WormGPT o FraudGPT. Estas aplicaciones se difunden como chatbots libres de restricciones y especializados para cometer delitos, aunque en algunos casos hay dudas sobre si realmente existen y funcionan… o si los cibercriminales están aprovechando el auge de la inteligencia artificial para estafarse entre ellos. La vuelta a la tortilla, te contamos cómo.
En foros de cibercriminales se comparten chatbots sin restricciones y diseñados para cometer delitos
Entre los cibercriminales se ha popularizado ChatGPT, el chatbot desarrollado por OpenAI, como una herramienta con la que es posible cometer estafas y otros delitos si sabes cómo. Aunque esta aplicación cuenta con una serie de limitaciones para evitar dar respuestas que puedan suponer un peligro, como instrucciones para crear un virus desde cero, sí que puede usarse para perfeccionar la redacción de un mensaje fraudulento o como una ayuda a la hora de programar malware.
Pero el cibercrimen no descansa y siempre busca nuevas mañas (por eso en Maldito Timo y Maldita Tecnología siempre estamos muy atentos para avisaros). En los últimos meses han surgido propuestas para superar estos mecanismos de seguridad, y algunos ciberdelincuentes aseguran que han conseguido desarrollar sus propios chatbots. Es el caso de WormGPT y FraudGPT, dos aplicaciones que se difunden como alternativas a ChatGPT y que permiten “hacer todo tipo de ilegalidades” desde el anonimato.
Según sus creadores, estos programas no cuentan con restricciones, por lo que el usuario tendría vía libre para realizar cualquier petición, aunque sea fraudulenta. En varios mensajes los desarrolladores de estos bots argumentan que han sido entrenados específicamente para desarrollar malware, por lo que su diseño se centra en la cibercriminalidad. Estos programas se difunden bajo un modelo de suscripción con precios que pueden llegar a los 200 dólares (unos 182 euros) al mes.
En algunos casos no está claro si son chatbots que realmente existen y funcionan, o si son en sí mismos una estafa
Algunos de los creadores de estos programas, como el de FraudGPT, afirman que pueden realizar todo tipo de acciones, desde programar virus “indetectables”, crear páginas de phishing o redactar correos electrónicos fraudulentos, según recoge la empresa de seguridad Netenrich.
La compañía de ciberseguridad SlashNext asegura haber tenido acceso a WormGPT, y muestra alguno de los usos que se pueden hacer de esta aplicación. En este caso, la compañía pidió a la máquina que redactara un correo electrónico haciéndose pasar por el director de una empresa para pedir dinero a un trabajador. En respuesta, el chatbot escribió un texto que se podría emplear para llevar a cabo un intento de phishing.
Si hacemos esta misma petición a ChatGPT, la máquina nos advierte de que no nos puede ayudar a cometer actividades fraudulentas.
Pero hay dudas de la autenticidad de estos programas. Estos chatbots podrían tratarse de un intento por estafar a otros cibercriminales. ¿Cómo? Pues haciéndoles pagar por programas que no existen o que no funcionan. Parece que WormGPT sí que se trata de una herramienta real, pero algunos expertos sospechan de la legitimidad de FraudGPT, según recoge Wired. Además, tampoco hay pruebas de que estos modelos tengan más capacidades que otros chatbots como ChatGPT o Bard.
Las restricciones de chatbots como ChatGPT o Bard se pueden saltar para cometer delitos, según los investigadores
Como decimos, chatbots como el de OpenAI o el de Google cuentan con una serie de mecanismos de seguridad para evitar su uso fraudulento. Por ejemplo, si pedimos a ChatGPT que haga un virus para robar datos bancarios, la máquina nos advertirá de que no nos puede ayudar a delinquir.
Pero estas limitaciones también se pueden saltar si introducimos una serie de instrucciones específicas. Esa es la conclusión a la que ha llegado una investigación de la Universidad Carnegie Mellon, en Estados Unidos, que asegura que añadiendo determinados comandos a nuestras instrucciones es posible emplear un chatbot para usos fraudulentos, según recoge Wired.
Los investigadores inciden en que las mismas líneas de comando tienen efectos en diferentes programas como ChatGPT, Bard o Claude, entre otros. Tras insertar este código estas herramientas responden a preguntas con fines delictivos, como instrucciones para fabricar drogas o hacer que una persona desaparezca. Compañías como OpenAI, Google o Anthropic declaran estar trabajando en estas vulnerabilidades, mientras que uno de los autores del estudio, Zico Kolter, asegura que “no hay forma que conozcamos de arreglar" esta brecha de seguridad, asegura Wired.