Redacción. Investigadores de la plataforma de seguridad, Netenrich, descubrieron recientemente FraudGPT, una herramienta de Inteligencia Artificial (IA) que se distribuye en Telegram y vende en la darkweb como un bot sin limitaciones.
FraudGPT, es el último ejemplo detectado que utiliza la tecnología de ‘chatbots’ basados en la IA generativa para incentivar la creación de software maliciosos con una herramienta que se vende en foros de la Internet oscura (darkweb) y en Telegram.
El chatbot de OpenAI, ChatGPT, puede emplearse para crear malware o software maliciososs a partir de su función de apoyo para la escritura de código, y pese a los filtros de seguridad que sus responsables han implantado, como han demostrado investigaciones como las de Check Point y Forcepoint.
La nueva herramienta FraudGPT permite estafar y hackear fácilmente a las víctimas usando IA https://t.co/rO9baYicvN pic.twitter.com/4miSb9VQ7G
— IICyberSecurity (@iicsorg) July 26, 2023
Sin embargo, la popularidad de la IA generativa y de los chatbots ha supuesto la aparición de herramientas diseñadas específicamente para poner sus capacidades de programación al servicio de la creación de malware, como ocurre con FraudGPT.
Los investigadores de Netenrich han descubierto FraudGPT, una herramienta de IA que se distribuye en canales de Telegram desde el pasado 22 de julio y que se vende y promociona en la darkweb como “un bot sin limitaciones”.
Con este chatbot, cualquier actor de amenazas puede generar códigos maliciosos. También, páginas de phishing, o buscar vulnerabilidades y filtraciones, entre otros contenidos dañinos.
La plataforma de seguridad Netenrich se topó con información sobre este chatbot en un foro de hackers. Asimismo, consiguieron acceder a una lista de herramientas que esta inteligencia artificial maligna podría realizar.
Lea también: Escritor predijo existencia de la Inteligencia Artificial en 1964
¿Que funciones puede hacer?
Entre las opciones disponibles para quienes no tienen problema en estafar y provocar daños a personas e instituciones encontramos:
- Escribir código malicioso.
- Crear malware indetectable.
- Generar páginas de phishing (método para intentar recopilar información personal utilizando correos electrónicos).
- Redactar páginas y cartas de estafa.
- Proporcionar números de identificación bancarios que no tengan el sello Verified by Visa.
- Aprender a codificar y hackear.
- Encontrar filtraciones y vulnerabilidades.
Además, con anterioridad se detectó el caso de WormGPT, otra alternativa maliciosa a ChatGPT similar a FraudGPT que se lanzó el 13 de julio.