Cientos de jailbreak de ChatGPT a la venta en “foros en la sombra” en medio del auge del crimen de IA

Cientos de jailbreak de ChatGPT a la venta en “foros en la sombra” en medio del auge del crimen de IA

ChatGPT ha alterado enormemente el panorama tecnológico moderno, pero con las nuevas tecnologías de inteligencia artificial surgen nuevas vulnerabilidades, como descubre Kaspersky en un nuevo informe.

La moda de ChatGPT y la IA no parece dar señales de detenerse, y CES 2024 presenta docenas de nuevos dispositivos centrados en la IA. Pero se ha descubierto que una de las aplicaciones de inteligencia artificial más grandes del planeta, ChatGPT, alberga varias vulnerabilidades que le permiten saltar sus barreras de seguridad incorporadas, como lo muestra un nuevo informe de la firma de seguridad Kaspersky (a través de The Register ).

Entre enero y diciembre de 2023, los informes muestran un auge en el uso de GPT para crear malware, que se ejecuta en el dominio ChatGPT. Si bien Kaspersky señala que aún no ha surgido ningún malware de este tipo, sigue siendo una amenaza en el futuro.

También muestra cómo se puede utilizar ChatGPT para ayudar en delitos, generando código ChatGPT para resolver problemas que surgen al robar datos de usuarios. Kaspersky señala que ChatGPT puede reducir la barrera de entrada para los usuarios que buscan utilizar el conocimiento de la IA con fines maliciosos. “Acciones que antes requerían un equipo de personas con cierta experiencia, ahora pueden realizarlas a un nivel básico incluso los novatos”. Kaspersky señala en su informe.

Avisos de jailbreak comprados y vendidos

Alguien que usa ChatGPT en una computadora portátil
Freepik

Los jailbreaks de ChatGPT no son nada nuevo, como el exploit «Grandma» que ganó notoriedad el año pasado. Sin embargo, OpenAI ha solucionado muchos de estos exploits . Pero todavía existen y están a la venta, si sabes dónde buscar. El informe de Kaspersky alega que durante 2023 “se encontraron 249 ofertas para distribuir y vender dichos conjuntos de avisos”.

Estas indicaciones de jailbreak son supuestamente comunes y las encuentran usuarios de “plataformas sociales y miembros de foros en la sombra”. Sin embargo, la empresa de seguridad señala que no todas las indicaciones están diseñadas para realizar acciones ilegales y algunas se utilizan para obtener resultados más precisos.

El informe continúa afirmando que obtener información de ChatGPT que generalmente está restringida es simple, simplemente pídela nuevamente.

El informe continúa afirmando que ChatGPT también se puede usar en escenarios de pruebas de penetración, así como también usar el LLM básico en módulos «malvados» que buscan dañar y se centran en actividades ilícitas.

Auge del crimen por IA

El número de reclamos de ChatGPT «engañados» o ChatGPT «malvados» está aumentando, ya que solo están diseñados para realizar phishing y difundir datos de los usuarios. Esto se puede combinar con la cantidad de cuentas ChatGPT Plus robadas que se venden ilícitamente en la web oscura. El número de publicaciones relacionadas con la IA alcanzó su punto máximo en abril de 2023, pero sigue siendo de interés constante para los usuarios de foros maliciosos. Kaspersky finaliza su informe con una severa advertencia:

«Es probable que las capacidades de los modelos lingüísticos pronto alcancen un nivel en el que sean posibles ataques sofisticados».

Hasta entonces, recuerde mantener sus datos personales lo más seguros posible.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *