Des centaines de jailbreaks ChatGPT en vente sur des « forums fantômes » au milieu du boom de la criminalité liée à l’IA

Des centaines de jailbreaks ChatGPT en vente sur des « forums fantômes » au milieu du boom de la criminalité liée à l’IA

ChatGPT a massivement perturbé le paysage technologique moderne, mais avec les nouvelles technologies d’IA, de nouvelles vulnérabilités apparaissent, comme le découvre Kaspersky dans un nouveau rapport.

L’ engouement pour ChatGPT et l’IA ne semble montrer aucun signe d’arrêt, le CES 2024 présentant des dizaines de nouveaux appareils axés sur l’IA. Mais l’une des plus grandes applications d’IA de la planète, ChatGPT, s’est avérée héberger plusieurs vulnérabilités qui vous permettent de sauter par-dessus ses garde-fous de sécurité intégrés, comme l’a montré un nouveau rapport de la société de sécurité Kaspersky (via The Register ).

Entre janvier et décembre 2023, des rapports montrent un boom de l’utilisation de GPT pour créer des logiciels malveillants, qui s’exécutent sur le domaine ChatGPT. Même si Kaspersky note qu’aucun malware de ce type n’est encore apparu, il reste une menace pour l’avenir.

Il montre également comment ChatGPT peut être utilisé pour aider à la criminalité, ChatGPT générant du code pour résoudre les problèmes qui surviennent lors du vol de données utilisateur. Kaspersky note que ChatGPT peut abaisser la barrière d’entrée pour les utilisateurs cherchant à utiliser les connaissances de l’IA à des fins malveillantes. « Des actions qui nécessitaient auparavant une équipe de personnes ayant une certaine expérience peuvent désormais être réalisées à un niveau élémentaire, même par des débutants. » Kaspersky le note dans son rapport.

Invites de jailbreak achetées et vendues

Quelqu'un utilisant ChatGPT sur un ordinateur portable
Freepik

Les jailbreaks ChatGPT ne sont pas nouveaux, comme l’ exploit « Grandma » qui a gagné en notoriété l’année dernière. Cependant, bon nombre de ces exploits ont désormais été corrigés par OpenAI . Mais ils existent toujours et sont en vente, si vous savez où chercher. Le rapport de Kaspersky affirme qu’au cours de l’année 2023, « 249 offres de distribution et de vente de tels ensembles d’invites ont été trouvées ».

Ces invites de jailbreak seraient courantes et trouvées par les utilisateurs de « plateformes sociales et les membres de forums fantômes ». Cependant, la société de sécurité note que toutes les invites ne sont pas conçues pour effectuer des actions illégales et que certaines sont utilisées pour obtenir des résultats plus précis.

Le rapport continue d’indiquer qu’il est simple d’obtenir des informations de ChatGPT qui sont généralement restreintes, il suffit de les demander à nouveau.

Le rapport continue d’indiquer que ChatGPT peut également être utilisé dans des scénarios de tests d’intrusion, ainsi que dans l’utilisation du LLM de base dans des modules « maléfiques » qui cherchent à nuire et se concentrent sur des activités illicites.

Boom de la criminalité liée à l’IA

Le nombre de réclamations ChatGPT « dupées » ou « méchantes » de ChatGPT est en augmentation, car elles sont uniquement conçues pour hameçonner et diffuser les données des utilisateurs. Cela peut être associé au nombre de comptes ChatGPT Plus volés et vendus illégalement sur le dark web. Le nombre de publications liées à l’IA a culminé en avril 2023, mais continue d’intéresser les utilisateurs de forums malveillants. Kaspersky termine son rapport par un avertissement sévère :

« Il est probable que les capacités des modèles de langage atteindront bientôt un niveau permettant des attaques sophistiquées. »

D’ici là, n’oubliez pas de conserver vos informations personnelles aussi sûres et sécurisées que possible.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *