Hunderte von ChatGPT-Jailbreaks stehen inmitten des KI-Kriminalitätsbooms in „Schattenforen“ zum Verkauf

ChatGPT hat die moderne Technologielandschaft massiv verändert, aber mit neuen KI-Technologien kommen auch neue Schwachstellen, wie Kaspersky in einem neuen Bericht feststellt.

Die Begeisterung für ChatGPT und KI scheint kein Ende zu zeigen, da auf der CES 2024 Dutzende neuer Geräte mit Fokus auf KI vorgestellt werden. Es wurde jedoch festgestellt, dass ChatGPT, eine der größten KI-Anwendungen der Welt, mehrere Schwachstellen aufweist, die es Ihnen ermöglichen, über die eingebauten Sicherheitsleitplanken zu springen, wie ein neuer Bericht des Sicherheitsunternehmens Kaspersky (über The Register ) zeigt.

Zwischen Januar und Dezember 2023 zeigen Berichte einen Boom bei der Verwendung von GPT zur Erstellung von Malware, die auf der ChatGPT-Domäne ausgeführt wird. Kaspersky weist zwar darauf hin, dass bisher noch keine Schadsoftware dieser Art aufgetaucht sei, sie bleibe aber auch in Zukunft eine Bedrohung.

Außerdem wird gezeigt, wie ChatGPT zur Unterstützung von Straftaten eingesetzt werden kann, indem ChatGPT Code generiert, um Probleme zu lösen, die beim Diebstahl von Benutzerdaten auftreten. Kaspersky weist darauf hin, dass ChatGPT die Eintrittsbarriere für Benutzer senken kann, die das Wissen der KI für böswillige Zwecke nutzen möchten. „Aktionen, für die früher ein Team aus erfahrenen Leuten erforderlich war, können jetzt auch von Anfängern auf einem einfachen Niveau durchgeführt werden.“ Kaspersky stellt in seinem Bericht fest.

Jailbreak-Eingabeaufforderungen gekauft und verkauft

Jemand nutzt ChatGPT auf einem Laptop
Freepik

ChatGPT- Jailbreaks sind nichts Neues, wie zum Beispiel der „Grandma“-Exploit , der letztes Jahr Berühmtheit erlangte. Allerdings wurden viele dieser Exploits inzwischen von OpenAI blockiert . Aber es gibt sie immer noch und sie sind im Angebot, wenn Sie wissen, wo Sie suchen müssen. Kasperskys Bericht behauptet, dass im Jahr 2023 „249 Angebote zum Vertrieb und Verkauf solcher Prompt-Sets gefunden wurden“.

Diese Jailbreak-Eingabeaufforderungen kommen angeblich häufig vor und werden von Benutzern „sozialer Plattformen und Mitgliedern von Schattenforen“ gefunden. Das Sicherheitsunternehmen weist jedoch darauf hin, dass nicht alle Eingabeaufforderungen darauf ausgelegt sind, illegale Aktionen auszuführen, und dass einige dazu dienen, genauere Ergebnisse zu erhalten.

In dem Bericht heißt es weiterhin, dass es einfach sei, Informationen von ChatGPT zu erhalten, die normalerweise eingeschränkt sind, indem man einfach erneut danach fragt.

In dem Bericht heißt es weiterhin, dass ChatGPT auch in Penetrationstestszenarien eingesetzt werden kann, ebenso wie die Verwendung des Basis-LLM in „bösen“ Modulen, die Schaden anrichten und sich auf illegale Aktivitäten konzentrieren.

Boom der KI-Kriminalität

Die Zahl „betrügerischer“ oder „bösartiger“ ChatGPT-Behauptungen nimmt zu, da sie nur darauf abzielen, Benutzerdaten zu fälschen und zu verbreiten. Dies kann mit der Anzahl der gestohlenen ChatGPT Plus- Konten einhergehen, die illegal im Dark Web verkauft werden. Die Zahl der KI-bezogenen Beiträge erreichte im April 2023 ihren Höhepunkt, bleibt aber für Nutzer bösartiger Foren weiterhin von Interesse. Kaspersky beendet seinen Bericht mit einer deutlichen Warnung:

„Es ist wahrscheinlich, dass die Fähigkeiten von Sprachmodellen bald ein Niveau erreichen werden, auf dem anspruchsvolle Angriffe möglich werden.“

Denken Sie bis dahin daran, Ihre persönlichen Daten so sicher wie möglich aufzubewahren.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert