Centinaia di jailbreak ChatGPT in vendita nei “forum ombra” nel mezzo del boom della criminalità basata sull’intelligenza artificiale

ChatGPT ha sconvolto in modo massiccio il panorama tecnologico moderno, ma con le nuove tecnologie di intelligenza artificiale arrivano nuove vulnerabilità, come scopre Kaspersky in un nuovo rapporto.

La mania di ChatGPT e AI sembra non mostrare segni di fermarsi, con il CES 2024 che presenta dozzine di nuovi dispositivi incentrati sull’intelligenza artificiale. Ma è stato scoperto che una delle più grandi applicazioni di intelligenza artificiale del pianeta, ChatGPT, ospita diverse vulnerabilità che ti consentono di saltare oltre i suoi guardrail di sicurezza integrati, come ha dimostrato un nuovo rapporto della società di sicurezza Kaspersky (tramite The Register ).

Tra gennaio e dicembre 2023, i rapporti mostrano un boom nell’utilizzo di GPT per creare malware, che viene eseguito sul dominio ChatGPT. Anche se Kaspersky sottolinea che non è ancora emerso alcun malware di questo tipo, esso rimane comunque una minaccia per il futuro.

Mostra anche come ChatGPT può essere utilizzato per aiutare i crimini, con ChatGPT che genera codice per risolvere i problemi che sorgono quando si rubano i dati degli utenti. Kaspersky sottolinea che ChatGPT può abbassare la barriera d’ingresso per gli utenti che desiderano utilizzare la conoscenza dell’intelligenza artificiale per scopi dannosi. “Le azioni che prima richiedevano un team di persone con una certa esperienza ora possono essere eseguite a livello base anche dai principianti.” Kaspersky nota nel suo rapporto.

Il jailbreak richiede acquisti e vendite

Qualcuno che usa ChatGPT su un laptop
Freepik

I jailbreak di ChatGPT non sono una novità, come l’ exploit “Grandma” che ha guadagnato notorietà lo scorso anno. Tuttavia, molti di questi exploit sono stati ora bloccati da OpenAI . Ma esistono ancora e sono in vendita, se sai dove cercare. Il rapporto di Kaspersky sostiene che durante il 2023 “sono state trovate 249 offerte per distribuire e vendere tali set tempestivi”.

Questi suggerimenti per il jailbreak sono presumibilmente comuni e trovati dagli utenti di “piattaforme social e membri di forum ombra”. Tuttavia, la società di sicurezza sottolinea che non tutti i prompt sono progettati per eseguire azioni illegali e alcuni vengono utilizzati per ottenere risultati più precisi.

Il rapporto continua ad affermare che ottenere informazioni da ChatGPT che di solito è limitato è semplice, semplicemente chiedendolo di nuovo.

Il rapporto continua ad affermare che ChatGPT può essere utilizzato anche in scenari di test di penetrazione, nonché utilizzando il LLM di base in moduli “malvagi” che cercano di danneggiare e si concentrano su attività illecite.

Boom della criminalità basata sull’intelligenza artificiale

Il numero di affermazioni ChatGPT “dupe” o ChatGPT “malvagie” è in aumento, poiché sono progettate solo per effettuare phishing e trasmettere dati degli utenti. Questo può essere abbinato al numero di account ChatGPT Plus rubati venduti illegalmente sul dark web. Il numero di post relativi all’intelligenza artificiale ha raggiunto il picco nell’aprile 2023, ma rimane di costante interesse per gli utenti di forum dannosi. Kaspersky conclude il suo rapporto con un severo avvertimento:

“è probabile che le capacità dei modelli linguistici raggiungeranno presto un livello al quale diventeranno possibili attacchi sofisticati”.

Fino ad allora, ricordati solo di mantenere i tuoi dati personali il più sicuri e protetti possibile.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *