News

I criminali informatici ricorrono a Telegram per aggirare ChatGPT

Check Point Research (CPR), la divisione Threat Intelligence di Check Point Software, ha dimostrato che i criminali informatici utilizzano i bot di Telegram per aggirare le restrizioni poste da ChatGPT, nei forum underground. I bot utilizzano le API di OpenAI per consentire la creazione di e-mail o di codici malevoli.

Gli aggressori che creano i bot, attualmente, concedono fino a 20 query gratuite per poi richiedere successivamente un pagamento di 5,50$ per ogni 100 query.

ChatGPT Bot-as-a-Service su Telegram
CPR ha scovato alcuni annunci di bot di Telegram nei forum clandestini. Questi bot utilizzano l’API di OpenAI per consentire agli aggressori di creare e-mail o codici malevoli, concedendo 20 query gratuite, per poi addebitare 5,50$ a ogni 100 query.

Figura 1. Pubblicità del forum underground del bot OpenAI su Telegram

Figura 2. Esempio di un’email di phishing creata per dimostrare la possibilità di utilizzare le API di OpenAI senza limitazioni

Figura 3. Esempio della possibilità di creare un codice malware senza restrizioni anti-abuso in un bot Telegram utilizzando l’API OpenAI

Figura 4. Modello di business del canale Telegram basato sull’API ChatGPT

Script per aggirare le restrizioni ChatGPT
CPR ha anche osservato che i criminali informatici creano script di base che utilizzano le API di OpenAI per evitare limitazioni e le restrizioni anti-abuso.

Figura 5. Esempio di uno script che interroga direttamente l’API e aggira le restrizioni per creare malware

Sergey Shykevich, Threat Group Manager di Check Point Software:
“In quanto parte della sua content policy, OpenAI ha creato barriere e restrizioni per evitare la creazione di contenuti malevoli sulla sua piattaforma.

Tuttavia, i cybercriminali hanno le capacità per aggirare le restrizioni di ChatGPT, ed è in corso una discussione attiva nei forum clandestini che rivela come utilizzare le API di OpenAI per aggirare queste limitazioni.

A questo scopo vengono creati bot su Telegram che utilizzano l’API e che vengono pubblicizzati nei forum di hacking per aumentarne l’esposizione.

La versione attuale dell’API di OpenAI è utilizzata da applicazioni esterne e ha pochissime misure anti-abuso. Di conseguenza, consente la creazione di contenuti pericolosi, come e-mail di phishing e codici malware, senza le barriere imposte da ChatGPT per la propria interfaccia utente.

Dobbiamo essere consapevoli che i criminali informatici continueranno a cercare modi per aggirare le restrizioni di ChatGPT”.

Salvatore L.

Avvicinatosi al mondo videoludico grazie ad un Commodore64 alimentando in se la curiosità per il mondo Hi-Tech in particolar modo per tutto ciò che riguarda l' Hardware di un Computer. Dopo anni di collaborazioni con vari blog informatici Italiani nel 2012 apre il sito Hardware Mind.

Articoli Correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ho preso visione della Privacy Policy ed Autorizzo al trattamento dei dati personali.

Pulsante per tornare all'inizio