Guadagnare migliaia di dollari con ChatGPT è possibile, ma non per tutti

La caccia al bug può valere fino a 20.000$: siete in grado di partecipare?
Nicola Ligas
Nicola Ligas Tech Master
Guadagnare migliaia di dollari con ChatGPT è possibile, ma non per tutti

ChatGPT, il più celebre chatbot basato su IA generativa, è senz'altro sotto la luce dei riflettori, e tanto più un servizio è popolare, quanto più è a rischio di potenziali attacchi informatici (oltre che delle attenzioni degli organi regolatori, ma questo lo sappiamo già). Per questo motivo OpenAI, l'organizzazione che lo sviluppa, ha deciso di offrire ricompense fino a 20.000$ in contanti a coloro che scoveranno delle vulnerabilità nelle sue API, incluse quindi anche quelle di ChatGPT.

Come funziona il Bug Bounty di OpenAI

La caccia al bug lanciata da OpenAI riguarda tutti i servizi dell'azienda, non solo ChatGPT, e promette di far guadagnare agli hacker più in gamba cifre che vanno da 200 a 6.500 dollari per le vulnerabilità "normali", fino ad appunto a 20.000 dollari, ma solo per le "scoperte eccezionali". Chi creda di essere in grado di scovarne qualcuna, o lo abbia già fatto, potrà segnalarlo tramite bugcrowd. C'è però un'illustre eccezione.

Eventuali jailbreak di ChatGPT o qualsiasi cosa che alteri il suo normale funzionamento, sono infatti esclusi dal programma. Modificare insomma i normali filtri del chatbot, che gli impediscono di dare "risposte proibite" (es. come costruire una bomba, come creare codice malevolo, ecc.), non rientra negli scopi di questa iniziativa

I problemi di sicurezza del modello in sé non si adattano bene a un programma di bug bounty, secondo OpenAI, proprio perché non si tratta di bug che possono essere risolti singolarmente. Per garantire quindi che anche potenziali problemi di questo tipo possano essere affrontati tempestivamente occorre segnalarli tramite un form dedicato, ma in ogni caso scovarli non vi farà guadagnare un centesimo.

La differenza tra bug del codice e del modello può sembrare triviale, ma in realtà è molto importante, e alla base proprio del concetto stesso di IA generativa. Se finora gli sviluppatori dovevano preoccuparsi solo dei possibili exploit del proprio codice, con l'intelligenza artificiale il problema si sposta anche al frutto dell'elaborazione di tale software.

E considerando i potenziali problemi ancora più gravi che questo potrebbe causare, forse un bug bounty ad-hoc potrebbe non essere proprio una bruttissima idea. Del resto abbiamo già visto proprio in Italia che le regole cui un sistema del genere deve sottostare sono molteplici, e ogni sua possibile alterazione rischia solo di complicare ancora di più le cose.