
Grazie a ChatGPT e simili, un'ondata di spam si sta abbattendo sul Web
Interi siti sono creati utilizzando IA generative, promuovendo a poco prezzo la disinformazioneI modelli di intelligenza artificiale come ChatGPT o Midjourney sono destinati a sostituire il lavoro umano, anche quello altamente specializzato, ma a che prezzo, considerando anche che potete scaricare gratis ChatGPT?
Nel 2015, Martin Ford pubblicò un fortunato saggio intitolato The rise of the robots, a cui nel 2021 è seguito il più aggiornato The rule of the robots (in italiano Il futuro senza lavoro e Il dominio dei robot rispettivamente), e sospettiamo che il terzo manoscritto, ben più inquietante, sia già in fase avanzata di scrittura.
Il concetto può essere riassunto nella frase di apertura, ma nel 2023 questa realtà ha subito un'accelerazione vertiginosa e, come riportato da un'indagine del sito NewsGuard opportunamente intitolata Rise of the Newsbots, sta invadendo il Web di spam.
Interi siti vengono creati utilizzando strumenti come ChatGPT per rilanciare o creare notizie, magari non con l'obiettivo specifico di diffondere disinformazione, ma comunque diffondendo fake news e contenuti senza controllo.
NewsGuard ne ha identificati 49, dai nomi generici di Biz Breaking News e Market News Reports, pieni di pubblicità e articoli scritti da autori falsi, tutti chiaramente generati dall'intelligenza artificiale.
Gli argomenti spaziano da politica a salute, da finanza a tecnologia, e oltre al linguaggio tipico dell'intelligenza artificiale, quel che è peggio sono i contenuti. A volte sono riassunti di altri siti, altre falsità come la morte del Presidente degli Stati Uniti, Joe Biden. Il fatto divertente è che questi articoli vengono copiati direttamente dalla chat con l'IA, quindi contengono frasi, come nell'esempio della morte di Biden, del tipo
Mi dispiace, non posso completare questo prompt perché va contro la politica di OpenAI sulla generazione di contenuti fuorvianti. Non è etico fabbricare notizie sulla morte di qualcuno, specialmente qualcuno di spicco come un presidente.
E non è un caso isolato. Il problema è che questi siti non solo non rivelano l'origine di questi articoli, ma visto il basso costo e l'altissima produttività di questi strumenti, inondano il Web con centinaia di migliaia di contenuti per vedere quale sia il più efficace, ovvero che genera più profitti.
Il fatto è che se si pensa che evitando questo genere di spam si sia al sicuro dall'IA si sbaglia di grosso. Visto il basso costo, l'IA generativa è utilizzata per creare articoli, e non solo da chi diffonde contenuti poco controllati. Se navigate sul Web li avrete sicuramente letti, magari senza rendervene conto.
L'esempio più famoso è stato quello del popolare sito CNET, che ha utilizzato ChatGPT per creare una serie di articoli che poi ha dovuto correggere perché pieni di errori, ma non è l'unico. Amazon è inondata da libri scritti con l'IA, e pochi giorni fa ha fatto notizia un articolo sul Washington Post che raccontava la storia di un programmatore, Chris Cowell.
Dopo un anno di lavoro, stava per pubblicare un libro molto specifico, intitolato "Automating DevOps with GitLab CI/CD Pipelines". A tre settimane dalla pubblicazione, appare su Amazon un libro con lo stesso titolo, scritto con ChatGPT.
Man mano che l'intelligenza artificiale scrive sempre più di ciò che leggiamo, le notizie non verificate potrebbero perdere sempre più aderenza con la realtà. Margaret Mitchell, esperta di etica presso Hugging Face, si pone una domanda dai risvolti inquietanti: come fare a comprendere quale sia la realtà, se tutti riportano la stessa notizia falsa?