Nemmeno OpenAI riconosce i testi scritti dall'IA
La diffusione dell'IA generativa, soprattutto in fase di creazione di testi, sta creando un bel problema: come distinguere un articolo, un libro o una tesina scritta da un essere umano da uno strumento come ChatGPT?
Il compianto professor Giuseppe Levi, padre di Natalia Ginzburg e insegnante dei Nobel Rita Levi-Montalcini, Renato Dulbecco e Salvatore Luria, probabilmente esploderebbe nella sua solita espressione, resa celebre da Lessico Famigliare, per definire gli scritti dell'IA: "Vaniloquio!".
OpenAI però come altri si è posta il problema e ha sviluppato uno strumento, ovviamente basato sull'IA, che avrebbe dovuto consentire di discernere uno scritto umano da uno generato dall'IA, per poi scoprire che non è affidabile e non riesce a distinguere le due fonti.
Lo strumento, definito "AI classifier for indicating AI-written text" (Classificatore IA per indicare il testo scritto dall'IA), è stato lanciato il 31 gennaio di quest'anno ma a seguito dei ripetuti feedback negativi persino OpenAI ha dovuto ammettere la sua inadeguatezza e lo ha ritirato.
Il problema era soprattutto il fatto che rilevasse dei falsi positivi, ovvero etichettava il testo scritto dall'uomo come generato dall'IA, e questo nel campo dell'intelligenza artificiale è visto un po' come il peggiore dei difetti (uno degli esempi che si fa spesso è un software in grado di valutare la bontà dei paracadute: se dà un falso positivo rischia di causare la morte di un paracadutista).
Per questo motivo, la società il 20 luglio ha deciso di chiudere il progetto, e sta "attualmente ricercando tecniche di provenienza più efficaci per il testo". Ma come potete immaginare il problema non riguarda solo i testi scritti, e OpenAI ha dichiarato che prevede di "sviluppare e implementare meccanismi che consentano agli utenti di capire se il contenuto audio o visivo è generato dall'IA".
Il problema è che non si sa quale possano essere questi meccanismi. Il successo di ChatGPT e soci hanno avviato una serie di discussioni, non solo per quanto riguarda la capacità dell'IA di scrivere articoli, libri o romanzi, ma anche la sua influenza sul settore dell'educazione (a New York le scuole ne hanno prima vietato e poi consentito l'utilizzo, giudicandolo importante per il mondo del lavoro).
Un'altra questione riguarda la disinformazione. Di recente un gruppo di appassionati su Reddit ha scoperto che un sito di notizie usava l'IA per scrivere articoli e lo ha ingannato creando un finto personaggio di WoW. Ma è una goccia in un oceano, anzi un universo senza regole, dove ormai molte case editrici utilizzano l'IA per produrre un volume impressionante di articoli a basso costo, senza controllo. E quel che è peggio alcuni studi mostrano come testi generati dall'IA (i tweet ad esempio), potrebbero essere più convincenti di quelli scritti dagli esseri umani, soprattutto per le nuove generazioni. Vaniloquio, appunto, ma travestito da informazione.
E perché vaniloquio? Perché l'IA non "sa" quello che sta scrivendo, mette solo insieme parole che "stanno bene" in base a una serie di congetture su base statistica sviluppate analizzando miliardi di scritti umani. È brava, impressionante, ma ha senso?
E tutto sarebbe ancora accettabile se almeno l'azienda che ha avviato questa mania (o follia?) sapesse cosa sta succedendo o almeno avesse delle risposte per affrontare il problema.
Invece un silenzio assordante, interrotto a mala pena dalle iniziative dell'UE per controllare lo sviluppo dell'IA e della Federal Trade Commission per comprendere come OpenAI controlla le informazioni e i dati.
Quel che è certo è che la "Tana del Bianconiglio" è probabilmente più profonda di quanto pensiamo, e potremmo ritrovarci in un Paese delle Meraviglie dove si parla solo per vaniloqui: è quello che vogliamo?