Meta rilascia un nuovo modello linguistico di AI, ma restano i pregiudizi verso le minoranze

La lezione di Timnit Gebru non ha ancora attecchito
Meta rilascia un nuovo modello linguistico di AI, ma restano i pregiudizi verso le minoranze
Alessandro Nodari
Alessandro Nodari

L'intelligenza artificiale (IA) è uno degli strumenti più usati ed efficaci per assolvere una serie di funzioni alla base della società attuale. Pensiamo alla ricerca sul web, alla guida autonoma, alle transazioni di denaro, ma è impossibile elencarne le applicazioni in maniera esaustiva

Il problema però è che i modelli di IA si basano su una fase di apprendimento, da cui ricavano il processo cognitivo che consente loro di effettuare in seguito le loro operazioni. Come evidenzia da tempo Timnit Gebru, una delle maggiori studiose del settore (e che è stata licenziata da Google proprio per le sue posizioni), la il cosiddetto "allenamento" implica l'assunzione di una serie di pregiudizi dettati dai dati che vengono forniti, e che risultano poi evidenti nel momento in cui l'IA (specialmente di grandi dimensioni) dà i suoi risultati.

Questo rischio è intrinseco alla tecnologia, e a quanto pare lo hanno scoperto a loro spese anche i ricercatori di Meta. La società ha infatti recentemente rilasciato un nuovo modello linguistico di grandi dimensioni di IA, chiamato OPT-175B, capace di un'elaborazione del linguaggio estremamente naturale e accurata, ma pessimo dal punto di vista dei pregiudizi verso le minoranze. In due parole, potenzialmente sessista e razzista

Secondo i ricercatori, infatti, il modello ha "un'elevata propensione a generare un linguaggio tossico e rafforzare gli stereotipi dannosi, anche quando viene fornito un suggerimento relativamente innocuo". Ma non solo. In questo senso, il modello è addirittura peggio dei suoi predecessori PaLM e Davinci e la causa è probabilmente da imputarsi al fatto che il modello sia stato allenato sulle conversazioni sui social media, che aumentano la tendenza del modello a riconoscere e generare incitamento all'odio.

Per affrontare la questione, i ricercatori hanno aperto l'uso del modello ad altri studiosi, ma il nodo di base resta, ed è difficile una soluzione senza ripensare completamente la struttura e la fase di apprendimento.

Via: Vice
Fonte: Arxiv
Mostra i commenti