Microsoft Tay

Microsoft si scusa per Tay, l’IA andata fuori controllo

Cosimo Alfredo Pina -

Un’avventura durata ben poco quella di Tay, l’intelligenza artificiale di Microsoft progettata per simulare una giovane interlocutrice virtuale. Sono infatti bastaste poche ore su Twitter per trasformare Tay in un essere razzista, omofobo o, nel migliore dei casi, decisamente maleducato.

Stando a quanto riportato nonostante gli sforzi posti nel cercare di arginare questo genere di problemi, un “attacco coordinato”, che ha sfruttato una falla non ben specificata, ha trasformato Tay da simpatica teenager che risponde con emoji e gergo da chat in mostro senza peli sulla lingua.

LEGGI ANCHE: Perché la vittoria di AlphaGo, l’IA di Google, è così importante?

Per questo Microsoft, oltre ad aver ovviamente rimosso tutti i contenuti offensivi e tolto la facoltà di parola a Tay, si è pubblicamente scusata.

“Tay ha twittato frasi ed immagini riprovevoli ed inappropriate. Prendiamo piena responsabilità per non aver previsto questa possibilità in tempo. Abbiamo imparato la lezione […] e stiamo lavorando duramente per risolvere la vulnerabilità esposta dall’attacco a Tay.”

Microsoft si dice comunque pronta a riportare Tay in vita spiegando come la sfida sia tanto tecnica quanto sociale. L’IA dietro alla teenager su Twitter sarà messa nuovamente a dura prova dal team di Microsoft che con questo progetto vuole “contribuire ad un Internet che rappresenti il meglio, non il peggio, dell’umanità”.

Un obiettivo decisamente lodevole, ma che forse non sarà così facile da raggiungere, soprattutto se l’innocente IA sarà nuovamente presa di mira dai soliti troll individui.

Via: The Next WebFonte: Microsoft
  • Peccato non averla scoperta prima che la chiudessero, mi sarei fatto due risate…

    • xRaska

      microsoft non avrebbe dovuto cancellarla ahahahahah. Sarebbe stato veramente esilarante vedere come avrebbe continuato a rispondere alla gente