ChatGPT ora può "ricordare" chi siete, ma non sa bene che farsene
La funzione, chiamata istruzioni personalizzate, è stata lanciata in beta ma non ancora in Unione Europea e Regno UnitoChatGPT (sapete come scaricarlo?) vuole essere il vostro chatbot IA d'eccellenza, e per superare le alternative sul mercato OpenAI ha appena introdotto in beta una novità che permetterà allo strumento di "conoscervi" meglio.
La funzione, chiamata istruzioni personalizzate e al momento lanciata in beta, in pratica vi permetterà di dire al chatbot alcune informazioni che volete che lui ricordi, in modo da non dover creare a ogni chat un contesto per orientarlo meglio nella risposta.
Come infatti afferma Joanne Jang, che lavora sui comportamenti modello e sul prodotto in OpenAI, al momento quando iniziate un nuovo thread il chatbot dimentica tutto quello che vi siete detti in passato, e che dovete ripetere in ogni conversazione. Per esempio, se siete insegnanti di terza elementare, vorreste che a ogni domanda ChatGPT adatti la risposta alla fascia giusta di età (sembra che ChatGPT sia molto usato dagli insegnanti per preparare le lezioni).
Queste istruzioni sono quindi una sorta di preambolo permanente alle vostre domande, in modo da creare un contesto per ChatGPT e quindi poter creare domande più corte.
A questo punto però ci sono due problemi. Il primo è che dovreste sapere esattamente quali dati fornire a ChatGPT, e il secondo è che queste informazioni aggiungono complessità alla domanda, e il chatbot potrebbe sbagliare più facilmente.
Ed è proprio quello che sta succedendo in questo momento. Per esempio, il sito The Verge, che ha assistito alla demo della nuova funzione, ha riportato che Jang ha inserito nelle sue istruzioni personalizzate che era una programmatrice che lavorava nel linguaggio Golang.
Quando però ha chiesto a ChatGPT una ricetta di biscotti con gocce di cioccolato, che ovviamente non ha nulla a che fare con la programmazione o Golang, ChatGPT ha risposto riportando una ricetta formattata in codice Golang. Alla richiesta di Jang "Ehi, cosa succede", ChatGPT ha risposto in modo più pertinente.
Secondo Jang, è questo il motivo per cui le istruzioni personalizzate sono in beta, e quando saranno pronte dovrebbero consentire risposte più dinamiche e interattive, oltre ad essere modificabili facilmente.
OpenAI si è anche assicurata che le istruzioni personalizzate non possano ignorare gli strumenti di sicurezza del sistema (per esempio "come uccidere una persona") e afferma che si sforzerà di rimuovere informazioni di identificazione personale.
Ma come abilitare la funzione? Disponibile solo per gli abbonati a ChatGPT Plus, potrete abilitarla nelle impostazioni, ma al momento non è disponibile in Unione Europea e Regno Unito (ma dovrebbe arrivare presto).
Il punto è però che quando usiamo ChatGPT OpenAI ci chiede di prestare attenzione alle informazioni personali che riveliamo, e ora ci chiede di inserirle, affermando che si sforzerà di eliminarle per non darle in pasto al modello. Per quanto utile, l'equilibrio precario di questa funzione sembra in qualche misura ricapitolare il nostro rapporto con l'IA: conoscerci ma solo fino a un certo punto?