Le IA come ChatGPT non sanno tenere i segreti. E Samsung le banna

La decisione di vietare l'utilizzo delle IA ai dipendenti dopo un clamoroso leak a inizio aprile
Alessandro Nodari
Alessandro Nodari
Le IA come ChatGPT non sanno tenere i segreti. E Samsung le banna

Se c'è una cosa che dovremmo tenere presente interagendo con le intelligenze artificiali (IA) di tipo generativo come ChatGPT, è che qualunque cosa condividiamo con esse verrà poi conservato e utilizzato per addestrare ulteriormente il modello (ecco come funziona Bing Chat e come funziona Inworld AI). 

Lo hanno scoperto a loro spese alcuni dipendenti di Samsung, che hanno condiviso segreti aziendali con il popolare bot, e il gigante coreano è subito corso ai ripari vietandone l'utilizzo

Ma cos'è successo esattamente? Fino a pochi giorni fa, Samsung consentiva ai propri dipendenti di utilizzare ChatGPT per controllare il codice sorgente, ma ai primi di aprile alcuni ingegneri della divisione semiconduttori di Samsung hanno divulgato informazioni sensibili.

Secondo The Economist Korea sono tre i casi rilevati. In uno, un dipendente ha incollato un codice sorgente riservato nella chat per verificare la presenza di errori. In un altro, è stato condiviso il codice con ChatGPT per farlo ottimizzare. Un terzo ha invece condiviso una registrazione di una riunione da convertire in appunti per una presentazione.

Tutte informazioni ora disponibili a ChatGPT per allenarsi. 

Bloomberg rivela che, in virtù di questi incidenti, Samsung si è affrettata a imporre limiti di utilizzo delle IA da parte dei dipendenti. La paura infatti è che i dati non solo vengano archiviati su server esterni, rendendone difficile il recupero e l'eliminazione, ma che potrebbero finire per essere divulgati ad altri utenti. 

Le nuove regole di Samsung vietano l'uso di sistemi di IA generativa su computer, tablet e telefoni di proprietà dell'azienda, nonché sulle sue reti interne, ma non sui dispositivi dell'azienda venduti ai consumatori. Pena, il licenziamento.

La soluzione è solo temporanea, in quanto, stando sempre a Bloomberg, il gigante coreano starebbe creando i propri strumenti interni di IA per la traduzione e il riepilogo dei documenti, nonché per lo sviluppo software, oltre a modi per bloccare il caricamento di informazioni aziendali sensibili su servizi esterni.

Il fatto interessante è che i timori di Samsung siano condivisi non solo tra i suoi dipendenti (un sondaggio interno all'azienda riporta come il 65% dei dipendenti consideri le IA generative un pericolo per la sicurezza), ma anche tra molte grandi aziende. 

Prima di Samsung, infatti, JPMorgan Chase & Co., Bank of America Corp. e Citigroup Inc hanno vietato l'utilizzo delle IA ai loro dipendenti, divieto che perdura nonostante il mese scorso ChatGPT abbia aggiunto una modalità "in incognito" che consente di impedire l'utilizzo delle chat per l'addestramento del modello.

Insomma, sembra che le grandi società non siano ancora pronte ad affrontare questa nuova era di stretta interazione con l'IA, ma che serva da monito a tutti noi la prossima volta che interagiremo con ChatGPT.

Mostra i commenti