Apple contro la pedopornografia: le immagini su iCloud saranno controllate (aggiornato)

Un importante passo che tutela la privacy degli utenti, cercando al contempo di individuare i colpevoli.
Apple contro la pedopornografia: le immagini su iCloud saranno controllate (aggiornato)
Nicola Ligas
Nicola Ligas

A partire da questo autunno negli Stati Uniti, Apple utilizzerà una nuova tecnologia in tutti i suoi sistemi operativi (iOS, iPadOS, macOS e watchOS + specificamente in iMessage) per rilevare contenuti CASM (child sexual abuse material), ovvero materiale pedopornografico e non solo.

Il progetto ha già una pagina dedicata sul sito dell'azienda, volta a spiegarne gli intenti ed anche come la privacy degli utenti sia comunque tutelata.

Ad esempio, prima che un'immagine venga caricata (crittografata) su iCloud, questa verrà scansionata ed Apple riceverà una segnalazione in merito solo se i voucher crittografici (caricati su iCloud assieme alla foto stessa) per un dato account supereranno una certa soglia di corrispondenza con contenuti di CASM noti. In un certo senso è quello che vorrebbe fare Facebook (per tutt'altra ragione) con i messaggi di WhatsApp: "leggerli", senza leggerli

Sia chiaro poi che un errore isolato non genera per forza un allarme, tanto che Apple punta ad un tasso di errore di un falso positivo per trilione di utenti all'anno, ovvero bassissimo.

E sia chiaro inoltre che per anni sia Apple che Google (che altri) hanno usato metodi simili per rilevare immagini di abuso su minori via email. L'iniziativa odierna di Apple applicherà lo stesso principio anche alle immagini memorizzate su iCloud, anche se queste non sono mai state condivise con nessuno.

Ulteriori dettagli sull'implementazione sono contenuti in questo PDF, ma ancora non conosciamo le modalità ed i tempi per il nostro paese, anche se siamo pronti a scommettere che, ben prima di questo, Google e altre big tech seguiranno a ruota la rotta tracciata da Apple.

Oltre a quanto appena visto inoltre, su iMessage saranno scansionati gli allegati (sul dispositivo, senza invio di dati nel cloud) sempre per individuare contenuti CASM. In caso positivo, questi saranno sfocati e comparirà un avviso, consentendo anche ai genitori di ricevere una notifica in merito. Inoltre Siri e l'app ricerca sono state modificate per rispondere in modo opportuno a ricerche correlate con la pedopornografia, spiegando ai giovani utenti quanto l'argomento sia "dannoso e problematico", e fornendo loro "risorse dai partner per ottenere aiuto con questo problema".

Aggiornamento

Apple ha confermato a MacRumors che un'eventuale espansione su scala internazionale di questa funzionalità anti pedopornografia sarà valutata paese per paese, senza per altro fornire alcuna indicazione temporale in merito.

Per quanto l'iniziativa sia lodevole, ci sono per forza di cose implicazioni legali da tenere in considerazione, che variano appunto da uno stato all'altro, e che di certo non renderanno facile e veloce una sua espansione su scala globale.

Via: The Verge

Commenta