Gli abusi ai danni dei minori rappresentano una terribile piaga, ed è per questo che anche i colossi della tecnologia hanno scelto di mettere a disposizione le loro competenze e conoscenze per cercare di arginare ogni tipo di violenza nei confronti dei più piccoli.
Stando a quanto emerso online, Apple sarebbe pronta ad annunciare un nuovo sistema capace di eseguire la scansione dei contenuti della Galleria del telefono, al fine di prevenire, scoprire e fermare i più diffusi abusi sui minori, su tutti la pornografia infantile. La funzione su cui sta lavorando Apple, come riportato da una fonte di tutto rispetto come 9to5Mac, sarà alimentata da un algoritmo “hash” che sarà in grado di abbinare il contenuto della foto con materiali noti che riguardano appunto gli abusi sui minori: si tratta di “neuralMatch”, che esegue la scansione delle immagini prima che vengano caricate su iCloud.
Nel caso venga registrato un effettivo riscontro pedopornografico, scatterà subito la disabilitazione dell’account dell’utente, con immediata segnalazione al Centro nazionale per i bambini scomparsi e sfruttati.
Sebbene Apple non abbia ancora annunciato alcun dettaglio di questa importante iniziativa, le indiscrezioni suggeriscono che il nuovo sistema potrebbe essere implementato presto sui telefoni dell’azienda del CEO Tim Cook.
Tuttavia, c’è anche chi avanza qualche dubbio sull’efficacia di questa novità. L’esperto di crittografia e sicurezza Matthew Green spiega il perché una tale mossa potrebbe presentare qualche problema. Non è raro, infatti, che l’algoritmo di hashing commetta errori e produca falsi positivi. Ciò vuol dire che se Apple dovesse consentire ai governi di controllare il database del contenuto delle impronte digitali, è possibile che lo stesso possa essere utilizzato in modo improprio, principalmente per esercitare una “forma di controllo” sui cittadini.
In più, bisogna tenere presente che le foto caricate su iCloud Photos per il backup non sono crittografate end-to-end, sebbene siano crittografate sui server Apple.