Apple: ecco NeuralHash a difendere i minori su iPhone
Che si tratti di privacy o lotta alla pedopornografia, la Apple ha ritenuto che possa esserci una via di mezzo tra le due, si tratta di un compromesso al fine di mantenere al sicuro la privacy e bloccare il diffondersi di immagini problematiche. Infatti, la società di Cupertino ha dato l’annuncio che farà una nuova tecnologia con cui andrà ad analizzare tutte le immagini che sono destinate a tutti i server di iCloud. Per cui, con la ricerca di “match” con il database del National Center for Missing & Exploited Children (NCMEC), nel caso di corrispondenze che sono legate all’impronta digitale dell’immagine, l’account verrebbe bloccato.
Le immagini, dunque, verrebbero analizzate sullo smartphone dell’utente, poi mandate ad iCloud con tanto di verifica ed esito della corrispondenza. Secondo la Apple tutti i falsi positivi potrebbero essere una quantità che si potrà trascurare, consentendo di agire solo sui casi gravi di corrispondenza. Questo processo è stato illustrato in modo compiuto dalla Apple, spiegando anche quali sono i piani per un ulteriore impegno per quanto concerne il Child Sexual Abuse Material (CSAM).
NeuralHash e tecnologia Apple
La tecnologia NeuralHash viene difesa da Apple per avere un approccio virtuoso al problema, così da difendere la privacy degli utenti e, allo stesso tempo riuscire a portare avanti la lotta alla pedopornografia.
Chiaro che ci sono preoccupazioni in merito, come quelli dei gruppi quali la Electronic Frontier Foundation, secondo cui idealizzare questo strumento può diventare pericoloso, soprattutto se viene utilizzato, forzato e strumentalizzato da delle probabili ritorsioni di Paesi liberticidi. Inoltre, ciò che spaventa i detrattori sta negli eventuali abusi di una tecnologia abbastanza invasiva, anche se con tutte le varie prevenzioni del caso. La EFF cita il fatto di come ciò che nasce per andare contro la pedopornografia possa anche diventare un ostacolo per altri tipi di immagini, esondando su tematiche e diventando una sorta di controllo indiscreto sul privato.
Le ambizioni della Apple verrebbero anche ampliate ai Messaggi, dove saranno lo stesso tutelati i minori da invii e ricezioni pericolose. Ma, nel caso in cui le immagini vengano catalogate come “esplicite”, il minore può allo stesso modo aprirle, ma sarà a conoscenza che una notifica sarà inviata ai genitori, in modo che essi possano controllare la situazione e decidere come procedere. Le novità in tal senso, sembra che entreranno in vigore al momento solo negli USA con i nuovi iOS 15, iPadOS 15, watchOS 8 e macOS Monterey.
In Europa dovranno essere vagliati dalle autorità prima che possano entrare in vigore. Per cui, rimane comunque la necessità di validare tutto il processo al di là degli algoritmi della verifica e crittazione, integrando database NCMEC, la capacità di blindare le regole all’invadenza degli Stati nazionali e tutti gli altri aspetti.