Apple: ecco NeuralHash a difendere i minori su iPhone

Che si tratti di privacy o lotta alla pedopornografia, la Apple ha ritenuto che possa esserci una via di mezzo tra le due, si tratta di un compromesso al fine di mantenere al sicuro la privacy e bloccare il diffondersi di immagini problematiche. Infatti, la società di Cupertino ha dato l’annuncio che farà una nuova tecnologia con cui andrà ad analizzare tutte le immagini che sono destinate a tutti i server di iCloud. Per cui, con la ricerca di “match” con il database del National Center for Missing & Exploited Children (NCMEC), nel caso di corrispondenze che sono legate all’impronta digitale dell’immagine, l’account verrebbe bloccato.

Le immagini, dunque, verrebbero analizzate sullo smartphone dell’utente, poi mandate ad iCloud con tanto di verifica ed esito della corrispondenza. Secondo la Apple tutti i falsi positivi potrebbero essere una quantità che si potrà trascurare, consentendo di agire solo sui casi gravi di corrispondenza. Questo processo è stato illustrato in modo compiuto dalla Apple, spiegando anche quali sono i piani per un ulteriore impegno per quanto concerne il Child Sexual Abuse Material (CSAM).

privacy iphone

NeuralHash e tecnologia Apple

La tecnologia NeuralHash viene difesa da Apple per avere un approccio virtuoso al problema, così da difendere la privacy degli utenti e, allo stesso tempo riuscire a portare avanti la lotta alla pedopornografia.

Chiaro che ci sono preoccupazioni in merito, come quelli dei gruppi quali la Electronic Frontier Foundation, secondo cui idealizzare questo strumento può diventare pericoloso, soprattutto se viene utilizzato, forzato e strumentalizzato da delle probabili ritorsioni di Paesi liberticidi. Inoltre, ciò che spaventa i detrattori sta negli eventuali abusi di una tecnologia abbastanza invasiva, anche se con tutte le varie prevenzioni del caso. La EFF cita il fatto di come ciò che nasce per andare contro la pedopornografia possa anche diventare un ostacolo per altri tipi di immagini, esondando su tematiche e diventando una sorta di controllo indiscreto sul privato.

Le ambizioni della Apple verrebbero anche ampliate ai Messaggi, dove saranno lo stesso tutelati i minori da invii e ricezioni pericolose. Ma, nel caso in cui le immagini vengano catalogate come “esplicite”, il minore può allo stesso modo aprirle, ma sarà a conoscenza che una notifica sarà inviata ai genitori, in modo che essi possano controllare la situazione e decidere come procedere. Le novità in tal senso, sembra che entreranno in vigore al momento solo negli USA con i nuovi iOS 15, iPadOS 15, watchOS 8 e macOS Monterey.

In Europa dovranno essere vagliati dalle autorità prima che possano entrare in vigore. Per cui, rimane comunque la necessità di validare tutto il processo al di là degli algoritmi della verifica e crittazione, integrando database NCMEC, la capacità di blindare le regole all’invadenza degli Stati nazionali e tutti gli altri aspetti.

Potrebbe interessarti

OLED o QNED-MiniLED: quali sono le differenze?

La tecnologia per gli schermi TV in altissima definizione negli ultimi anni non si è fermata un momento e l’apparizione sul mercato dei QNED apre nuove prospettive. Sia Samsung che LG che si danno battaglia su un territorio dove costruiscono l’eccellenza, a colpi di soluzioni come OLED o QLED. Quest’anno LG ha compiuto un passo…

Continua a leggere

La crisi economica c’è ma non intacca il settore tecnologico?

Che la pandemia abbia dato una ulteriore mazzata all’economia mondiale ed italiana è un dato di fatto. Tra restrizioni e chiusure, sono tantissime le attività di grande e piccola entità che hanno dovuto chiudere i battenti. Moltissime aziende, anche dopo il periodo più tragico, non sono riuscite a tornare in prima linea e hanno dovuto…

Continua a leggere

© 2020 casawifi.it -  C.F TRSGLC89M04I470F 

casawifi.it partecipa al Programma Affiliazione Amazon EU, un programma di affiliazione che consente ai siti di percepire una commissione pubblicitaria pubblicizzando e fornendo link al sito Amazon.it.