Stati Uniti, Apple scansionerà tutti gli iPhone del Paese in cerca di immagini pedopornografiche

Pubblicità
Pubblicità

Apple scansionerà tutti gli iPhone degli Stati Uniti alla ricerca di immagini di abusi sessuali su minori. Una mossa che solleva l’ovazione da parte dei gruppi per la protezione dei minori ma che crea anche preoccupazione da parte di alcuni esperti di sicurezza sul fatto che il sistema possa essere utilizzato in modo improprio dai governi che cercano di sorvegliare i propri cittadini.

Lo strumento progettato per rilevare immagini note di abusi sessuali su minori, chiamato “neuralMatch“, eseguirà la scansione delle fotografie prima che vengano caricate su iCloud. Se dovesse essere trovata una corrispondenza, l’immagine verrà esaminata da un essere umano. Se dovesse essere confermata la pedopornografia, l’account dell’utente verrà disabilitato e partirà una segnalazione verso il Centro nazionale per i bambini scomparsi e sfruttati. Il sistema non segnalerà le immagini che non sono già presenti nel database pedopornografico del centro.

I genitori che scattano foto innocenti di un bambino nella vasca da bagno presumibilmente non devono preoccuparsi. Ma alcuni ricercatori dicono che lo strumento, che non “vede” tali immagini, ma solo “impronte digitali” matematiche che le rappresentano, potrebbe essere utilizzato per scopi più nefasti. Matthew Green, un importante ricercatore di crittografia della Johns Hopkins University, ha avvertito che il sistema potrebbe essere utilizzato per incastrare persone innocenti inviando loro immagini apparentemente innocue progettate per attivare corrispondenze per pornografia infantile. Ciò potrebbe ingannare l’algoritmo di Apple e allertare le forze dell’ordine. “I ricercatori sono stati in grado di farlo abbastanza facilmente”, ha spiegato Green. Altri abusi potrebbero includere la sorveglianza governativa di dissidenti o manifestanti. “Cosa succede quando il governo cinese dice, ‘Ecco un elenco di file che vogliamo che tu scansioni’?” ha chiesto Green. “Apple dirà di no? Spero che dicano di no, ma la loro tecnologia non dirà di no”.

Le aziende tecnologiche tra cui Microsoft, Google, Facebook e altri hanno condiviso per anni le “impronte digitali” di immagini note di abusi sessuali su minori. Apple li ha usati per scansionare i file degli utenti archiviati nel suo servizio iCloud, che non è crittografato in modo sicuro come i suoi dati sul dispositivo, per la pornografia infantile. Apple subisce da anni il pressing del governo per consentire una maggiore sorveglianza dei dati crittografati. L’introduzione delle nuove misure di sicurezza ha richiesto ad Apple di compiere un delicato atto di bilanciamento tra la repressione dello sfruttamento dei bambini e il suo impegno a proteggere la privacy dei suoi utenti.

Apple ha affermato che le ultime modifiche verranno implementate quest’anno come parte degli aggiornamenti del suo software operativo per iPhone, Mac e Apple Watch. “La protezione estesa di Apple per i bambini è un punto di svolta”, ha dichiarato in una nota John Clark, presidente e ceo del National Center for Missing and Exploited Children. “Con così tante persone che utilizzano i prodotti Apple, queste nuove misure di sicurezza hanno un potenziale salvavita per i bambini’.’ Julia Cordua, ceo di Thorn, ha affermato che la tecnologia di Apple bilancia “l’esigenza di privacy con la sicurezza digitale per i bambini”. Thorn, un’organizzazione no profit fondata da Demi Moore e Ashton Kutcher, utilizza la tecnologia per proteggere i bambini dagli abusi sessuali identificando vittime e lavorare con piattaforme tecnologiche. Ma in una critica feroce, il Center for Democracy and Technology (realtà senza scopo di lucro con sede a Washington) ha invitato Apple ad abbandonare le modifiche perché “distruggono la garanzia dell’azienda della crittografia end-to-end”.

Pubblicità

Pubblicità

Go to Source

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *