Apple archivia il suo controverso piano per scansionare iPhone privati ​​alla ricerca di foto illegali

Apple archivia il suo controverso piano per scansionare iPhone privati ​​alla ricerca di foto illegali
Apple archivia il suo controverso piano per scansionare iPhone privati ​​alla ricerca di foto illegali
Avatar di Harry Johnson
Scritto da Harry Johnson

Secondo quanto riferito, anche i dipendenti Apple hanno espresso preoccupazione per la tecnologia di rilevamento, preoccupandosi che possa essere utilizzata per aggirare le protezioni crittografiche, che potrebbe facilmente identificare erroneamente e contrassegnare alcune foto.

  • Apple ritarda le scansioni invasive dell'iPhone.
  • Le scansioni di Apple cercherebbero materiale pedopornografico.
  • Attivisti e gruppi di destra esprimono preoccupazione per problemi di censura e privacy.

Il recente controverso annuncio di Apple dei piani per scansionare tutti gli iPhone privati ​​alla ricerca di foto e conversazioni che potrebbero consistere in materiale pedopornografico (CSAM) è stato immediatamente accolto con richieste di abbandonare i piani da parte di gruppi per i diritti civili, tra cui l'American Civil Liberties Union (ACLU).

0a1a14 | eTurboNews | eTN

Dopo la raffica di critiche che ha seguito l'annuncio, Apple ha annunciato che "ci vorrà più tempo" nei prossimi mesi per lavorare sui piani per segnalare CSAM, tra le preoccupazioni di attivisti e gruppi per i diritti sulla censura e sui problemi di privacy.

"Sulla base del feedback di clienti, gruppi di difesa, ricercatori e altri, abbiamo deciso di dedicare più tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare queste funzionalità di sicurezza dei bambini di fondamentale importanza", un Apple Lo ha detto oggi il portavoce in una nota.

La tecnologia di Apple scansiona iPhone foto e conversazioni per CSAM, utilizzando un programma che la società sosteneva in precedenza avrebbe comunque protetto la privacy individuale perché la tecnologia non identifica i dettagli generali di un'immagine o di una conversazione, o deve essere in possesso di entrambi, anche se molti critici hanno espresso i loro dubbi.

Il sistema utilizza un database di riferimenti o "hashtag di immagini" per riconoscere contenuti specifici da segnalare, sebbene gli esperti di sicurezza abbiano avvertito che tale tecnologia potrebbe essere probabilmente manipolata o che immagini innocenti potrebbero essere interpretate erroneamente. 

Secondo quanto riferito, anche i dipendenti Apple hanno espresso preoccupazione per la tecnologia di rilevamento, preoccupandosi che potrebbe essere utilizzata per aggirare le protezioni crittografiche, che potrebbe facilmente identificare erroneamente e contrassegnare alcune foto o addirittura che alcuni governi potrebbero sfruttarla per trovare altro materiale. Apple sostiene che rifiuterà qualsiasi richiesta da parte dei governi di utilizzare il sistema per qualcosa di diverso dalle immagini di abusi sui minori.

"iMessage non fornirà più riservatezza e privacy a quegli utenti attraverso un sistema di messaggistica crittografato end-to-end in cui solo il mittente e i destinatari previsti hanno accesso alle informazioni inviate", si legge in una lettera di una coalizione di oltre 90 gruppi di attivisti al CEO di Apple Tim Cook sui potenziali cambiamenti. 

La tempistica esatta per l'attuale ritardo è sconosciuta, ma il nuovo sistema di rilevamento doveva essere originariamente utilizzato quest'anno.

Circa l'autore

Avatar di Harry Johnson

Harry Johnson

Harry Johnson è stato il redattore degli incarichi per eTurboNews da più di 20 anni. Vive a Honolulu, Hawaii, ed è originario dell'Europa. Gli piace scrivere e coprire le notizie.

Sottoscrivi
Notifica
ospite
0 Commenti
Feedback in linea
Visualizza tutti i commenti
0
Amerei i tuoi pensieri, per favore commenta.x
Condividere a...