Apple sta scansionando le foto del tuo iPhone? Ecco cosa devi sapere

Apple sta scansionando le foto del tuo iPhone? Ecco cosa devi sapere

Apple è rinomata per le sue politiche sulla sicurezza e sulla privacy. Ma il recente piano di scansione delle foto dell’iPhone ha suscitato allarme nel mondo della tecnologia. Apple sta pianificando di implementare questo piano per porre un freno ai crescenti casi di materiale pedopornografico (CASM).

I contenuti sessualmente espliciti non sono accettabili nella società sia moralmente che legalmente ma il traffico sessuale lo ha reso obbligatorio compiere alcuni passi difficili per aziende come Apple. Apple scansionerà le foto sull'iPhone e scoprirà se l'utente è coinvolto nel traffico sessuale o di esseri umani e questa misura rappresenterà un passo avanti per porre fine a questo male nella società. Tuttavia, questo nuovo piano di Apple è disprezzato dai suoi utenti poiché gli utenti sono preoccupati per la loro privacy. Si tratta senza dubbio di una violazione della privacy in cui i dati del tuo telefono non saranno al sicuro perché il nuovo sistema di scansione delle foto di Apple su iPhone avrà le tue informazioni.

Apple sta scansionando le foto del tuo iPhone? Ecco come esegue la scansione?

La tecnologia di rilevamento CSAM sarà disponibile con i nuovi aggiornamenti iOS 15 che includeranno tre funzionalità per controllare CASM.

Tutti tre funzionalità contribuiranno a sradicare il male CSAM dalla società rilevando e segnalando contenuti sessualmente espliciti che coinvolgono bambini su un dispositivo. Il materiale pedopornografico si sta diffondendo come un virus con milioni di video e immagini. Nel corso del tempo sono state identificate circa 19.000 vittime dalle forze dell'ordine.

Apple ha affermato che le sue nuove funzionalità mirano a "aiutare a proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per reclutarli e sfruttarli, e a limitare la diffusione di pratiche sessuali infantili". materiale illecito."

Come funzionerà questa funzionalità?

La tecnologia di rilevamento CSAM di Apple si basa su un algoritmo computerizzato che scansionerà le immagini di iCloud e le confronterà con i codici noti immagini di abusi sessuali su minori. Questi codici sono archiviati nel database delle organizzazioni per la sicurezza dei bambini, incluso il Centro nazionale per i bambini scomparsi e sfruttati (NCMEC).

Se la foto corrisponde al database, una persona esaminerà l'immagine per vedere se è CSAM. Se la foto verrà ritenuta un materiale pedopornografico, il tuo account verrà chiuso da Apple e segnalato alle forze dell'ordine e all'NCMEC.

Le nuove tecnologie diventeranno una minaccia alla sicurezza?

Con l'introduzione di nuove funzionalità nell'aggiornamento, Apple avrà sicuramente un impatto sulla sicurezza degli utenti perché influenzerà la crittografia end-to-end. Questa funzionalità di scansione può diventare una scappatoia per il governo, gli hacker, i dipendenti della stessa Apple che possono ottenere l'accesso non autorizzato ai tuoi dati possono utilizzarli per motivi personali. Può rappresentare una seria minaccia per la privacy dell'utente perché tali dati sensibili possono essere compromessi da qualsiasi autorità e possono portare a un maggiore collasso della privacy.

Secondo Hijazi. "Credo che il cuore di Apple sia al posto giusto e stia cercando di fare la cosa giusta, ma questa misura è semplicemente troppo ampia perché sacrifica la privacy di tutti coloro che sono coinvolti nel processo".

Is esiste un modo per impedire ad Apple di scansionare le foto?

Secondo Hijazi. "Se hai a cuore la tua privacy, dovresti presumere che qualsiasi dispositivo iOS sia vulnerabile ai bypass della crittografia end-to-end e all'accesso completo alle foto", afferma. "Non esiste la privacy online o su qualsiasi dispositivo connesso, e dovresti sempre presumere che sia così e comportarti di conseguenza."

Ebbene, c'è una via d'uscita con cui puoi impedire ad Apple di scansiona le tue foto di iCloud e può proteggere la tua privacy. Puoi disabilitare l'archiviazione iCloud per le tue foto e garantire la tua privacy.

Segui i passaggi per disabilitare le foto iCloud:-

Conclusione:-

Il CSAM è un buon passo avanti nella prevenzione degli abusi sessuali sui minori, ma sì, il fatto da non ignorare è che la privacy viene trapelata in questo modo. Apple avrebbe potuto adottare altre misure che non violino la privacy degli utenti e, allo stesso tempo, si potrebbero prevenire gli abusi sessuali sui minori.

Tuttavia, se un individuo è pulito e sa che non c'è nulla di sospetto in i suoi dati, quindi non dovrebbe dare ascolto a nessuna voce e sostenere la nobile causa e un passo intrapreso da Apple. Seguici sui social media – .

leggi: 0

yodax