Apple har vært kjent for sine retningslinjer for sikkerhet og personvern. Men den nylige planen med å skanne iPhone-bilder har vært en alarm i teknologiverdenen. Apple planlegger å implementere denne planen for å sette en stopper for de økende tilfellene av materiale om seksuelt misbruk av barn (CASM).
Seksuelt eksplisitt innhold er ikke akseptabelt i samfunnet både moralsk og juridisk men sexhandel har gjort det obligatorisk å ta noen harde skritt for selskaper som Apple. Apple vil skanne bilder på iPhone og vil finne ut om brukeren er involvert i sex-/menneskehandel, og dette tiltaket vil være et skritt fremover for å få slutt på denne ondskapen i samfunnet.
Men denne nye planen til Apple er sett ned på av brukerne siden brukere er bekymret for deres personvern. Dette er utvilsomt et brudd på personvernet der dataene på telefonen din ikke vil være trygge fordi Apples nye bildeskanningssystem på iPhone vil ha informasjonen din.
Skanner Apple iPhone-bilder? Her er hvordan den skanner?
CSAM-deteksjonsteknologi vil være tilgjengelig med de nye iOS 15-oppdateringene som vil inkludere tre funksjoner for å kontrollere CASM.
- Den første funksjonen i oppdateringen vil være foreldrekontroll. Når denne funksjonen er aktivert, vil den skanne bildene i Messages-appen på barnas telefon, og hvis noe eksplisitt innhold oppdages, vil et varsel bli sendt.
- Den andre funksjonen i oppdateringen vil skanne bilder. i iCloud for materiale med seksuelle overgrep mot barn.
- Den tredje funksjonen i oppdateringen vil advare brukere når de bruker Siri eller søkefeltet i safari for eksplisitt innhold.
Alle tre funksjoner vil hjelpe til med å utrydde CSAM-ondskapen fra samfunnet ved å oppdage og flagge seksuelt eksplisitt innhold som involverer barn på en enhet. CSAM sprer seg som et virus med millioner av videoer og bilder. Over tid har omtrent 19 000 ofre blitt identifisert av rettshåndhevelse.
Apple sa at dens nye funksjoner tar sikte på "å beskytte barn mot rovdyr som bruker kommunikasjonsverktøy for å rekruttere og utnytte dem, og begrense spredningen av seksuelt barn. misbruk av materiale.»
Hvordan vil denne funksjonen fungere?
Apples CSAM-deteksjonsteknologi er basert på en datamaskinbasert algoritme som skanner iCloud-bilder og deretter sammenligne dem med kodene til kjente bilder av seksuelle overgrep mot barn. Disse kodene er lagret i databasen til barnesikkerhetsorganisasjoner, inkludert National Center for Missing and Exploited Children (NCMEC).
Hvis bildet samsvarer med databasen, vil en person se gjennom bildet for å se om det er CSAM. Hvis bildet blir fastslått å være en CSAM, blir kontoen din avsluttet av Apple, og den vil bli rapportert til politi og NCMEC.
Vil ny teknologi bli en sikkerhetstrussel?
Med induksjonen av nye funksjoner i oppdateringen, vil Apple definitivt omfatte brukernes sikkerhet fordi det vil påvirke ende-til-ende-kryptering. Denne skannefunksjonen kan bli et smutthull for myndighetene, hackere, ansatte i Apple selv som kan få uautorisert tilgang til dataene dine, kan bruke dem av personlige motiver. Det kan være en alvorlig trussel mot brukerens personvern fordi slike sensitive data kan bli kompromittert av enhver autoritet og kan føre til større kollaps av personvernet.
Ifølge Hijazi. "Jeg tror at Apples hjerte er på rett sted, og det prøver å gjøre det rette her, men dette tiltaket er rett og slett for omfattende fordi det ofrer privatlivet til alle i prosessen."
Er er det en måte å stoppe Apple fra å skanne bildene?
Ifølge Hijazi. "Hvis du bryr deg om personvernet ditt, bør du anta at enhver iOS-enhet er sårbar for ende-til-ende-kryptering og full bildetilgang," sier han. «Det finnes ikke noe slikt som personvern på nettet eller på noen tilkoblet enhet, og du bør alltid anta at det er tilfellet og oppføre deg deretter.»
Vel, det er en utvei der du kan stoppe Apple fra å skanner iCloud-bildene dine og kan beskytte personvernet ditt. Du kan deaktivere iCloud-lagring for bildene dine og kan sikre personvernet ditt.
Følg trinnene for å deaktivere iCloud-bilder:-
- Velg Innstillinger> Bilder
- Slå av skyveknappen for iCloud-bilder
- Velg Last ned bilder og videoer i popup-vinduene for å laste ned bildene fra iCloud til enheten i stedet.
Konklusjon:-
CSAM er et godt skritt for å forhindre seksuelle overgrep mot barn, men ja, det faktum som ikke skal ignoreres er at personvernet lekkes på denne måten. Apple kunne ha tatt andre skritt som ikke krenker brukernes personvern, og samtidig kan seksuelle overgrep mot barn forhindres.
Men hvis en person er ren og vet at det ikke er noe skummelt i hans data, så bør han ikke gi ører til rykter og støtte i den edle saken og et skritt tatt av Apple. Følg oss på sosiale medier – .
Les: 0