Apple Nyheter

Sikkerhetsforskere uttrykker alarm over Apples planer om å skanne iCloud-bilder, men praksis er allerede utbredt

Torsdag 5. august 2021 14:04 PDT av Juli Clover

eple i dag annonsert det med lanseringen av iOS 15 og iPad 15 , vil den begynne å skanne iCloud-bilder i USA for å lete etter kjent materiale for seksuelle overgrep mot barn (CSAM), med planer om å rapportere funnene til National Center for Missing and Exploited Children (NCMEC).





Barnesikkerhetsfunksjon
Før da Apple detaljerte planene sine, lekket nyheter om CSAM-initiativet, og sikkerhetsforskere har allerede begynt å uttrykke bekymring for hvordan Apples nye bildeskanningsprotokoll kan brukes i fremtiden, som bemerket av Financial Times .

Apple bruker et 'NeuralHash'-system for å sammenligne kjente CSAM-bilder med bilder på en brukers iPhone før de lastes opp til iCloud . Hvis det er en match, lastes det bildet opp med en kryptografisk sikkerhetskupong, og ved en viss terskel utløses en gjennomgang for å sjekke om personen har CSAM på enhetene sine.



hvordan bruker jeg finne iphone fra en annen telefon

For øyeblikket bruker Apple sin bildeskannings- og matchingsteknologi for å se etter barnemishandling, men forskere bekymrer seg for at den i fremtiden kan tilpasses for å skanne etter andre typer bilder som er mer bekymringsfulle, som anti-regjeringsskilt på protesterer.

I en serie tweets, Johns Hopkins kryptografiforsker Matthew Green sa at CSAM-skanning er en 'virkelig dårlig idé' fordi det i fremtiden kan utvides til å skanne ende-til-ende-krypterte bilder i stedet for bare innhold som er lastet opp til ‌iCloud‌. For barn, Apple er implementere en egen skannefunksjon som ser etter seksuelt eksplisitt innhold direkte i iMessages, som er ende-til-ende-kryptert.

Green reiste også bekymring over hashen som Apple planlegger å bruke fordi det potensielt kan være 'kollisjoner', der noen sender en ufarlig fil som deler en hash med CSAM og kan resultere i et falskt flagg.

Apple sier på sin side at skanneteknologien har et 'ekstremt høyt nivå av nøyaktighet' for å sikre at kontoer ikke er feilaktig flagget, og rapporter gjennomgås manuelt før en persons ‌iCloud‌ kontoen er deaktivert og en rapport sendes til NCMEC.

Green mener at Apples implementering vil presse andre teknologiselskaper til å ta i bruk lignende teknikker. 'Dette vil bryte demningen,' skrev han. 'Regjeringene vil kreve det av alle.' Han sammenlignet teknologien med 'verktøy som undertrykkende regimer har utplassert.'


Sikkerhetsforsker Alec Muffett, som tidligere jobbet i Facebook, sa at Apples beslutning om å implementere denne typen bildeskanning var et 'stort og regressivt skritt for individets personvern.' 'Apple går tilbake privatlivet for å muliggjøre 1984,' sa han.

Ross Anderson, professor i sikkerhetsteknikk ved University of Cambridge sa kalte det en 'helt forferdelig idé' som kan føre til 'distribuert bulkovervåking' av enheter.

Som mange har påpekt på Twitter, utfører flere teknologiselskaper allerede bildeskanning for CSAM. Google, Twitter, Microsoft, Facebook og andre bruker bildehashing-metoder for å lete etter og rapportere kjente bilder av barnemishandling.


Det er også verdt å merke seg at Apple var det allerede skanner noe innhold for bilder av overgrep mot barn før lanseringen av det nye CSAM-initiativet. I 2020 sa Apples personvernsjef Jane Horvath at Apple brukte screeningteknologi for å se etter ulovlige bilder og deretter deaktivere kontoer hvis bevis på CSAM oppdages.

beste ipad å kjøpe i 2020

Apple i 2019 oppdaterte personvernreglene sine for å merke seg at det ville skanne opplastet innhold for 'potensielt ulovlig innhold, inkludert materiale om seksuell utnyttelse av barn', så dagens kunngjøringer er ikke helt nye.

Merk: På grunn av den politiske eller sosiale karakteren til diskusjonen om dette emnet, ligger diskusjonstråden i vår Politiske nyheter forum. Alle forummedlemmer og besøkende på nettstedet er velkomne til å lese og følge tråden, men innlegg er begrenset til forummedlemmer med minst 100 innlegg.

Tags: Apple personvern , Apple barnesikkerhetsfunksjoner