Apple Nyheter

Universitetsforskere som bygde et CSAM-skanningssystem oppfordrer Apple til ikke å bruke den 'farlige' teknologien

Fredag ​​20. august 2021 kl. 06.48 PDT av Sami Fathi

Respekterte universitetsforskere ringer alarmklokkene over teknologien bak Apples planer om å skanne iPhone brukernes fotobiblioteker for CSAM, eller materiale om seksuelle overgrep mot barn, som kaller teknologien 'farlig'.





apple personvern
Jonanath Mayer, en assisterende professor i informatikk og offentlige anliggender ved Princeton University, samt Anunay Kulshrestha, en forsker ved Princeton University Center for Information Technology Policy, begge skrevet en op-ed til Washington Post , som skisserer deres erfaringer med å bygge bildegjenkjenningsteknologi.

Forskerne startet et prosjekt for to år siden for å identifisere CSAM i ende-til-ende krypterte nettjenester. Forskerne bemerker at gitt deres felt, 'vet de verdien av ende-til-ende-kryptering, som beskytter data fra tredjeparts tilgang.' Den bekymringen, sier de, er det som skremmer dem over at CSAM 'sprer seg på krypterte plattformer'.



hvordan få tilbake spillsenteret på ios 10

Mayer og Kulshrestha sa at de ønsket å finne en mellomting for situasjonen: bygge et system som nettplattformer kan bruke for å finne CSAM og beskytte ende-til-ende-kryptering. Forskerne bemerker at eksperter på området tvilte på utsiktene til et slikt system, men de klarte å bygge det og la merke til et betydelig problem.

Vi forsøkte å utforske en mulig mellomting, der nettbaserte tjenester kunne identifisere skadelig innhold og samtidig bevare ende-til-ende-kryptering. Konseptet var enkelt: Hvis noen delte materiale som samsvarte med en database med kjent skadelig innhold, ville tjenesten bli varslet. Hvis en person delte uskyldig innhold, ville tjenesten ikke lære noe. Folk kunne ikke lese databasen eller finne ut om innhold samsvarte, siden den informasjonen kunne avsløre rettshåndhevelsesmetoder og hjelpe kriminelle med å unngå oppdagelse.

Kunnskapsrike observatører hevdet at et system som vårt var langt fra gjennomførbart. Etter mange feilstarter bygde vi en fungerende prototype. Men vi møtte et åpenbart problem.

Siden Apples kunngjøring av funksjonen har selskapet blitt bombardert med bekymringer at systemet bak å oppdage CSAM kunne brukes til å oppdage andre former for bilder på forespørsel fra undertrykkende regjeringer. Apple har sterkt presset tilbake mot en slik mulighet, og sa at de vil avslå enhver slik forespørsel fra regjeringer.

Ikke desto mindre er bekymringer for de fremtidige implikasjonene av teknologien som brukes for CSAM-deteksjon utbredt. Mayer og Kulshrestha sa at deres bekymringer over hvordan regjeringer kunne bruke systemet til å oppdage annet innhold enn CSAM hadde dem «forstyrret».

hvordan sletter du cache på iphone

En utenlandsk regjering kan for eksempel tvinge en tjeneste til folk som deler ugunstige politiske ytringer. Det er ingen hypotetisk: WeChat, den populære kinesiske meldingsappen, bruker allerede innholdsmatching for å identifisere dissidentmateriale. India vedtok regler i år som kan kreve forhåndskontroll av innhold som er kritisk til regjeringens politikk. Russland bøtelagt nylig Google, Facebook og Twitter for ikke å fjerne pro-demokratisk protestmateriale.

Vi oppdaget andre mangler. Innholdssamsvarsprosessen kan ha falske positiver, og ondsinnede brukere kan spille systemet for å utsette uskyldige brukere for gransking.

Vi ble så forstyrret at vi tok et skritt vi ikke hadde sett før i informatikklitteraturen: Vi advarte mot vårt eget systemdesign, og oppfordret til videre forskning på hvordan vi kan redusere de alvorlige ulempene...

Apple har fortsatt å adressere brukernes bekymringer over planene sine, publisering av tilleggsdokumenter og en FAQ-side . Apple fortsetter å tro at dets CSAM-deteksjonssystem, som vil forekomme på en brukers enhet, stemmer overens med dets langvarige personvernverdier.

Tags: Apples personvern , WashingtonPost.com , Apples barnesikkerhetsfunksjoner