Apple Nyheter

Craig Federighi erkjenner forvirring rundt Apples barnesikkerhetsfunksjoner og forklarer nye detaljer om sikkerhetstiltak

Fredag ​​13. august 2021 kl. 07.33 PDT av Hartley Charlton

Apples senior visepresident for programvareutvikling, Craig Federighi, har i dag forsvart selskapets kontroversielle plan. barnesikkerhetsfunksjoner i et betydelig intervju med Wall Street Journal , og avslører en rekke nye detaljer om sikkerhetstiltakene som er innebygd i Apples system for å skanne brukernes fotobibliotek for Child Sexual Abuse Material (CSAM).





craig wwdc 2021 personvern
Federighi innrømmet at Apple hadde håndtert forrige ukes kunngjøring av de to nye funksjonene dårlig, relatert til å oppdage eksplisitt innhold i meldinger for barn og CSAM-innhold lagret i iCloud-bilder biblioteker, og erkjente den utbredte forvirringen rundt verktøyene:

Det er helt klart at mange meldinger ble blandet ganske dårlig med tanke på hvordan ting ble forstått. Vi skulle ønske at dette hadde kommet litt tydeligere frem for alle, fordi vi føler oss veldig positive og sterke på det vi gjør.



youtube fungerer ikke på apple tv

[...]

I ettertid var det å introdusere disse to funksjonene samtidig en oppskrift på denne typen forvirring. Ved å slippe dem samtidig koblet folk dem teknisk sammen og ble veldig redde: hva skjer med meldingene mine? Svaret er...ingenting skjer med meldingene dine.

Kommunikasjonssikkerhetsfunksjonen betyr at hvis barn sender eller mottar eksplisitte bilder via iMessage, vil de bli advart før de ser det, bildet vil bli uskarpt, og det vil være et alternativ for foreldrene deres å bli varslet. CSAM-skanning forsøker derimot å matche brukernes bilder med hashed-bilder av kjente CSAM før de lastes opp til iCloud . Kontoer som har oppdaget CSAM vil deretter bli gjenstand for en manuell gjennomgang av Apple og kan rapporteres til National Center for Missing and Exploited Children (NCMEC).

når kom ipad air 4 ut

De nye funksjonene har vært utsatt for mye kritikk fra brukere, sikkerhetsforskere , den Electronic Frontier Foundation (EFF) og Edward Snowden , Facebooks tidligere sikkerhetssjef , Til og med Apple-ansatte .

Midt i denne kritikken adresserte Federighi et av hovedområdene av bekymring, og understreket at Apples system vil være beskyttet mot å bli utnyttet av myndigheter eller andre tredjeparter med 'flere nivåer av revisjonsevne.'


Federighi avslørte også en rekke nye detaljer rundt systemets sikkerhetstiltak, for eksempel det faktum at en bruker må møte rundt 30 treff for CSAM-innhold i deres Bilder biblioteket før Apple blir varslet, hvorpå det vil bekrefte om disse bildene ser ut til å være ekte forekomster av CSAM.

Hvis og bare hvis du møter en terskel på noe i størrelsesorden 30 kjente barnepornografiske bilder som samsvarer, først da vet Apple noe om kontoen din og vet noe om disse bildene, og vet på det tidspunktet bare om disse bildene, ikke om noen av dine andre bilder. Dette er ikke en analyse for hadde du et bilde av barnet ditt i badekaret? Eller, for den saks skyld, hadde du et bilde av noe annet slags pornografi? Dette samsvarer bokstavelig talt bare på de eksakte fingeravtrykkene til spesifikke kjente barnepornografiske bilder.

Han påpekte også sikkerhetsfordelen ved å plassere matchingsprosessen på iPhone direkte, i stedet for at det skjer på ‌iCloud‌s servere.

Fordi det er på [telefonen], er sikkerhetsforskere hele tiden i stand til å introspektere hva som skjer i Apples [telefon]-programvare. Så hvis det ble gjort noen endringer som skulle utvide omfanget av dette på en eller annen måte - på en måte som vi hadde forpliktet oss til å ikke gjøre - det er verifiserbarhet, de kan oppdage at det skjer.

På spørsmål om databasen med bilder som brukes til å matche CSAM-innhold på brukernes enheter kan bli kompromittert ved å ha annet materiale satt inn, for eksempel politisk innhold i visse regioner, forklarte Federighi at databasen er konstruert fra kjente CSAM-bilder fra flere barnesikkerhetsorganisasjoner, med minst to 'i distinkte jurisdiksjoner', for å beskytte mot misbruk av systemet.

kommer det en ny ipod touch i 2020

Disse barnevernsorganisasjonene, samt en uavhengig revisor, vil kunne verifisere at databasen med bilder kun består av innhold fra disse enhetene, ifølge Federighi.

Federighis intervju er blant de største PR-tilbakeslagene fra Apple så langt etter den blandede offentlige responsen på kunngjøringen av barnesikkerhetsfunksjonene, men selskapet har også gjentatte ganger forsøkt å adressere brukernes bekymringer , publisere en FAQ og direkte adressering av bekymringer i intervjuer med media .

Stikkord: The Wall Street Journal , Craig Federighi , Apples barnesikkerhetsfunksjoner