Apple Nyheter

Apple-ansatte som internt tar opp bekymringer over CSAM-deteksjonsplaner

Fredag ​​13. august 2021 12:43 PDT av Sami Fathi

Apple-ansatte slutter seg nå til koret av enkeltpersoner som er bekymret over Apples planer om å skanne iPhone brukeres fotobiblioteker for CSAM eller materiale om seksuelle overgrep mot barn, skal angivelig snakke internt om hvordan teknologien kan brukes til å skanne brukernes bilder for andre typer innhold, ifølge en rapport fra Reuters .





apple park drone juni 2018 2
I følge Reuters , har et uspesifisert antall Apple-ansatte tatt til interne Slack-kanaler for å reise bekymringer om CSAM-deteksjon. Konkret er ansatte bekymret for at myndigheter kan tvinge Apple til å bruke teknologien for sensur ved å finne annet innhold enn CSAM. Noen ansatte er bekymret for at Apple skader sitt bransjeledende personvernomdømme.

Apple-ansatte har oversvømmet en Apple intern Slack-kanal med mer enn 800 meldinger på planen som ble kunngjort for en uke siden, fortalte arbeidere som ba om å ikke bli identifisert til Reuters. Mange uttrykte bekymring for at funksjonen kunne utnyttes av undertrykkende regjeringer som ønsker å finne annet materiale for sensur eller arrestasjoner, ifølge arbeidere som så den dager lange tråden.



Tidligere sikkerhetsendringer hos Apple har også skapt bekymring blant ansatte, men volumet og varigheten av den nye debatten er overraskende, sa arbeiderne. Noen plakater var bekymret for at Apple skader sitt ledende rykte for å beskytte personvernet.

Apple-ansatte i roller knyttet til brukersikkerhet antas ikke å ha vært en del av den interne protesten, ifølge rapporten.

Helt siden den kunngjøring forrige uke , har Apple blitt bombardert med kritikk over sine CSAM-deteksjonsplaner, som fortsatt forventes å rulle ut med iOS 15 og iPadOS 15 denne høsten. Bekymringer dreier seg hovedsakelig om hvordan teknologien kan utgjøre en glidebane for fremtidige implementeringer av undertrykkende regjeringer og regimer.

forskjellen mellom iphone se og iphone 11

Apple har sterkt presset tilbake mot ideen om at teknologien på enheten som brukes for å oppdage CSAM-materiale kan brukes til andre formål. I en publisert FAQ-dokument , sier selskapet at det på det sterkeste vil avslå ethvert slikt krav fra regjeringer.

Kan regjeringer tvinge Apple til å legge til ikke-CSAM-bilder til hash-listen?
Apple vil avslå slike krav. Apples CSAM-deteksjonsevne er utelukkende bygget for å oppdage kjente CSAM-bilder lagret i iCloud-bilder som er identifisert av eksperter ved NCMEC og andre barnesikkerhetsgrupper. Vi har tidligere møtt krav om å bygge og implementere endringer som degraderer brukernes personvern, og har konsekvent avslått disse kravene. Vi vil fortsette å nekte dem i fremtiden. La oss være klare, denne teknologien er begrenset til å oppdage CSAM lagret i iCloud, og vi vil ikke imøtekomme noen regjerings anmodning om å utvide den. I tillegg foretar Apple menneskelig vurdering før de rapporterer til NCMEC. I et tilfelle hvor systemet flagger bilder som ikke samsvarer med kjente CSAM-bilder, vil ikke kontoen bli deaktivert og ingen rapport vil bli sendt til NCMEC.

An åpent brev kritiserer Apple og ber selskapet om umiddelbart å stoppe planen om å distribuere CSAM-deteksjon har fått mer enn 7000 signaturer i skrivende stund. Lederen for WhatsApp har også veies inn i debatten .

Tags: Apple personvern , Apple barnesikkerhetsfunksjoner