Apple har forsinket utrullingen av Barnesikkerhetsfunksjoner at det kunngjorde forrige måned etter negative tilbakemeldinger, har selskapet i dag annonsert.
De planlagte funksjonene inkluderer skanning av brukeres iCloud-bilder biblioteker for materiale for seksuelle overgrep mot barn (CSAM), kommunikasjonssikkerhet for å advare barn og deres foreldre når de mottar eller sender seksuelt eksplisitte bilder, og utvidet CSAM-veiledning i syria og Søk.
Apple bekreftet at tilbakemeldinger fra kunder, ideelle organisasjoner og fortalergrupper, forskere og andre om planene har ført til forsinkelsen for å gi selskapet tid til å gjøre forbedringer. Apple ga følgende uttalelse om sin avgjørelse:
I forrige måned kunngjorde vi planer for funksjoner som skal bidra til å beskytte barn mot rovdyr som bruker kommunikasjonsverktøy for å rekruttere og utnytte dem, og begrense spredningen av materiale om seksuelt misbruk av barn. Basert på tilbakemeldinger fra kunder, fortalergrupper, forskere og andre, har vi bestemt oss for å bruke ekstra tid i løpet av de kommende månedene for å samle inn innspill og gjøre forbedringer før vi slipper disse kritisk viktige barnesikkerhetsfunksjonene.
Etter kunngjøringen ble funksjonene kritisert av et bredt spekter av enkeltpersoner og organisasjoner, inkludert sikkerhetsforskere , personvernvarsleren Edward Snowden , den Electronic Frontier Foundation (EFF), Facebooks tidligere sikkerhetssjef , politikere , politiske grupper , universitetsforskere , og til og med noen Apple-ansatte . Apple har siden forsøkt å fjerne misforståelser og berolige brukere ved å gi ut detaljert informasjon, dele Vanlige spørsmål , forskjellige nye dokumenter , intervjuer med bedriftsledere og mer.
Suiten med barnesikkerhetsfunksjoner skulle opprinnelig debutere i USA med en oppdatering til iOS 15 , iPad 15 , watchOS 8 , og macOS Monterey . Det er nå uklart når Apple planlegger å rulle ut de 'kritisk viktige' funksjonene, men selskapet ser fortsatt ut til å være innstilt på å slippe dem.
Populære Innlegg