Apple Nyheter

Apple introduserer nye barnesikkerhetsfunksjoner, inkludert skanning av brukeres fotobibliotek for kjent materiale om seksuelle overgrep

Torsdag 5. august 2021 kl. 13.00 PDT av Joe Rossignol

Apple i dag forhåndsvist nye barnesikkerhetsfunksjoner som vil komme til sine plattformer med programvareoppdateringer senere i år. Selskapet sa at funksjonene vil være tilgjengelige i USA først ved lansering og vil bli utvidet til andre regioner over tid.





iphone kommunikasjonssikkerhetsfunksjon

Kommunikasjonssikkerhet

For det første vil Messages-appen på iPhone, iPad og Mac få en ny kommunikasjonssikkerhetsfunksjon for å advare barn og deres foreldre når de mottar eller sender seksuelt eksplisitte bilder. Apple sa at Messages-appen vil bruke maskinlæring på enheten for å analysere bildevedlegg, og hvis et bilde er bestemt på å være seksuelt eksplisitt, vil bildet automatisk bli uskarpt og barnet vil bli advart.



finn mine airpods ingen plassering funnet

Når et barn prøver å se et bilde som er flagget som sensitivt i Meldinger-appen, vil de bli varslet om at bildet kan inneholde private kroppsdeler, og at bildet kan være sårende. Avhengig av barnets alder, vil det også være en mulighet for foreldre å motta et varsel hvis barnet deres fortsetter å se det sensitive bildet eller hvis de velger å sende et seksuelt eksplisitt bilde til en annen kontakt etter å ha blitt advart.

Apple sa at den nye kommunikasjonssikkerhetsfunksjonen vil komme i oppdateringer til iOS 15, iPadOS 15 og macOS Monterey senere i år for kontoer som er konfigurert som familier i iCloud. Apple sørget for at iMessage-samtaler forblir beskyttet med ende-til-ende-kryptering, noe som gjør privat kommunikasjon uleselig for Apple.

Skanner bilder for materiale om seksuelt misbruk av barn (CSAM)

For det andre, fra og med i år med iOS 15 og iPadOS 15, vil Apple kunne oppdage kjente Child Sexual Abuse Material (CSAM)-bilder lagret i iCloud Photos, slik at Apple kan rapportere disse tilfellene til National Center for Missing and Exploited Children (NCMEC) , en ideell organisasjon som jobber i samarbeid med amerikanske rettshåndhevelsesbyråer.

Apple sa at metoden for å oppdage kjent CSAM er designet med brukerens personvern i tankene. I stedet for å skanne bilder i skyen, sa Apple at systemet vil utføre matching på enheten mot en database med kjente CSAM-bildehasher levert av NCMEC og andre barnesikkerhetsorganisasjoner. Apple sa at de vil forvandle denne databasen ytterligere til et uleselig sett med hashes som er sikkert lagret på brukernes enheter.

Hashing-teknologien, kalt NeuralHash, analyserer et bilde og konverterer det til et unikt nummer spesifikt for det bildet, ifølge Apple.

'Hovedformålet med hashen er å sikre at identiske og visuelt like bilder resulterer i samme hash, mens bilder som er forskjellige fra hverandre resulterer i forskjellige hasher,' sa Apple i en ny 'Expanded Protections for Children' hvitbok. 'For eksempel, et bilde som har blitt litt beskåret, endret størrelse eller konvertert fra farge til svart-hvitt, behandles identisk med originalen, og har samme hash.'

apple csam flytskjema
Før et bilde lagres i iCloud Photos, sa Apple at en samsvarsprosess på enheten utføres for det bildet mot det ulesbare settet med kjente CSAM-hasher. Hvis det er en match, oppretter enheten en kryptografisk sikkerhetskupong. Denne kupongen lastes opp til iCloud Photos sammen med bildet, og når en ikke avslørt terskel for treff er overskredet, er Apple i stand til å tolke innholdet i kupongene for CSAM-treff. Apple gjennomgår deretter hver rapport manuelt for å bekrefte at det er samsvar, deaktiverer brukerens iCloud-konto og sender en rapport til NCMEC. Apple deler ikke hva dens eksakte terskel er, men sikrer et 'ekstremt høyt nivå av nøyaktighet' for at kontoer ikke er feilaktig flagget.

Apple sa at metoden deres for å oppdage kjent CSAM gir 'betydelige personvernfordeler' i forhold til eksisterende teknikker:

• Dette systemet er en effektiv måte å identifisere kjente CSAM lagret i iCloud Photos-kontoer samtidig som det beskytter brukernes personvern.
• Som en del av prosessen kan brukere heller ikke lære noe om settet med kjente CSAM-bilder som brukes til matching. Dette beskytter innholdet i databasen mot ondsinnet bruk.
• Systemet er svært nøyaktig, med en ekstremt lav feilrate på mindre enn én av én trillion konto per år.
• Systemet er betydelig mer personvernbevarende enn skybasert skanning, da det kun rapporterer brukere som har en samling av kjente CSAM lagret i iCloud Photos.

Den underliggende teknologien bak Apples system er ganske kompleks, og den har publisert en teknisk sammendrag med flere detaljer.

«Apples utvidede beskyttelse for barn er en game changer. Med så mange mennesker som bruker Apple-produkter, har disse nye sikkerhetstiltakene livreddende potensial for barn som blir lokket på nettet og hvis grufulle bilder blir sirkulert i materiale om seksuelle overgrep mot barn, sier John Clark, president og administrerende direktør for National Center for Missing. & Utnyttede barn. «Ved det nasjonale senteret for savnede og utnyttede barn vet vi at denne forbrytelsen bare kan bekjempes hvis vi er standhaftige i vårt engasjement for å beskytte barn. Vi kan bare gjøre dette fordi teknologipartnere, som Apple, går opp og gjør sitt engasjement kjent. Realiteten er at personvern og barnevern kan eksistere side om side. Vi applauderer Apple og ser frem til å jobbe sammen for å gjøre denne verden til et tryggere sted for barn.'

Utvidet CSAM-veiledning i Siri og søk

iphone csam siri
For det tredje sa Apple at de vil utvide veiledningen i Siri og Spotlight Search på tvers av enheter ved å tilby ytterligere ressurser for å hjelpe barn og foreldre med å holde seg trygge på nettet og få hjelp i utrygge situasjoner. For eksempel vil brukere som spør Siri hvordan de kan rapportere CSAM eller barneutnyttelse bli pekt på ressurser for hvor og hvordan de skal rapportere.

Oppdateringene til Siri og Search kommer senere i år i en oppdatering til iOS 15, iPadOS 15, watchOS 8 og macOS Monterey, ifølge Apple.

Merk: På grunn av den politiske eller sosiale karakteren til diskusjonen om dette emnet, ligger diskusjonstråden i vår Politiske nyheter forum. Alle forummedlemmer og besøkende på nettstedet er velkomne til å lese og følge tråden, men innlegg er begrenset til forummedlemmer med minst 100 innlegg.

Tags: Apple personvern , Apple barnesikkerhetsfunksjoner