Apples CSAM-system blev bedraget, men virksomheden har to sikkerhedsforanstaltninger

Opdatering: Apple nævnte en anden inspektion af serveren, og et professionelt computersynsfirma skitserede en mulighed for, hvad dette kunne beskrives i "Hvordan den anden inspektion kan fungere" nedenfor.
Efter at udviklerne reverse-manipulerede dele af det, er den tidlige version af Apple CSAM-systemet effektivt blevet narret til at markere et uskyldigt billede.Apple udtalte dog, at det har yderligere sikkerhedsforanstaltninger for at forhindre, at dette sker i det virkelige liv.
Den seneste udvikling fandt sted, efter at NeuralHash-algoritmen blev offentliggjort på open source-udviklerwebstedet GitHub, alle kan eksperimentere med det...
Alle CSAM-systemer fungerer ved at importere en database med kendt materiale om seksuelt misbrug af børn fra organisationer som National Center for Missing and Exploited Children (NCMEC).Databasen leveres i form af hashes eller digitale fingeraftryk fra billeder.
Selvom de fleste teknologigiganter scanner fotos, der er uploadet i skyen, bruger Apple NeuralHash-algoritmen på kundens iPhone til at generere en hashværdi af det gemte billede og sammenligner det derefter med den downloadede kopi af CSAM-hashværdien.
I går hævdede en udvikler at have reverse engineering af Apples algoritme og frigivet koden til GitHub - denne påstand blev effektivt bekræftet af Apple.
Inden for et par timer efter, at GitHib blev frigivet, brugte forskerne med succes algoritmen til at skabe en bevidst falsk positiv - to helt forskellige billeder, der genererede den samme hashværdi.Dette kaldes en kollision.
For sådanne systemer er der altid risiko for kollisioner, fordi hashen selvfølgelig er en meget forenklet repræsentation af billedet, men det er overraskende, at nogen kan generere billedet så hurtigt.
Den bevidste kollision her er blot et bevis på konceptet.Udviklere har ikke adgang til CSAM-hash-databasen, hvilket ville kræve oprettelse af falske positiver i realtidssystemet, men det beviser, at kollisionsangreb i princippet er relativt nemme.
Apple bekræftede effektivt, at algoritmen er grundlaget for sit eget system, men fortalte bundkortet, at dette ikke er den endelige version.Virksomheden erklærede også, at det aldrig havde til hensigt at holde det fortroligt.
Apple fortalte Motherboard i en e-mail, at versionen analyseret af brugeren på GitHub er en generisk version, ikke den endelige version, der bruges til iCloud Photo CSAM-detektion.Apple sagde, at det også afslørede algoritmen.
"NeuralHash-algoritmen [...] er en del af den signerede operativsystemkode [og] sikkerhedsforskere kan bekræfte, at dens adfærd stemmer overens med beskrivelsen," skrev et Apple-dokument.
Virksomheden fortsatte med at sige, at der er to trin mere: at køre et sekundært (hemmeligt) matchningssystem på sin egen server og manuel gennemgang.
Apple udtalte også, at efter at brugere har passeret tærsklen på 30 kampe, vil en anden ikke-offentlig algoritme, der kører på Apples servere, kontrollere resultaterne.
"Denne uafhængige hash blev valgt for at afvise muligheden for, at den fejlagtige NeuralHash matcher den krypterede CSAM-database på enheden på grund af modstridende interferens af ikke-CSAM-billeder og overskrider matchende tærskel."
Brad Dwyer fra Roboflow fandt en måde, hvorpå han nemt kunne skelne mellem de to billeder, der blev postet som et bevis på konceptet for et kollisionsangreb.
Jeg er nysgerrig efter, hvordan disse billeder ser ud i CLIP af en lignende, men anderledes neural feature extractor OpenAI.CLIP virker på samme måde som NeuralHash;den tager et billede og bruger et neuralt netværk til at generere et sæt trækvektorer, der er knyttet til billedets indhold.
Men OpenAIs netværk er anderledes.Det er en generel model, der kan kortlægge mellem billeder og tekst.Det betyder, at vi kan bruge det til at udtrække menneskeligt forståelig billedinformation.
Jeg kørte de to kollisionsbilleder ovenfor gennem CLIP for at se, om det også blev narret.Det korte svar er: nej.Dette betyder, at Apple bør være i stand til at anvende et andet feature extractor-netværk (såsom CLIP) på de opdagede CSAM-billeder for at afgøre, om de er ægte eller falske.Det er meget sværere at generere billeder, der bedrager to netværk på samme tid.
Endelig, som tidligere nævnt, gennemgås billederne manuelt for at bekræfte, at de er CSAM.
En sikkerhedsforsker sagde, at den eneste reelle risiko er, at enhver, der ønsker at irritere Apple, kan give falske positiver til menneskelige anmeldere.
"Apple har faktisk designet dette system, så hash-funktionen behøver ikke at holdes hemmelig, for det eneste du kan gøre med 'ikke-CSAM som CSAM' er at irritere Apples svarteam med nogle uønskede billeder, indtil de implementerer filtre for at eliminere analyse Det affald i pipelinen er falske positive,” sagde Nicholas Weaver, en seniorforsker ved Institute of International Computer Science ved University of California, Berkeley, til Motherboard i en online chat.
Privatliv er et spørgsmål af stigende bekymring i dagens verden.Følg alle rapporter relateret til privatliv, sikkerhed osv. i vores retningslinjer.
Ben Lovejoy er en britisk teknisk skribent og EU-redaktør for 9to5Mac.Han er kendt for sine klummer og dagbogsartikler, hvor han udforsker sine erfaringer med Apple-produkter over tid for at få mere omfattende anmeldelser.Han skriver også romaner, der er to tekniske thrillere, et par korte science fiction-film og en rom-com!


Indlægstid: 20. august 2021