Appleov CSAM sustav je prevaren, ali tvrtka ima dvije zaštitne mjere

Ažuriranje: Apple je spomenuo drugu inspekciju poslužitelja, a profesionalna tvrtka za računalni vid opisala je mogućnost što bi to moglo biti - opisano u "Kako bi druga inspekcija mogla funkcionirati" u nastavku.
Nakon što su programeri izvršili obrnuti inženjering njegovih dijelova, rana verzija Appleovog CSAM sustava je učinkovito prevarena da označi nevinu sliku.Međutim, Apple je izjavio da ima dodatne mjere zaštite kako bi spriječio da se to dogodi u stvarnom životu.
Najnoviji razvoj dogodio se nakon što je algoritam NeuralHash objavljen na web stranici za programere otvorenog koda GitHub, svatko može eksperimentirati s njim...
Svi CSAM sustavi rade uvozom baze podataka poznatih materijala o seksualnom zlostavljanju djece iz organizacija kao što je Nacionalni centar za nestalu i zlostavljanu djecu (NCMEC).Baza podataka dostupna je u obliku hashova ili digitalnih otisaka prstiju sa slika.
Iako većina tehnoloških divova skenira fotografije prenesene u oblak, Apple koristi algoritam NeuralHash na iPhoneu korisnika za generiranje hash vrijednosti pohranjene fotografije, a zatim je uspoređuje s preuzetom kopijom CSAM hash vrijednosti.
Jučer je programer tvrdio da je izvršio obrnuti inženjering Appleovog algoritma i pustio kod na GitHub - ovu tvrdnju je zapravo potvrdio Apple.
Unutar nekoliko sati nakon što je GitHib objavljen, istraživači su uspješno upotrijebili algoritam za stvaranje namjerne lažne pozitivne slike - dvije potpuno različite slike koje su generirale istu hash vrijednost.To se zove sudar.
Za takve sustave uvijek postoji rizik od kolizije, jer je hash naravno uvelike pojednostavljen prikaz slike, ali je iznenađujuće da netko može tako brzo generirati sliku.
Namjerni sudar ovdje samo je dokaz koncepta.Programeri nemaju pristup CSAM hash bazi podataka, što bi zahtijevalo stvaranje lažno pozitivnih rezultata u sustavu u stvarnom vremenu, ali to dokazuje da su kolizijski napadi u načelu relativno laki.
Apple je učinkovito potvrdio da je algoritam osnova vlastitog sustava, ali je rekao matičnoj ploči da ovo nije konačna verzija.Tvrtka je također izjavila da nikada nije namjeravala zadržati tajnost.
Apple je u e-poruci Motherboardu rekao da je verzija koju je analizirao korisnik na GitHubu generička verzija, a ne konačna verzija koja se koristi za iCloud Photo CSAM otkrivanje.Apple je rekao da je također otkrio algoritam.
“Algoritam NeuralHash [...] dio je potpisanog koda operativnog sustava [i] sigurnosni istraživači mogu provjeriti je li njegovo ponašanje u skladu s opisom”, piše u Appleovom dokumentu.
Tvrtka je dalje rekla da postoje još dva koraka: pokretanje sekundarnog (tajnog) sustava za podudaranje na vlastitom poslužitelju i ručni pregled.
Apple je također izjavio da nakon što korisnici prijeđu prag od 30 podudaranja, drugi nejavni algoritam koji radi na Appleovim poslužiteljima provjerit će rezultate.
"Ovaj neovisni hash odabran je kako bi se odbacila mogućnost da se pogrešan NeuralHash podudara s šifriranom CSAM bazom podataka na uređaju zbog kontradiktornog ometanja slika koje nisu CSAM i premašuje prag podudaranja."
Brad Dwyer iz Roboflowa pronašao je način da lako razlikuje dvije slike objavljene kao dokaz koncepta za napad sudara.
Zanima me kako ove slike izgledaju u CLIP-u sličnog, ali drugačijeg ekstraktora neuralnih značajki OpenAI.CLIP radi slično kao NeuralHash;uzima sliku i koristi neuronsku mrežu za generiranje skupa vektora značajki koji se preslikavaju na sadržaj slike.
Ali OpenAI mreža je drugačija.To je opći model koji može mapirati slike i tekst.To znači da ga možemo koristiti za izdvajanje ljudima razumljivih slikovnih informacija.
Provukao sam gornje dvije slike sudara kroz CLIP da vidim je li i to prevareno.Kratak odgovor je: ne.To znači da bi Apple trebao moći primijeniti drugu mrežu za izvlačenje značajki (kao što je CLIP) na otkrivene CSAM slike kako bi utvrdio jesu li prave ili lažne.Mnogo je teže generirati slike koje varaju dvije mreže u isto vrijeme.
Na kraju, kao što je ranije spomenuto, slike se ručno pregledavaju kako bi se potvrdilo da su CSAM.
Istraživač sigurnosti rekao je da je jedini stvarni rizik taj da bi svatko tko želi gnjaviti Apple mogao dati lažne rezultate ljudskim recenzentima.
“Apple je zapravo dizajnirao ovaj sustav, tako da funkcija raspršivanja ne mora biti tajna, jer jedino što možete učiniti s 'ne-CSAM kao CSAM' je gnjaviti Appleov tim za odgovor nekim neželjenim slikama dok ne implementiraju filtre za uklanjanje analiza To smeće u cjevovodu je lažno pozitivno,” Nicholas Weaver, viši istraživač na Institutu za međunarodne računalne znanosti na Sveučilištu Kalifornija, Berkeley, rekao je Motherboardu u online chatu.
Privatnost je pitanje koje sve više zabrinjava u današnjem svijetu.Slijedite sva izvješća koja se odnose na privatnost, sigurnost itd. u našim smjernicama.
Ben Lovejoy je britanski tehnički pisac i EU urednik za 9to5Mac.Poznat je po svojim kolumnama i dnevničkim člancima, istražujući svoje iskustvo s Appleovim proizvodima tijekom vremena kako bi dobio sveobuhvatnije recenzije.Piše i romane, tu su dva tehnička trilera, nekoliko kratkih znanstveno-fantastičnih filmova i rom-com!


Vrijeme objave: 20. kolovoza 2021