Apple CSAM sistēma tika maldināta, taču uzņēmumam ir divi aizsardzības līdzekļi

Atjauninājums: Apple minēja otro servera pārbaudi, un profesionāls datorredzes uzņēmums izklāstīja iespēju, ko tas varētu aprakstīt tālāk sadaļā “Kā varētu darboties otrā pārbaude”.
Pēc tam, kad izstrādātāji apgrieza tās daļas, Apple CSAM sistēmas agrīnā versija tika efektīvi pievilta, lai iezīmētu nevainīgu attēlu.Tomēr Apple paziņoja, ka tai ir papildu drošības pasākumi, lai nepieļautu, ka tas notiek reālajā dzīvē.
Jaunākā attīstība notika pēc tam, kad NeuralHash algoritms tika publicēts atvērtā pirmkoda izstrādātāju vietnē GitHub, ikviens var eksperimentēt ar to…
Visas CSAM sistēmas darbojas, importējot zināmu bērnu seksuālās vardarbības materiālu datubāzi no tādām organizācijām kā Nacionālais pazudušo un izmantoto bērnu centrs (NCMEC).Datu bāze tiek nodrošināta attēlu jaukšanas vai digitālo pirkstu nospiedumu veidā.
Lai gan lielākā daļa tehnoloģiju gigantu skenē mākonī augšupielādētos fotoattēlus, Apple klienta iPhone tālrunī izmanto NeuralHash algoritmu, lai ģenerētu saglabātā fotoattēla jaucējvērtību un pēc tam to salīdzina ar lejupielādēto CSAM jaucējvērtības kopiju.
Vakar kāds izstrādātājs apgalvoja, ka ir apvērsis Apple algoritmu un izlaidis kodu GitHub — šo apgalvojumu efektīvi apstiprināja Apple.
Dažu stundu laikā pēc GitHib izlaišanas pētnieki veiksmīgi izmantoja algoritmu, lai izveidotu tīšu viltus pozitīvu rezultātu — divus pilnīgi atšķirīgus attēlus, kas ģenerēja tādu pašu jaucējvērtību.To sauc par sadursmi.
Šādām sistēmām vienmēr pastāv sadursmju risks, jo hash, protams, ir ievērojami vienkāršots attēla attēlojums, taču ir pārsteidzoši, ka kāds var tik ātri ģenerēt attēlu.
Apzināta sadursme šeit ir tikai koncepcijas pierādījums.Izstrādātājiem nav piekļuves CSAM hash datu bāzei, kas prasītu viltus pozitīvu rezultātu izveidi reāllaika sistēmā, taču tas pierāda, ka sadursmju uzbrukumi principā ir salīdzinoši viegli.
Apple efektīvi apstiprināja, ka algoritms ir tās sistēmas pamatā, taču paziņoja mātesplatei, ka šī nav galīgā versija.Uzņēmums arī paziņoja, ka tas nekad nav plānojis to saglabāt konfidenciālu.
Apple e-pastā Motherboard paziņoja, ka versija, ko lietotājs analizēja GitHub, ir vispārīga versija, nevis galīgā versija, ko izmanto iCloud Photo CSAM noteikšanai.Apple paziņoja, ka atklāja arī algoritmu.
"NeuralHash algoritms [..] ir daļa no parakstītā operētājsistēmas koda [un] drošības pētnieki var pārbaudīt, vai tā darbība atbilst aprakstam," teikts Apple dokumentā.
Uzņēmums turpināja teikt, ka ir vēl divas darbības: sekundāras (slepenas) atbilstības sistēmas palaišana savā serverī un manuāla pārskatīšana.
Apple arī paziņoja, ka pēc tam, kad lietotāji būs pārsnieguši 30 spēļu slieksni, otrs nepublisks algoritms, kas darbojas Apple serveros, pārbaudīs rezultātus.
"Šis neatkarīgais hash tika izvēlēts, lai noraidītu iespēju, ka kļūdainais NeuralHash atbilst šifrētajai CSAM datu bāzei ierīcē, jo tiek traucēti attēli, kas nav CSAM, un pārsniedz atbilstības slieksni."
Breds Dvaiers no Roboflow atrada veidu, kā viegli atšķirt divus attēlus, kas publicēti kā sadursmes uzbrukuma koncepcijas pierādījums.
Mani interesē, kā šie attēli izskatās līdzīga, bet atšķirīga neironu funkciju ekstraktora OpenAI CLIP.CLIP darbojas līdzīgi kā NeuralHash;tas aizņem attēlu un izmanto neironu tīklu, lai ģenerētu pazīmju vektoru kopu, kas atbilst attēla saturam.
Bet OpenAI tīkls ir atšķirīgs.Tas ir vispārējs modelis, kas var kartēt attēlus un tekstu.Tas nozīmē, ka mēs varam to izmantot, lai iegūtu cilvēkam saprotamu attēla informāciju.
Es palaižu divus iepriekš minētos sadursmes attēlus, izmantojot CLIP, lai redzētu, vai tas arī nav maldināts.Īsā atbilde ir: nē.Tas nozīmē, ka Apple vajadzētu būt iespējai izmantot otru funkciju izvilkšanas tīklu (piemēram, CLIP) atklātajiem CSAM attēliem, lai noteiktu, vai tie ir īsti vai viltoti.Ir daudz grūtāk ģenerēt attēlus, kas vienlaikus maldina divus tīklus.
Visbeidzot, kā minēts iepriekš, attēli tiek manuāli pārskatīti, lai apstiprinātu, ka tie ir CSAM.
Drošības pētnieks teica, ka vienīgais reālais risks ir tāds, ka ikviens, kurš vēlas kaitināt Apple, var sniegt viltus pozitīvus rezultātus cilvēku vērtētājiem.
"Apple faktiski izstrādāja šo sistēmu, tāpēc jaukšanas funkcija nav jātur noslēpumā, jo vienīgais, ko varat darīt ar "ne-CSAM kā CSAM", ir kaitināt Apple reaģēšanas komandu ar dažiem nevēlamiem attēliem, līdz viņi ievieš filtrus, lai tos novērstu. analīze Šie atkritumi, kas atrodas cauruļvadā, ir kļūdaini pozitīvi," tiešsaistes tērzēšanā Motherboard teica Nikolass Vēvers, Kalifornijas Universitātes Starptautisko datorzinātņu institūta vecākais pētnieks Bērklijā.
Privātums mūsdienu pasaulē rada arvien lielākas bažas.Izpildiet visus mūsu vadlīnijās sniegtos ziņojumus, kas saistīti ar privātumu, drošību utt.
Bens Lovejojs ir britu tehniskais rakstnieks un ES 9to5Mac redaktors.Viņš ir pazīstams ar savām slejām un dienasgrāmatu rakstiem, laika gaitā pētot savu pieredzi ar Apple produktiem, lai iegūtu plašākus pārskatus.Viņš arī raksta romānus, ir divi tehniskie trilleri, dažas īsfilmas zinātniskās fantastikas filmās un rom-com!


Publicēšanas laiks: 20. augusts 2021