Sistemi CSAM i Apple u mashtrua, por kompania ka dy masa mbrojtëse

Përditësimi: Apple përmendi një inspektim të dytë të serverit dhe një kompani profesionale e vizionit kompjuterik përshkroi mundësinë e asaj që kjo mund të përshkruhet në "Si mund të funksionojë inspektimi i dytë" më poshtë.
Pasi zhvilluesit ndryshuan disa pjesë të tij, versioni i hershëm i sistemit Apple CSAM është mashtruar në mënyrë efektive për të shënuar një imazh të pafajshëm.Megjithatë, Apple deklaroi se ka masa mbrojtëse shtesë për të parandaluar që kjo të ndodhë në jetën reale.
Zhvillimi i fundit ndodhi pasi algoritmi NeuralHash u publikua në faqen e internetit të zhvilluesve me burim të hapur GitHub, çdokush mund të eksperimentojë me të…
Të gjitha sistemet CSAM funksionojnë duke importuar një bazë të dhënash të materialeve të njohura të abuzimit seksual të fëmijëve nga organizata të tilla si Qendra Kombëtare për Fëmijët e Zhdukur dhe të Shfrytëzuar (NCMEC).Baza e të dhënave ofrohet në formën e hasheve ose gjurmëve dixhitale të gishtërinjve nga imazhet.
Megjithëse shumica e gjigantëve të teknologjisë skanojnë fotot e ngarkuara në cloud, Apple përdor algoritmin NeuralHash në iPhone të klientit për të gjeneruar një vlerë hash të fotografisë së ruajtur dhe më pas e krahason atë me kopjen e shkarkuar të vlerës hash CSAM.
Dje, një zhvillues pretendoi se kishte modifikuar algoritmin e Apple dhe kishte lëshuar kodin në GitHub - ky pretendim u konfirmua në mënyrë efektive nga Apple.
Brenda pak orësh pasi u publikua GitHib, studiuesit përdorën me sukses algoritmin për të krijuar një qëllim pozitiv fals - dy imazhe krejtësisht të ndryshme që gjeneruan të njëjtën vlerë hash.Kjo quhet përplasje.
Për sisteme të tilla, ekziston gjithmonë rreziku i përplasjeve, sepse hash-i është sigurisht një paraqitje shumë e thjeshtuar e imazhit, por është e habitshme që dikush mund ta gjenerojë imazhin kaq shpejt.
Përplasja e qëllimshme këtu është vetëm një provë e konceptit.Zhvilluesit nuk kanë akses në bazën e të dhënave hash CSAM, gjë që do të kërkonte krijimin e pozitivëve fals në sistemin në kohë reale, por vërteton se sulmet e përplasjes janë relativisht të lehta në parim.
Apple konfirmoi në mënyrë efektive se algoritmi është baza e sistemit të vet, por i tha motherboard-it se ky nuk është versioni përfundimtar.Kompania gjithashtu deklaroi se nuk kishte ndërmend ta mbante atë konfidenciale.
Apple i tha Motherboard në një email se versioni i analizuar nga përdoruesi në GitHub është një version gjenerik, jo versioni përfundimtar i përdorur për zbulimin e iCloud Photo CSAM.Apple tha se zbuloi gjithashtu algoritmin.
"Algoritmi NeuralHash [...] është pjesë e kodit të nënshkruar të sistemit operativ [dhe] studiuesit e sigurisë mund të verifikojnë nëse sjellja e tij përputhet me përshkrimin," shkroi një dokument i Apple.
Kompania vazhdoi të thotë se ka edhe dy hapa të tjerë: ekzekutimi i një sistemi të përputhjes dytësore (sekret) në serverin e vet dhe rishikimi manual.
Apple deklaroi gjithashtu se pasi përdoruesit të kalojnë pragun e 30 ndeshjeve, një algoritëm i dytë jo publik që funksionon në serverët e Apple do të kontrollojë rezultatet.
"Ky hash i pavarur u zgjodh për të hedhur poshtë mundësinë që NeuralHash i gabuar përputhet me bazën e të dhënave të koduar CSAM në pajisje për shkak të ndërhyrjes kundërshtare të imazheve jo-CSAM dhe tejkalon pragun e përputhjes."
Brad Dwyer nga Roboflow gjeti një mënyrë për të dalluar lehtësisht midis dy imazheve të postuara si një provë e konceptit për një sulm përplasjeje.
Jam kurioz se si duken këto imazhe në CLIP të një nxjerrësi të ngjashëm por të ndryshëm të veçorive nervore OpenAI.CLIP funksionon në mënyrë të ngjashme me NeuralHash;merr një imazh dhe përdor një rrjet nervor për të gjeneruar një grup vektorësh të veçorive që lidhen me përmbajtjen e imazhit.
Por rrjeti i OpenAI është i ndryshëm.Është një model i përgjithshëm që mund të bëjë një hartë midis imazheve dhe tekstit.Kjo do të thotë që ne mund ta përdorim atë për të nxjerrë informacione imazhi të kuptueshme për njeriun.
Kam drejtuar dy imazhet e përplasjes më lart përmes CLIP për të parë nëse ishte mashtruar gjithashtu.Përgjigja e shkurtër është: jo.Kjo do të thotë që Apple duhet të jetë në gjendje të aplikojë një rrjet të dytë nxjerrës të veçorive (siç është CLIP) në imazhet e zbuluara CSAM për të përcaktuar nëse ato janë të vërteta apo të rreme.Është shumë më e vështirë të gjenerosh imazhe që mashtrojnë dy rrjete në të njëjtën kohë.
Më në fund, siç u përmend më herët, imazhet shqyrtohen manualisht për të konfirmuar se ato janë CSAM.
Një studiues i sigurisë tha se i vetmi rrezik real është se kushdo që dëshiron të fyejë Apple mund të japë rezultate false pozitive për rishikuesit njerëzorë.
“Apple në fakt e ka projektuar këtë sistem, kështu që funksioni hash nuk ka nevojë të mbahet i fshehtë, sepse e vetmja gjë që mund të bëni me 'non-CSAM si CSAM' është të bezdisni ekipin e përgjigjes së Apple me disa imazhe të padëshiruara derisa të zbatojnë filtra për të eliminuar analiza Ato mbeturina në tubacion janë false pozitive,” tha Nicholas Weaver, një studiues i lartë në Institutin e Shkencave Ndërkombëtare Kompjuterike në Universitetin e Kalifornisë, Berkeley, për Motherboard në një bisedë në internet.
Privatësia është një çështje me shqetësim në rritje në botën e sotme.Ndiqni të gjitha raportet në lidhje me privatësinë, sigurinë, etj. në udhëzimet tona.
Ben Lovejoy është një shkrimtar teknik britanik dhe redaktor i BE-së për 9to5Mac.Ai është i njohur për kolonat dhe artikujt e tij të ditarit, duke eksploruar përvojën e tij me produktet e Apple me kalimin e kohës për të marrë komente më gjithëpërfshirëse.Ai gjithashtu shkruan romane, ka dy thrillerë teknikë, disa filma të shkurtër fantastiko-shkencor dhe një rom-com!


Koha e postimit: Gusht-20-2021