Společnost Apple začne koncem tohoto roku skenovat zařízení svých zákazníků z USA kvůli známému materiálu pro sexuální zneužívání dětí (CSAM), ale již nyní čelí odporu obhájců soukromí a bezpečnosti.
Nástroj pro detekci CSAM je jedním ze tří nových opatření pro bezpečnost dětí, které společnost Apple zavádí, včetně monitorování komunikace dětí pomocí strojového učení s cílem zjistit nahotu nebo jiný sexuálně explicitní obsah, a také aktualizovat Search a Siri, aby zasáhly, když uživatelé zadávají dotazy související s CSAM .
Ve svém oznámeníApple uvedl, že nový detekční nástroj umožní společnosti hlásit případy CSAM do Národního centra pro pohřešované a zneužívané děti (NCMEC), které funguje ve spolupráci s vymáháním práva v USA.
Apple uvedl, že namísto skenování obrázků v cloudu systém provede shodu na zařízení s databází známých hash obrázků CSAM poskytovaných NCMEC a dalšími organizacemi pro bezpečnost dětí a tuto databázi přemění na „nečitelnou sadu hash“ aby byly bezpečně uloženy na zařízeních uživatelů.
“Než bude obrázek uložen do iCloud Photos, bude pro tento obrázek proveden proces shody na zařízení proti známým hashům CSAM,” uvedla společnost. “Tento proces párování je poháněn kryptografickou technologií zvanou private set intersection, která určuje, zda existuje shoda, aniž by odhalil výsledek.”
“Zařízení vytvoří šifrovací bezpečnostní poukázku, která kóduje výsledek zápasu spolu s dalšími šifrovanými daty o obrázku.” Tento voucher je nahrán na iCloud Photos spolu s obrázkem. “
Pokud existuje dostatečně silná shoda mezi naskenovanou fotografií a známým obrázkem zneužívání dětí, společnost Apple uvedla, že před deaktivací účtu uživatele a oznámením NCMEC ručně zkontroluje každou zprávu a potvrdí shodu.
“Tato nová inovativní technologie umožňuje společnosti Apple poskytovat cenné a použitelné informace NCMEC a donucovacím orgánům ohledně šíření známého CSAM,” stojí v prohlášení. “A dělá to při poskytování významných výhod ochrany osobních údajů oproti stávajícím technikám, protože Apple se o fotografiích uživatelů dozví pouze tehdy, pokud mají ve svém účtu iCloud Photos sbírku známých CSAM.” I v těchto případech se Apple dozvídá pouze o obrázcích, které odpovídají známému CSAM. “
John Clark, prezident a generální ředitel společnosti NCMEC, uvedl, že rozšířená ochrana společnosti Apple pro děti „změní hru“ a dodává: „S tolika lidmi, kteří používají produkty Apple, mají tato nová bezpečnostní opatření potenciál zachránit život dětem.“
Ačkoli bude tato nová funkce zpočátku používána k skenování fotografií uložených v cloudu ze strany zařízení, někteří odborníci na bezpečnost a soukromí se obávají, jak by bylo možné technologii použít nebo přepracovat.
Matthew Green, výzkumník kryptografie na Johns Hopkins University, Tweetováno: „Nakonec by to mohla být klíčová složka při přidávání dohledu do systémů šifrovaných zpráv. Možnost přidat do E2E takové skenovací systémy [end-to-end] systémy zasílání zpráv byly a major „zeptejte se“ orgánů činných v trestním řízení celý svět. “
Dodal: „Způsob, jakým Apple spouští toto spuštění, bude začínat fotografiemi, které nejsou E2E a které již lidé sdíleli s cloudem. Takže to nikomu neublíží na soukromí. Ale musíte se zeptat, proč by někdo vyvinul takový systém, kdyby skenování fotografií E2E nebylo cílem. “
Electronic Frontier Foundation (EFF) sdíleli podobné nálady„Apple plánuje do svého systému pro ukládání dat a systému zasílání zpráv zabudovat zadní vrátka. Ale tato volba bude mít vysokou cenu za celkové soukromí uživatelů.
“Apple může dlouze vysvětlit, jak jeho technická implementace ochrání soukromí a bezpečnost v navrhovaných zadních vrátkách, ale na konci dne jsou i důkladně zdokumentované, pečlivě promyšlené a úzce vymezené zadní vrátka stále zadními vrátky.”
EFF dodal, že na konci dne nástroj pro detekci CSAM znamená, že všechny fotografie v zařízení budou muset být naskenovány, což sníží soukromí.
Rovněž uvedl, že v souvislosti s monitorováním dětské komunikace kvůli nahotě nebo jinému sexuálně explicitnímu obsahu otevírá společnost Apple dveře širšímu zneužívání, protože vše, co by bylo zapotřebí, je rozšíření parametrů strojového učení nebo vyladění konfiguračních příznaků na hledat jiné typy obsahu.
“To není kluzký svah – to je plně vybudovaný systém, který čeká na vnější tlak, aby provedl sebemenší změnu,” řekl EFF.
Adam Leon Smith, předseda BCS, skupiny Chartered Institute for IT pro testování softwaru, uvedl, že ačkoli se opatření společnosti Apple na první pohled jeví jako dobrý nápad, protože zachovávají soukromí při odhalování vykořisťování, není možné vybudovat takový systém, který funguje pouze pro děti zneužívat obrázky.
“Je snadné si představit, že Apple bude nucen používat stejnou technologii k detekci politických memů nebo textových zpráv,” řekl Smith.
“V zásadě to porušuje příslib šifrování typu end-to-end, což je přesně to, co mnoho vlád chce-samozřejmě kromě vlastních zpráv.”
“Také nebude velmi obtížné vytvářet falešně pozitivní výsledky.” Představte si, že vám někdo pošle na internet zdánlivě neškodný obrázek, který nakonec bude stažen a zkontrolován společností Apple a označen jako zneužívání dětí. Nebude to příjemný zážitek.
“Protože poskytovatelé technologií nadále degradují šifrování pro masy, zločinci a lidé s legitimně citlivým obsahem přestanou používat jejich služby.” Je triviální šifrovat vlastní data, aniž byste se museli spoléhat na Apple, Google a další velké poskytovatele technologií. “
Jiní také varovali, že ačkoli souhlasí s tím, že zabránit šíření CSAM je dobrá věc, technologie, které se zavádějí, by mohly vlády znovu použít pro další hanebné účely.
Chris Hauk, šampión ochrany osobních údajů spotřebitelů ve společnosti Pixel Privacy, řekl: „Taková technologie by mohla být zneužita, pokud by byla vložena do rukou vlády, což by vedlo k jejímu detekování obrázků obsahujících jiné typy obsahu, jako jsou fotografie pořízené na demonstracích a jiné druhy setkání. To by mohlo vést k tomu, že vláda omezí svobodu projevu uživatelů a potlačí „neschválené“ názory a aktivismus.
Paul Bischoff, zastánce ochrany osobních údajů společnosti Comparitech, však zaujal jiný názor a tvrdil, že i když existují důsledky pro soukromí, přístup společnosti Apple vyvažuje soukromí s bezpečností dětí.
“Hašovací systém umožňuje společnosti Apple skenovat zařízení uživatele pro jakékoli obrázky odpovídající těm v databázi známých materiálů zneužívajících děti,” řekl. “To lze provést bez skutečného prohlížení nebo ukládání fotografií uživatele, což zachovává jejich soukromí, s výjimkou případů, kdy je v zařízení nalezena fotografie porušující zásady.”
“Proces hašování pořídí fotografii a zašifruje ji, aby vytvořil jedinečný řetězec čísel a číslic, nazývaný hash.” Apple hashoval všechny fotografie v databázi policejních zneužívání dětí. Na uživatelských iPhonech a iPadech je stejný postup hašování aplikován na fotografie uložené v zařízení. Pokud se některý z výsledných hashů shoduje, pak Apple ví, že zařízení obsahuje dětskou pornografii. “
Bischoff ale řekl, že stále existují nebezpečí, a že použití technologie musí být „přísně omezeno na ochranu dětí“ a nesmí být používáno ke skenování zařízení uživatelů pro další fotografie.
“Pokud úřady hledají někoho, kdo například zveřejnil konkrétní fotografii na sociálních médiích, mohla by Apple podle představ naskenovat fotografie všech uživatelů iPhonu pro tento konkrétní obrázek,” dodal.