TechnologieZprávy

Algoritmy společnosti Apple budou kontrolovat fotografie uživatelů, aby odhalily případy zneužívání dětí

Apple bude na fotkách majitelů iPhonů hledat zneužívání dětí. Je příliš pozdě být pobouřen sledováním, data jsou již pryč

Pomocí neuronových sítí bude Apple skenovat telefony, zda neobsahují obrázky sexuálního zneužívání dětí. Pokud se takové fotografie najdou, budou údaje předány policii. Někteří se obávají, že podobné vyhledávací technologie mohou být použity pro jiné účely.

Jak to bude fungovat?

Apple zavádí vyhledávač materiálů pro sexuální zneužívání dětí (CSAM). Prozatím bude fungovat pouze na zařízeních amerických zákazníků.

Jak řekl Vladimir Uljanov, vedoucí analytického centra Zecurion, program má tři důležité body. Za prvé, systém bude sledovat, co si děti stahují. Pokud vidí, že se dítě pokouší stáhnout nebo mu posílá něco neslušného, ​​bude obraz vypadat rozmazaně. A než se to dítě pokusí uložit, na obrazovce se objeví varovná otázka: „Jste si jistý?“ Kromě toho bude jeho rodičům zasláno oznámení o stažení.

Za druhé, Siri a další systémy hlasových asistentů na zařízeních Apple zdůrazní otázky, které se mohou zdát podivné a budou zaujaté směrem k tématu pedofilie. V takových chvílích hlasový asistent vyzve majitele, aby vyhledal pomoc anonymního psychologa.

Zatřetí, před uložením fotografií na iCloud je neuronová síť porovná s databází známých obrázků sexuálního zneužívání dětí sestavenou různými organizacemi pro bezpečnost dětí. Tyto obrázky jsou přeloženy do hashů, číselných kódů, které lze přiřadit k obrázku na zařízení Apple. Apple říká, že technologie zachytí také upravené, ale podobné verze původních obrázků.

Zajímavé:  Američan si ze staré sanitky vyrobil mobilní dům –

Společnost uvedla, že systém má extrémně vysokou úroveň přesnosti. Apple garantuje, že pravděpodobnost špatného označení účtu bude menší než jedna ku bilionu ročně.

Každá zpráva s označeným profilem bude ručně zkontrolována, aby se potvrdila shoda, uvedla BBC. Apple poté deaktivuje účet uživatele a nahlásí uživatele orgánům činným v trestním řízení.

Rodiče se přitom nemusí bát, že by systém považoval fotku jejich miminka na pláži za pornografický materiál. Nyní mluvíme pouze o porovnání obrázků uživatele s obrázky již nashromážděnými v databázi.

Obavy o soukromí

Uljanov poznamenává, že samotná myšlenka je dobrá, ale existuje o ní řada otázek. Možnost podívat se na všechny fotografie uživatele a z jakéhokoli důvodu z nich udělat hash je otravná. Tento systém lze použít nejen pro porovnání s databází fotografií týrání dětí, ale i s jakýmikoli jinými. Zjistěte například, kterých shromáždění se člověk zúčastnil. Neexistuje žádný mechanismus, který by před tím mohl uživatele ochránit.

Expert na informační bezpečnost ze společnosti Cisco Systems Alexey Lukatsky také zdůraznil, že možnost sledovat nejen soubory s nevhodným obsahem, ale obecně všechny obrázky, které jsou ukládány uživateli produktů Apple, je matoucí. Poznamenal, že podobné algoritmy již používají platformy Twitter, Facebook a Google.

Prezident konsorcia Inforus Andrei Masalovich poznamenal, že pokud zahodíme možnost chyb v procesu automatizovaného ověřování fotografií, pak s inovacemi nejsou žádné problémy. Podle něj už vývojáři zařízení mají k našim gadgetům hluboký přístup. Aplikacím pravidelně poskytujeme přístup k našim kontaktům, galerii a geolokaci. Aktualizace společnosti Apple nepředstavuje žádná nová rizika pro naši informační bezpečnost.

„Apple už o nás má poměrně velké množství dat, zvláště pokud na našich zařízeních používáme zálohování iCloud. V tomto případě nevzniknou žádná nová rizika z úniků nebo porušení soukromí,“ potvrdil Lukatsky.

Zajímavé:  5 mylných představ o ženách, které vám brání porozumět světu.

Někteří se obávají, že nové technologie povedou k tomu, že úřady budou chtít přístup k našim osobním údajům. Lukatsky si je jistý, že se to nestane. Apple důrazně chrání zájmy svých zákazníků. Někdy společnost odmítne prozradit přístup k informacím svých uživatelů, i když soudní rozhodnutí říká něco jiného.

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

Back to top button