V auguste 2021 spoločnosť Apple odhalila svoje plány skenovať v telefónoch iPhone obrázky sexuálneho zneužívania detí. Tento krok vyvolal potlesk skupín na ochranu detí, ale medzi odborníkmi na súkromie a bezpečnosť vyvolal obavy, že by táto funkcia mohla byť zneužitá.

Apple pôvodne plánoval zahrnúť do iOS 15 skenovaciu technológiu CSAM (Child Sexual Abuse Material); namiesto toho donekonečna odďaľovalo zavedenie funkcie s cieľom vyžiadať si spätnú väzbu pred jej úplným vydaním.

Prečo sa teda funkcia detekcie CSAM stala predmetom búrlivých diskusií a prečo Apple odložilo jeho zavedenie?

Čo robí funkcia skenovania fotografií od spoločnosti Apple?

Spoločnosť Apple oznámila implementáciu funkcie skenovania fotografií v nádeji, že bude bojovať proti sexuálnemu zneužívaniu detí. Všetky fotografie v zariadeniach používateľov Apple budú skenované na pedofilský obsah pomocou algoritmu „NueralHash“ vytvoreného spoločnosťou Apple.

Navyše všetky zariadenia Apple používané deťmi budú mať bezpečnostnú funkciu, ktorá sa automaticky rozmazať obrázky pre dospelých, ak ich dostane dieťa, a používateľ by bol dvakrát upozornený, ak by sa pokúsil otvoriť ich.

instagram viewer

Okrem minimalizácie vystavenia obsahu pre dospelých, ak rodičia zaregistrujú zariadenia, ktorých vlastníkmi sú ich deti dodatočnej bezpečnosti, rodičia by boli upozornení v prípade, že dieťa dostane od niekoho explicitný obsah online.

Čítaj viac: Čo potrebujete vedieť o ochranných opatreniach spoločnosti Apple na ochranu detí

Pokiaľ ide o dospelých, ktorí používajú Siri na hľadanie všetkého, čo sexualizuje deti, Siri toto vyhľadávanie nevykoná a namiesto toho navrhne iné alternatívy.

Údaje z akéhokoľvek zariadenia obsahujúceho 10 alebo viac fotografií, ktoré algoritmy považujú za podozrivé, budú dešifrované a podrobené kontrole ľuďmi.

Ak sa tieto fotografie alebo akékoľvek iné v zariadení zhodujú s čímkoľvek z databázy poskytnutej spoločnosťou Národné centrum pre nezvestné a zneužívané deti, bude nahlásený úradom a účet používateľa bude pozastavený.

Hlavné obavy týkajúce sa funkcie skenovania fotografií

Funkcia detekcie CSAM by bola spustená pri uvedení systému iOS 15 v septembri 2021, ale tvárou v tvár z dôvodu rozsiahleho protestu sa spoločnosť Apple rozhodla venovať viac času zhromažďovaniu spätnej väzby a zlepšovaniu tohto funkcia. Tu je Úplné vyhlásenie spoločnosti Apple o meškaní:

„Minulý mesiac sme oznámili plány funkcií, ktoré majú pomôcť chrániť deti pred predátormi, ktorí používať komunikačné nástroje na ich nábor a zneužívanie a obmedziť šírenie sexuálneho zneužívania detí Materiál.

Na základe spätnej väzby od zákazníkov, advokátskych skupín, výskumníkov a ďalších sme sa rozhodli venovať viac času nadchádzajúce mesiace, aby sme zhromaždili podnety a urobili vylepšenia pred vydaním tejto kriticky dôležitej bezpečnosti detí Vlastnosti".

Takmer polovica obáv týkajúcich sa funkcie skenovania fotografií spoločnosti Apple sa točí okolo súkromia; zvyšok argumentov zahŕňa pravdepodobnú nepresnosť algoritmov a potenciálne zneužitie systému alebo jeho medzier.

Rozoberme si to na štyri časti.

Možné zneužitie

Vedomie toho, že akýkoľvek materiál zodpovedajúci detskej pornografii alebo známe obrázky sexuálneho zneužívania detí dostane zariadenie do zoznamu „podozrivých“, môže kybernetických zločincov rozhýbať.

Môžu úmyselne bombardovať osobu nevhodným obsahom prostredníctvom služby iMessage, WhatsApp alebo inými prostriedkami a pozastaviť jej účet.

Spoločnosť Apple uistila, že používatelia môžu podať odvolanie v prípade, že im boli účty pozastavené z dôvodu nedorozumenia.

Zneužívanie zasvätených osôb

Napriek tomu, že je táto funkcia navrhnutá pre blahosklonné účely, môže sa pre niektorých ľudí v prípade ich zariadení zmeniť na úplnú katastrofu sú do systému registrovaní príbuznými, ktorí majú záujem monitorovať svoju komunikáciu, s ich vedomím alebo bez nich.

Aj keď sa to nestane, Apple vytvoril zadné vrátka, aby na konci dňa sprístupnil údaje používateľov. Teraz je to vec motivácie a odhodlania ľudí k prístupu k osobným informáciám iných ľudí.

Súvisiace: Čo sú to zadné vrátka a ako to funguje?

Neuľahčí iba zásadné narušenie súkromia, ale tiež vydláždi cestu pre zneužívanie, jedovatosť alebo kontrolu príbuzní, opatrovníci, priatelia, milenci, opatrovatelia a bývalí, aby ďalej zasahovali do niekoho osobného priestoru alebo obmedzovali jeho sloboda.

Na jednej strane je určený na boj proti sexuálnemu zneužívaniu detí; na druhej strane sa dá použiť na ďalšie udržanie iných druhov zneužívania.

Vládny dohľad

Spoločnosť Apple sa vždy považovala za značku, ktorá viac dbá na ochranu osobných údajov ako jej konkurenti. Teraz však možno vstupuje na klzký svah, keď musí splniť nekonečné požiadavky transparentnosti v údaje o používateľoch vládami.

Systém, ktorý vytvoril na detekciu pedofilného obsahu, je možné použiť na detekciu akéhokoľvek druhu obsahu v telefónoch. To znamená, že vlády s kultovou mentalitou môžu monitorovať používateľov na osobnejšej úrovni, ak sa im to dostane do rúk.

Bez ohľadu na to, či je vláda represívna alebo nie, môže byť nervózna a narušuje vaše súkromie. Predstava, že sa takýchto invázií musíte obávať iba vtedy, ak ste urobili niečo zlé, je chybné myslenie a nevidí spomínaný klzký svah.

Falošné poplachy

Jednou z najväčších starostí s používaním algoritmov na párovanie obrázkov s databázou sú falošné poplachy. Hašovacie algoritmy môžu omylom identifikovať dve fotografie ako zhodné, aj keď nie sú rovnaké. Tieto chyby, nazývané „kolízie“, sú obzvlášť alarmujúce v kontexte obsahu sexuálneho zneužívania detí.

Vedci zistili v „NeuralHash“ niekoľko kolízií po tom, čo Apple oznámil, že použije algoritmus na skenovanie obrázkov. Spoločnosť Apple odpovedala na otázky týkajúce sa falošných poplachov tým, že poukázala na to, že výsledok na konci skontroluje človek, takže si ľudia nemusia robiť starosti.

Je pozastavenie CSAM spoločnosti Apple trvalé?

Existuje množstvo výhod a nevýhod funkcie navrhovanej spoločnosťou Apple. Každý z nich je pravý a váži si. Stále nie je jasné, aké konkrétne zmeny by spoločnosť Apple mohla zaviesť do funkcie skenovania CSAM, aby uspokojila svojich kritikov.

Mohlo by to obmedziť skenovanie na zdieľané albumy iCloud namiesto zapojenia zariadení používateľov. Je veľmi nepravdepodobné, že by Apple od týchto plánov úplne upustil, pretože spoločnosť zvyčajne nie je ochotná svojich plánov ustúpiť.

Je to však zrejmé z rozsiahleho odporu a toho, že Apple svoje plány zdržiava spoločnosti by mali začleniť výskumnú komunitu od začiatku, najmä pre netestovaných technológie.

zdieľamTweetE -mail
Bezpečnosť internetu: 50+ tipov, ako zaistiť bezpečnosť vašich detí online

Deti sú hlavným cieľom online predátorov a kyberšikanovania. Tieto praktické rady môžu rodičov naučiť, ako ich udržať v bezpečí online.

Čítajte ďalej

Súvisiace témy
  • Zabezpečenie
  • IPhone
  • Ochrana osobných údajov smartfónov
  • Apple
  • Ochrana osobných údajov online
  • Dohľad
O autorovi
Fawad Ali (19 publikovaných článkov)

Fawad je IT a komunikačný inžinier, začínajúci podnikateľ a spisovateľ. Do oblasti písania obsahu vstúpil v roku 2017 a odvtedy spolupracoval s dvoma digitálnymi marketingovými agentúrami a mnohými klientmi B2B & B2C. Píše o bezpečnosti a technike na MUO s cieľom vzdelávať, zabávať a zapájať publikum.

Viac od Fawada Aliho

prihlásiť sa ku odberu noviniek

Pripojte sa k nášmu bulletinu a získajte technické tipy, recenzie, bezplatné elektronické knihy a exkluzívne ponuky!

Kliknutím sem sa prihlásite na odber