Čitatelia ako vy pomáhajú podporovať MUO. Keď uskutočníte nákup pomocou odkazov na našej stránke, môžeme získať pridruženú províziu. Čítaj viac.

Spoločnosť Apple oznámila, že v auguste 2021 plánuje skenovať váš obsah iCloud, či neobsahuje materiál so sexuálnym zneužívaním detí (CSAM), aby ochránila deti pred zneužívaním predátormi.

Spoločnosť plánovala spustiť novú funkciu detekcie sexuálneho zneužívania detí v iCloud Photos, ktorá by vyhľadávala takýto obsah a hlásila zodpovedajúce obrázky spoločnosti Apple pri zachovaní súkromia používateľov.

Nová funkcia sa však stretla so zmiešanými reakciami. Viac ako rok od počiatočného oznámenia spoločnosť Apple oficiálne upúšťa od svojho plánu skenovať fotografie iCloud pre CSAM.

Apple upustil od svojho plánu skenovať iCloud, či neobsahuje materiál so zneužívaním detí

Podľa správy od WIREDApple odstupuje od svojho plánu skenovať váš iCloud, či neobsahuje obsah zneužívania detí. Tento nástroj by skenoval fotografie uložené v iCloude, aby našiel tie, ktoré sa zhodujú so známymi obrázkami CSAM identifikovanými organizáciami pre bezpečnosť detí. Potom by mohol tieto obrázky nahlásiť, pretože vlastníctvo obrázkov zobrazujúcich sexuálne zneužívanie detí je nezákonné vo väčšine jurisdikcií vrátane USA.

instagram viewer

Prečo spoločnosť Apple zrušila svoj plán skenovania fotografií iCloud

Po prvom oznámení v roku 2021 čelila spoločnosť Apple odporu zo strany zákazníkov, skupín a jednotlivcov obhajujúcich digitálne súkromie a bezpečnosť na celom svete. Telefóny iPhone zvyčajne ponúkajú väčšiu bezpečnosť ako zariadenia so systémom Androida mnohí to považovali za krok späť. Aj keď to bola výhra pre organizácie zaoberajúce sa bezpečnosťou detí, viac ako 90 politických skupín napísalo neskôr v ten istý mesiac spoločnosti Apple otvorený list, v ktorom spoločnosti povedali, aby tento plán zrušila.

List tvrdil, že zatiaľ čo nástroj má v úmysle chrániť deti pred zneužívaním, mohol by byť využitý na cenzúru slobody prejavu a ohrozovanie súkromia a bezpečnosti používateľov. Kvôli rastúcemu tlaku spoločnosť Apple zastavila svoje plány na spustenie, aby získala spätnú väzbu a vykonala potrebné úpravy funkcie. Spätná väzba však neuprednostňovala plán spoločnosti Apple skenovať fotografie iCloud, takže spoločnosť od plánov nadobro upúšťa.

Vo vyhlásení pre WIRED spoločnosť uviedla:

"Máme... sa rozhodli neposunúť sa vpred s naším predtým navrhovaným nástrojom na detekciu sexuálneho zneužívania detí v službe iCloud Photos. Deti môžu byť chránené bez toho, aby spoločnosti prečesávali osobné údaje, a budeme pokračovať v spolupráci s vládami, obhajcami detí a iné spoločnosti, aby pomohli chrániť mladých ľudí, zachovali ich právo na súkromie a urobili internet bezpečnejším miestom pre deti aj pre nás všetky."

Nový plán spoločnosti Apple na ochranu detí

Spoločnosť Apple presmeruje svoje úsilie na zlepšenie funkcií bezpečnosti komunikácie oznámených v auguste 2021 a spustených v decembri toho istého roku.

Bezpečnosť komunikácie je voliteľná a môžu ju použiť rodičia a opatrovníci na ochranu detí pred odosielaním a prijímaním sexuálne explicitných obrázkov v iMessage. Funkcia takéto fotografie automaticky rozmaže a dieťa bude upozornené na nebezpečenstvo, ktoré s tým súvisí. Tiež varuje každého, ak sa pokúsi vyhľadať CSAM na zariadeniach Apple.

Keďže plány na spustenie nástroja na detekciu CSAM boli zrušené, spoločnosť sa teší na ďalšie zlepšenie funkcie a jej rozšírenie na ďalšie komunikačné aplikácie.