AppleBezpečnosťSpravodajstvoTechnológie

Apple nakoniec odsúva zavedenie kontroverznej funkcie CSAM do iOS na neskôr

Apple odkladá zavedenie technológie CSAM slúžiacej na identifikáciu obsahu s erotickým obsahom s deťmi v telefónoch iPhone na neskôr.

Ešte začiatkom augusta tohto roka obehla technologickú komunitu správa, ktorá neskôr vyvolala obavy v očiach bežných ľudí. Išlo o funkciu „CSAM“, na ktorej pracovala spoločnosť Apple.

Vo svojej podstate ide o technológiu, ktorá má dobrý úmysel. Skratka CSAM znamená „Child Sexual Abuse Material“ a má slúžiť na identifikáciu multimediálneho obsahu v smartfónoch používateľov iPhone, ktorý nie je s kostolným poriadkom. Technológia „NeuralHash“, ktorá tvorí základ tejto funkcie, sľubuje identifikáciu erotického obsahu s neplnoletými osobami v zariadeniach spoločnosti.

Odoberajte Vosveteit.sk cez Telegram a prihláste sa k odberu správ

Hoci zámer ako taký je bezpochyby správny, tak veľká časť používateľov vyjadrila obavy, že táto technológia by mohla byť potenciálne zneužitou.

Apple implementáciu technológie do iOS odsúva na neskôr

Technológia CSAM mala byť implementovanou v smartfónoch spoločnosti spolu s príchodom iOS 15. To sa však nakoniec nestane. Apple to potvrdil v rozhovore pre portál TechCrunch, kde spoločnosť uviedla, že plány na ochranu detí, ktoré spoločnosť nedávno predstavila, nebudú zavedené príchodom tejto verzie iOS.

Apple uviedol, že pred zavedením tejto funkcie chcú spresniť všetky algoritmy, ktoré sa starajú o identifikáciu tohto typu obsahu, aby zabezpečili 100% bezpečnosť. Pravdepodobne však cieľom spoločnosti Apple je, aby ubezpečili svojich zákazníkov, že technológia nie je nebezpečnou a neplynú z nej žiadne hrozby zneužitia.

Technológia ako taká mala pôvodne fungovať spôsobom, že potom, ako používateľ odošle fotografiu do služby iCloud, tak algoritmus porovná obsah s podpismi CSAM, ktoré sa nachádzajú v databáze. Ak by bola vyhodnotená zhoda, tak algoritmus mal následne odoslať fotografiu na ďalšie preskúmanie bez toho, aby bol o tom používateľ notifikovaný. Ak by počet takýchto preverení prekročil určitú hranicu, tak fotografie by boli následne preverené zamestnancom spoločnosti, aby preveril, či ide o chybu algoritmu, alebo nie.

Analytik Matthew Green, ktorý začiatkom augusta upozorňoval na nový algoritmus poznamenal, že definícia CSAM sú naformulované veľmi vágne, čo môže mať za následok, že bude veľa fotografií vyhodnotených ako problémových, hoci nie sú.

Prihláste sa k odberu správ z Vosveteit.sk cez Google správy
Tagy
Zobraziť komentáre
Close
Close