Az iPhone egyelőre nem fog automatikusan gyerekekről készült pornófelvételeket keresni

2021. szeptember 03. – 18:31

frissítve

Másolás

Vágólapra másolva

Az Apple egy hónapja, augusztus elején jelentette be, hogy az amerikai iPhone telefonokon valamikor 2021-ben élesedik egy funkció, ami az iCloud rendszerében tárolt képeket ellenőrzi, és összeveti ismert, gyerekekről készült pornográf felvételekkel. Úgy néz ki, ez az újítás mégsem fog élesedni egyelőre:

a cég friss közleményében azt írja, rengeteg kritikus, aggódó visszajelzés érkezett a céghez, ezért a következő hónapokban még biztosan nem indítják el a dolgot.

Ahogy azt megírtuk korábban, az amerikai hatóságok a lefoglalt, gyerekekről készült pornóképeket és videókat numerikus kódokként tárolják egy adatbázisban, erre a kódra pedig már lehet keresni. Az elképzelések szerint pontosan ezt tenné majd az Apple rendszere: összeveti a kódokat az iCloudba feltöltött képekével. Ezt viszont a feltöltés előtt teszi meg, a felhasználó telefonján, mielőtt a kép megérkezne a felhőbe.

Ha a rendszer talál ilyen képeket, az eset egy hús-vér döntnökhöz kerül, aki értesítheti a hatóságokat, sőt, a tervek szerint a jövőben egy olyan újítást is bevezetnének, amiben a szülők számára elérhető lesz egy értesítés, ami jelez nekik, ha a gyerekeik meztelen képeket küldenek vagy fogadnak.

Már a bejelentés után is többen megszólaltak a tervezett funkcióval kapcsolatban, és azt számos kritika érte. Matthew Green, a Johns Hopkins Egyetem kriptográfiai professzora szerint például az Apple ezzel egy nagyon veszélyes precendenst teremt, egy olyan megfigyelési technológiát hoz létre, amit aztán kihasználhatnak a hatóságok és a világ kormányai. Green azt nyilatkozta a New York Timesnak, hogy nem tudja, hogyan tud majd a cég innentől kezdve nemet mondani.

A BBC-cikk idézi az újítás bevezetését elnapoló Apple közleményét, amiben ezekre a kritikákra hivatkozik a cég is. Azt írják: meghallották a kritikákat, és újragondolják az alkalmazás bevezetését, további hónapokat szánnak a fejlesztésre.