Az Apple vizsgálati eszköze, a neuralMatch azelőtt nézi majd át a képeket, mielőtt azokat feltöltik a cég iCloud Photos online tárhelyére, összehasonlítva őket ismert gyermekbántalmazást ábrázoló képek adatbázisval. Erőteljes egyezés esetén az Apple munkatársai személyesen is megvizsgálják az említett képeket, és
ha megerősítik a gyermekbántalmazás tényét, a felhasználó fiókját felfüggesztik, majd értesítik az illetékes hatóságot.
Mivel az eszköz csak ahhoz hasonló képeket keresnek, ami már szerepel a hatóság adatbázisában, tehát az Apple szerint a fürdőző gyermekeikről felvételt készítő szülőknek nem kell aggódniuk, hogy megjelölik őket. Több kutató azonban aggasztónak tartja, hogy a párosítóeszköz, ami nem "lát" képeket, csak matematikai ujjlenyomatokat, a gyermekvédelmen kívül más célokra is bevethető.
A Johns Hopkins Egyetem kriptográfiai kutatója, Matthew Green szerint a rendszert elméletileg arra is lehetne használni, hogy
ártatlan embereket vádoljanak meg úgy, hogy látszólag ártatlan képeket küldenek nekik, melyeket úgy terveznek meg, hogy az eszköz gyermekbántalmazást ábrázoló képnek ítélje őket.
A neuralMatch technológia mellett az Apple azt is tervezi, hogy a felhasználók titkosított üzeneteit is átnézi majd. Egy mesterséges intelligencián alapuló eszköz megpróbálja majd automatikusan azonosítani a szexuális jellegű képeket, lehetővé téve a szülők számára, hogy automatikus szűrőket állítsanak be gyermekeik postaládájába.
(Forbes/Hetek)