Nedavno je Apple naučnicima i bezbednosnim stručnjacima u Sjedinjenim Američkim Državama predstavio plan kojim žele na milione iPhone uređaja da instaliraju softver koji bi ih mogao da pretražuje i tako otkrije fotografije povezane sa seksualnim zlostavljanjem dece.
Ali, budući da je riječ o pregledavanju privatnog sadržaja na mobilnim uređajima i iCloud-u, brojni kritičari i tehnološki stručnjaci su se oglasili u vezi Apple-ovog plana, pa tako i voditelj WhatsApp-a Will Cathcart, koji je izrazio svoju zabrinutost na Twitter-u.
"Pročitao sam informacije koje je Apple objavio juče i zabrinut sam. Mislim da je to pogrešan pristup i prepreka za privatnost ljudi u celom svetu", napisao je Cathcart i dodao da WhatsApp neće usvojiti Apple-ove mere za zaštitu dece.
Naime, Cathcart je u jednoj od sledećih objava istaknuo da je seksualno zlostavljanje dece odvratno i da je WhatsApp naporno radio na prijavljivanju i zabrani pristupa osobama koji trguju sa takvim materijalom, pa su kao rezultat toga prošle godine prijavili čak preko 400.000 slučajeva Nacionalnom centru za nestalu i iskorišćavanu decu, bez kršenja enkripcije.
"Apple je odavno trebao da učini nešto u borbi protiv seksualnog zlostavljanja dece, ali njihov pristup za koji se zalažu uvodi u svet nešto vrlo zabrinjavajuće", ističe Cathcart smatrajući da bi se Apple trebao usredotočiti na to da ljudima olakša prijavljivanje ilegalnog sadržaja.
"Lični računari postoje već decenijama i nikad nije bilo direktive koja bi omogućila skeniranje privatnog sadržaja svih stonih i prenosnih računara i telefona na globalnom nivou u svrhu pronalaženja ilegalnog sadržaja. Tako ne funkcioniše tehnologija izgrađena u slobodnim zemljama", zaključuje Cathcart.
Podsećamo da Apple prvo planira da pruži roditeljima alate za nadzor online komunikacije njihove dece te bi tako aplikacija Messages skenirala poruke i mašinskim učenjem prepoznavala ilegalni sadržaj o kojem bi roditelji odmah bili obavešteni, bez kompanijinog pristupa sadržaju.
Nakon toga, iOS-u i iPadOS-u, omogućio bi se nadzor nad sadržajem koji se nalazi na uređajima, ali i iCloud-u, pa bi se tako, među skladištenim podacima, tražile fotografije koje bi se mogle povezati sa zlostavljanjem dece, pa bi se podaci delili sa Apple-om i policijom.
Treći ili poslednji deo, odnosio bi se na Apple-ovu virtuelnu asistentkinju Siri i Search, koji bi, takođe, pratili traži li netko sadržaje vezane za zlostavljanje dece, a onda bi se i to prijavljivalo. Ako kompanija ne odustane od ovog plana, ovaj bi sistem bezbednosti trebao doći do kraja godine u iOS 15, iPadOS 15, watchOS 8 i macOS Monterey.
I read the information Apple put out yesterday and I'm concerned. I think this is the wrong approach and a setback for people's privacy all over the world.
— Will Cathcart (@wcathcart) August 6, 2021
People have asked if we'll adopt this system for WhatsApp. The answer is no.
Instead of focusing on making it easy for people to report content that's shared with them, Apple has built software that can scan all the private photos on your phone -- even photos you haven't shared with anyone. That's not privacy.
— Will Cathcart (@wcathcart) August 6, 2021
Postavi komentar
Vaš komentar: