Apple odloži tehnologijo proti zlorabi otrok

Apple odloži tehnologijo proti zlorabi otrok
Apple odloži tehnologijo proti zlorabi otrok
Anonim

Po številnih odzivih tako kritikov kot uporabnikov Apple odlaša z ukrepi proti zlorabi otrok.

Avgusta je tehnološki velikan sprva napovedal novo politiko, ki uporablja tehnologijo za odkrivanje morebitnih posnetkov zlorabe otrok v storitvah iCloud in Messages, vendar so ji sledili pomisleki. Strokovnjaki so opozorili, da čeprav je Apple obljubil zasebnost uporabnikov, bo tehnologija na koncu ogrozila vse Applove uporabnike.

Image
Image

V petek je Apple sporočil, da bo v celoti odložil uvedbo tehnologije, da bi izboljšal in v celoti zagotovil zasebnost uporabnikov.

"Na podlagi povratnih informacij strank, zagovorniških skupin, raziskovalcev in drugih smo se odločili, da si bomo v prihodnjih mesecih vzeli več časa za zbiranje prispevkov in izboljšav, preden bomo izdali te kritično pomembne varnostne funkcije za otroke," je dejal Apple v posodobljeno izjavo na svoji spletni strani.

Tehnologija za odkrivanje gradiva o spolni zlorabi otrok naj bi bila na voljo pozneje letos v uvedbi sistema iOS 15, vendar zdaj ni jasno, kdaj in če bo funkcija debitirala.

Nova tehnologija bi delovala na dva načina: prvič, s skeniranjem slike, preden se varnostno kopira v iCloud. Če ta slika ustreza merilom CSAM, bi Apple prejel te podatke. Drugi del tehnologije uporablja strojno učenje za prepoznavanje in zameglitev spolno nazornih slik, ki jih otroci prejmejo prek sporočil.

Vendar pa so po objavi nove politike zagovorniki zasebnosti in skupine dejali, da Apple v bistvu odpira zadnja vrata, ki bi jih slabi akterji lahko zlorabili.

Da bi rešil te pomisleke, je Apple izdal stran s pogostimi vprašanji kmalu po objavi tehnologije CSAM. Apple je pojasnil, da tehnologija ne bo pregledala vseh fotografij, shranjenih v napravi, prekinila šifriranja od konca do konca v sporočilih in ne bo lažno označila nedolžnih ljudi organom pregona.

Priporočena: