Apple təhlükəsizlik və məxfilik siyasətləri ilə məşhurdur. Ancaq iPhone fotoşəkillərinin skan edilməsinin son planı texnologiya dünyasında həyəcan təbili çaldı. Apple bu planı uşaqlara qarşı artan cinsi istismar materiallarına (CASM) qadağa qoymaq üçün həyata keçirməyi planlaşdırır.
Cəmiyyətdə açıq-saçıq seksual məzmun həm əxlaqi, həm də hüquqi baxımdan qəbuledilməzdir, lakin seks alveri bunu məcburi edib. Apple kimi şirkətlər üçün çətin addımlar atmaq. Apple, iPhone-da fotoları skan edəcək və istifadəçinin cinsi / insan alveri ilə məşğul olub olmadığını anlayacaq və bu tədbir cəmiyyətdəki bu pisliyi bitirmək üçün bir addım olacaq. P>
Ancaq bu yeni alma planıdır istifadəçilər öz məxfiliklərindən narahat olduqları üçün istifadəçiləri tərəfindən pis baxılır. Bu, şübhəsiz ki, məxfiliyin pozulmasıdır, burada telefonunuzun məlumatı təhlükəsiz olmayacaq, çünki Apple-ın iPhone-dakı yeni foto skan sistemi sizin məlumatınıza malik olacaq.
Apple iPhone Fotolarınızı Skan edir? Bu, necə skan edir?
CSAM aşkarlama texnologiyası CASM-i idarə etmək üçün üç funksiyanı özündə birləşdirən yeni iOS 15 yeniləmələri ilə əlçatan olacaq.
- Güncəlləmədəki ilk xüsusiyyət valideyn nəzarəti olsun. Bu funksiya aktivləşdirildikdə o, uşaqların telefonunda Mesajlar proqramında şəkilləri skan edəcək və hər hansı açıq məzmun aşkar edilərsə, bildiriş göndəriləcək.
- Güncəlləmədəki ikinci funksiya fotoları skan edəcək. uşaq cinsi istismarı materialı üçün iCloud-da.
- Güncəlləmədəki üçüncü funksiya istifadəçiləri açıq məzmun üçün Safari-də Siri və ya axtarış çubuğundan istifadə etdikdə xəbərdar edəcək.
Bütün üç xüsusiyyət cihazda uşaqları əhatə edən açıq-saçıq cinsi məzmunlu məzmunu aşkarlamaq və işarələməklə CSAM şərinin cəmiyyətdən silinməsinə kömək edəcək. CSAM milyonlarla video və görüntü ilə virus kimi yayılır. Zamanla hüquq-mühafizə orqanları tərəfindən təxminən 19000 qurban müəyyən edilib.
Apple bildirib ki, onun yeni funksiyaları “uşaqları onları işə götürmək və istismar etmək üçün kommunikasiya vasitələrindən istifadə edən yırtıcılardan qorumaq və uşaq cinsi əlaqələrinin yayılmasını məhdudlaşdırmaq məqsədi daşıyır. materialdan sui-istifadə.”
Bu funksiya necə işləyəcək?
Apple-ın CSAM aşkarlama texnologiyası iCloudimages-i skan edəcək və sonra onları məlum olanların kodları ilə müqayisə edəcək kompüter əsaslı alqoritmə əsaslanır. uşaq cinsi istismarı şəkilləri. Bu kodlar itkin düşmüş və istismar edilən Uşaqlar üçün Milli Mərkəz (NCMEC) daxil olmaqla, uşaq təhlükəsizliyi təşkilatlarının məlumat bazasında saxlanılır.
Foto verilənlər bazası ilə uyğunlaşdırılıbsa, şəxs şəkilin CSAM olub-olmadığını yoxlamaq üçün şəklə baxacaq. Fotonun CSAM olduğu müəyyən edilərsə, hesabınız Apple tərəfindən bağlanacaq və bu barədə hüquq-mühafizə orqanlarına və NCMEC-ə məlumat veriləcək.
Yeni Texnologiya Təhlükəsizlik Təhdidi olacaqmı?
Yeniləmədə yeni funksiyaların tətbiqi ilə Apple, şübhəsiz ki, istifadəçilərin təhlükəsizliyini təmin edəcək, çünki bu, uç-to-end şifrələməyə təsir edəcək. Bu skan etmə xüsusiyyəti hökumət üçün boşluğa çevrilə bilər, hakerlər, məlumatlarınıza icazəsiz giriş əldə edə bilən Apple-ın işçiləri ondan şəxsi məqsədlər üçün istifadə edə bilərlər. Bu, istifadəçinin məxfiliyi üçün ciddi təhlükə ola bilər, çünki bu cür həssas məlumatlar istənilən səlahiyyətli orqan tərəfindən ələ keçirilə bilər və məxfiliyin daha böyük iflasa uğramasına səbəb ola bilər.
Hicazinin fikrincə. “Mən inanıram ki, Apple-ın ürəyi doğru yerdədir və o, burada doğru olanı etməyə çalışır, lakin bu tədbir sadəcə olaraq çox genişdir, çünki prosesdə hər kəsin məxfiliyini qurban verir”.
Is Apple-ın fotoşəkilləri skan etməsini dayandırmağın bir yolu varmı?
Hicazinin fikrincə. "Məxfiliyinizə əhəmiyyət verirsinizsə, hər hansı bir iOS cihazının uçdan-uca şifrələmə keçidlərinə və tam fotoşəkillərə girişə həssas olduğunu düşünməlisiniz" dedi. “Onlayn və ya hər hansı bir qoşulmuş cihazda məxfilik kimi bir şey yoxdur və siz həmişə belə olduğunu güman etməli və buna uyğun davranmalısınız.”
Yaxşı, Onlayn- və ya hər hansı bir qoşulmuş cihazda, belə olduğunu güman etməli, belə olduğunu güman etməli, ona uyğun davranmalı, məxfilik kimi bir şey yoxdur. iCloud fotolarınızı skan edir və məxfiliyinizi qoruya bilər. Siz şəkilləriniz üçün iCloud yaddaşını deaktiv edə və məxfiliyinizi təmin edə bilərsiniz.
iCloud fotolarını deaktiv etmək üçün addımları izləyin:-
- Parametrləri seçin> Fotolar
- iCloud foto slayderini söndürün
- Fotoları iCloud-dan cihaza endirmək üçün pop-up pəncərələrdə Foto və Videoları Yükləyin seçin.
Nəticə:-
CSAM uşaqların cinsi istismarının qarşısının alınmasında yaxşı addımdır, lakin məxfiliyin bu şəkildə sızmasıdır. Apple istifadəçilərin məxfiliyini pozmayan başqa addımlar da ata bilərdi və eyni zamanda uşaqların cinsi zorakılığının qarşısı alına bilərdi.
Lakin əgər fərd təmiz olsa və heç bir şeyin olmadığını bilsəydi. Onun məlumatlarından sonra heç bir söz-söhbətə qulaq asmamalı və nəcib məqsəd və Apple tərəfindən atılan bir addıma dəstək olmalıdır. Bizi sosial mediada izləyin – .
oxumaq: 0