iOS 15-ის მოსვლამ თან მოიტანა ა სიახლეების დიდი რეპერტუარი არასრულწლოვანთა დასაცავად დღევანდელი დიდი უბედურებისგან. ფაქტობრივად, წარმოდგენილი იყო ფუნქციების სამი დიდი ჯგუფი. ორი, რაც დღეს ხელმისაწვდომია, არის კომუნიკაციის უსაფრთხოება iMessages-ში და, მეორე მხრივ, გაფრთხილებები ამ საკითხების შესახებ Siri-ში, Spotlight-სა და Safari-ში. თუმცა, Apple-ის ფლაგმანი ფუნქცია იყო მომხმარებელთა iCloud ფოტოების სკანირება ბავშვთა პორნოგრაფიის პოვნის მიზნით. რამდენიმეთვიანი გადადების შემდეგ, პროექტი Apple-მა მიატოვა.
ფოტო სკანერი CSAM-ის ძიებაში, Apple პროექტი
ვარსკვლავი ინსტრუმენტი Apple იგი ცნობილი იყო თავისი ეთიკური და კონფიდენციალურობის დილემით, რომელიც წამოიჭრა, როდესაც ის ერთ წელზე მეტი ხნის წინ იქნა წარდგენილი. Apple ინსტრუმენტის დანიშნულება იყო დაასკანირეთ მომხმარებლების iCloud ფოტოები ბავშვთა პორნოგრაფიისთვის. ეს ტერმინი ოფიციალურად არ გამოიყენება, მაგრამ გამოყენებული ტერმინი იყო CASS (ბავშვებზე სექსუალური ძალადობის მასალა ან ბავშვზე სექსუალური ძალადობის მასალა).
ამისთვის კუპერტინოელებმა შეუერთდნენ NCMEC, დაკარგული და ექსპლუატირებული ბავშვების ეროვნული ცენტრი, შეერთებული შტატები. ამ ცენტრს აქვს დიდი მონაცემთა ბაზა ბავშვთა პორნოგრაფიული სურათებით ან CSAM. თითოეული ეს ფოტო აქვს ხელმოწერა ან hash რომ არ განსხვავდება ანუ, თუ სენსიტიური შინაარსის მქონე სურათს აქვს იგივე ხელმოწერა, რაც მომხმარებელს აქვს, სიგნალიზაცია ჩაირთვება.
Apple-მა დაარწმუნა, რომ ცრუ განგაშის ალბათობა მინიმალური იყო უნდა გქონდეს 30-ზე მეტი ფოტო, რომლის ხელმოწერა ან hash Apple-ის ჩარევისთვის CSAM მონაცემთა ბაზის იდენტური იყო. თუმცა, როგორც ტექნოლოგიურმა, ეთიკურმა და უსაფრთხოების საზოგადოებამ, ასევე თავად Apple-ის თანამშრომლებმა გამოიწვია კრიტიკის ზვავი, რამაც გამოიწვია ფუნქცია გადაიდო და დღის სინათლე ვერ დაინახა iOS 15-ში.
ბავშვთა პორნოგრაფიისთვის ფოტოების სკანირების პროექტი შეჩერებულია
რამდენიმე საათის წინ Apple-ის განცხადება გამოქვეყნდა WIRED საიდან იცით გამოაცხადა უარი ამ iCloud ფოტო სკანერის შემუშავებაზე ბავშვთა პორნოგრაფიისთვის:
ექსპერტთა ვრცელი კონსულტაციების შემდეგ, რათა შევაგროვოთ გამოხმაურება ბავშვთა დაცვის ინიციატივებზე, რომლებიც ჩვენ შემოთავაზებულ იქნა გასულ წელს, ჩვენ ვაღრმავებთ ინვესტიციას კომუნიკაციების უსაფრთხოების ფუნქციაში, რომელიც პირველად ხელმისაწვდომი გავხდით 2021 წლის დეკემბერში. გარდა ამისა, ჩვენ გადავწყვიტეთ, არ გავაგრძელოთ ადრე შემოთავაზებული CSAM. გამოვლენის ინსტრუმენტი iCloud Photos-ისთვის. ბავშვების დაცვა შესაძლებელია კომპანიების მიერ მათ პერსონალურ მონაცემებზე თვალყურის დევნების გარეშე და ჩვენ გავაგრძელებთ მუშაობას მთავრობებთან, ბავშვთა დამცველებთან და სხვა კომპანიებთან, რათა დავეხმაროთ ახალგაზრდების დაცვას, კონფიდენციალურობის უფლების დაცვას და ინტერნეტის უფრო უსაფრთხო ადგილად აქციას ბავშვებისთვის და ყველასთვის. ჩვენგანი.
ამიტომ, Apple ტოვებს პროექტს, რომელიც დაიწყო ერთი წლის წინ. ეს ყველაფერი გამოწვეული იყო უსაფრთხოების პრობლემების და კრიტიკით, რაც ამ ღონისძიებას პრეზენტაციის დღიდან მოჰყვა. ფაქტობრივად, ახლა კუპერტინოელები ცდილობენ გაათეთრონ პრობლემები ჩადეთ ინვესტიცია წყაროში, შეეცადეთ თავიდან აიცილოთ ბავშვთა პორნოგრაფიის წარმოება ინვესტიცია სხვა სახის ღონისძიებებში, როგორიცაა iMessage-ის კომუნიკაციების უსაფრთხოების ფუნქცია.
პროდუქციის შეთავაზება: არსონის ბრენდის ბლუთუზ დინამიკი მოდელი AN-8135A
- ფერი: შავი
- კავშირის ტიპი: უკაბელო და სადენიანი
- 8 ინჩიანი მიკროფონი
- მოყვება ნივთები: ერთი პულტი, ერთი უკაბელო მიკროფონი და ერთი დამტენი კაბელი
- სიმძლავრე: 1200 ვატი
- ორი ერთში ფუნქციის მხარდაჭერა
- მეხსიერების ბარათის სლოტით (Micro SD), AUX გამომავალი, USB პორტით, რადიო
- Bluetooth ვერსია: 5
- სიმძლავრე: 10 ვატი
- HiFi ტექნოლოგიის მხარდაჭერა (საუკეთესო ხმის გამომავალი უმაღლესი ხარისხით)