Apple відклала функцію перевірки фотографій через критику

111

Компанія apple оголосила, що не буде запускати функції для захисту дітей, як планувалося спочатку. Замість цього вона має намір провести консультації, зібрати більше інформації та внести зміни. В електронному листі, надісланому appleinsider та іншим змі, apple повідомила, що прийняла рішення відкласти на невизначений термін функції csam (виявлення фактів сексуального насильства над дітьми) після негативної реакції громадськості.

” минулого місяця ми оголосили про плани впровадити функції, покликані допомогти захистити дітей від переслідувачів, які використовують засоби комунікації для їх залучення та експлуатації, а також обмежити поширення матеріалів з сексуальним насильством над дітьми. Грунтуючись на відгуках клієнтів, правозахисних груп, дослідників та інших осіб, ми вирішили, що нам потрібен додатковий час, щоб зібрати інформацію і внести поліпшення, перш ніж випустити ці критично важливі функції безпеки дітей», — повідомляється в листі apple.

На початку серпня компанія розповіла про функції csam і заявила, що вони з’являться на пристроях apple з виходом нових версій операційних систем для iphone, ipad, macbook і apple watch пізніше цього року. Ці функції включають виявлення зображень сексуального насильства над дітьми в icloud і блокування потенційно небезпечних повідомлень. Експерти в сфері безпеки написали відкритий лист, в якому закликали apple не реалізовувати нові функції, оскільки вони порушують конфіденційність. Компанія детально описала свої наміри і в загальних рисах пояснила, як функції csam повинні працювати, але це нічого не змінило. Зрештою крейг федерігі публічно заявив, що сталася плутанина через одночасне оголошення двох нових функцій.