Actualités Apple

Les employés d'Apple soulèvent en interne leurs inquiétudes concernant les plans de détection CSAM

Vendredi 13 août 2021 00h43 PDT par Sami Fathi

Les employés d'Apple se joignent maintenant au chœur d'individus qui s'inquiètent des plans d'Apple pour numériser iPhone les bibliothèques de photos des utilisateurs pour le CSAM ou le matériel d'abus sexuel d'enfants, s'exprimant en interne sur la façon dont la technologie pourrait être utilisée pour numériser les photos des utilisateurs pour d'autres types de contenu, selon un rapport de Reuters .





drone parc apple juin 2018 2
Selon Reuters , un nombre indéterminé d'employés d'Apple se sont tournés vers les canaux internes de Slack pour faire part de leurs inquiétudes concernant la détection CSAM. Plus précisément, les employés craignent que les gouvernements ne forcent Apple à utiliser la technologie à des fins de censure en trouvant un contenu autre que CSAM. Certains employés craignent qu'Apple ne porte atteinte à sa réputation de leader en matière de confidentialité.

Les employés d'Apple ont inondé un canal interne Slack d'Apple avec plus de 800 messages sur le plan annoncé il y a une semaine, ont déclaré à Reuters des travailleurs qui ont demandé à ne pas être identifiés. Beaucoup ont exprimé leur inquiétude que la fonctionnalité puisse être exploitée par des gouvernements répressifs cherchant à trouver d'autres matériaux pour la censure ou les arrestations, selon les travailleurs qui ont vu le fil de plusieurs jours.



Les changements de sécurité passés chez Apple ont également suscité des inquiétudes parmi les employés, mais le volume et la durée du nouveau débat sont surprenants, ont déclaré les travailleurs. Certaines affiches craignaient qu'Apple ne porte atteinte à sa réputation de leader en matière de protection de la vie privée.

Selon le rapport, les employés d'Apple occupant des postes liés à la sécurité des utilisateurs n'auraient pas fait partie de la protestation interne.

Depuis sa annonce la semaine dernière , Apple a été bombardé de critiques concernant ses plans de détection CSAM, qui devraient toujours être déployés avec iOS 15 et iPadOS 15 cet automne. Les inquiétudes tournent principalement autour de la façon dont la technologie pourrait présenter une pente glissante pour les futures mises en œuvre par des gouvernements et des régimes oppressifs.

comment désactiver les airpods de détection des oreilles

Apple a fermement repoussé l'idée que la technologie sur l'appareil utilisée pour détecter le matériel CSAM pourrait être utilisée à d'autres fins. Dans un document FAQ publié , la société a déclaré qu'elle refuserait avec véhémence une telle demande des gouvernements.

Les gouvernements pourraient-ils forcer Apple à ajouter des images non CSAM à la liste de hachage ?
Apple refusera de telles demandes. La capacité de détection CSAM d'Apple est conçue uniquement pour détecter les images CSAM connues stockées dans des photos iCloud qui ont été identifiées par des experts du NCMEC et d'autres groupes de sécurité des enfants. Nous avons déjà été confrontés à des demandes de création et de déploiement de changements mandatés par le gouvernement qui dégradent la confidentialité des utilisateurs et nous avons fermement refusé ces demandes. Nous continuerons à les refuser à l'avenir. Soyons clairs, cette technologie se limite à détecter le CSAM stocké dans iCloud et nous n'accéderons à aucune demande d'un gouvernement pour l'étendre. De plus, Apple procède à un examen humain avant de faire un rapport au NCMEC. Dans le cas où le système signalerait les photos qui ne correspondent pas aux images CSAM connues, le compte ne serait pas désactivé et aucun rapport ne serait déposé au NCMEC.

Un lettre ouverte critiquant Apple et appelant la société à arrêter immédiatement son plan de déploiement de la détection CSAM a recueilli plus de 7 000 signatures au moment de la rédaction. Le responsable de WhatsApp a également pesé dans le débat .

Mots clés : Confidentialité d'Apple , Fonctionnalités de sécurité pour les enfants d'Apple