Actualités Apple

Apple publie une FAQ pour répondre aux préoccupations concernant la détection CSAM et l'analyse des messages

Lundi 9 août 2021 02h50 PDT par Tim Hardwick

Apple a publié une FAQ intitulée « Protections étendues pour les enfants » qui vise à apaiser les problèmes de confidentialité des utilisateurs concernant la nouvelle détection CSAM dans Photos iCloud et la sécurité des communications pour les fonctionnalités de Messages que l'entreprise annoncé la semaine dernière .





vie privée de pomme
« Depuis que nous avons annoncé ces fonctionnalités, de nombreuses parties prenantes, notamment des organisations de protection de la vie privée et des organisations de sécurité des enfants, ont exprimé leur soutien à cette nouvelle solution, et certaines ont posé des questions », lit-on dans la FAQ. « Ce document sert à répondre à ces questions et à fournir plus de clarté et de transparence dans le processus. »

Certaines discussions ont brouillé la distinction entre les deux fonctionnalités, et Apple prend grand soin de document pour les différencier, expliquant que la sécurité de la communication dans Messages 'ne fonctionne que sur les images envoyées ou reçues dans l'application Messages pour les comptes enfants configurés dans le partage familial', tandis que la détection CSAM dans ‌iCloud Photos‌ 'ne concerne que les utilisateurs qui ont choisi d'utiliser ‌iCloud Photos‌ pour stocker leurs photos… Il n'y a aucun impact sur les autres données de l'appareil.'



À partir de la FAQ :

comment changer la sonnerie pour une personne spécifique

Ces deux fonctionnalités ne sont pas identiques et n'utilisent pas la même technologie.

La sécurité de la communication dans Messages est conçue pour donner aux parents et aux enfants des outils supplémentaires pour aider à protéger leurs enfants contre l'envoi et la réception d'images sexuellement explicites dans l'application Messages. Cela ne fonctionne que sur les images envoyées ou reçues dans l'application Messages pour les comptes enfants configurés dans le partage familial. Il analyse les images sur l'appareil et ne modifie donc pas les garanties de confidentialité des messages. Lorsqu'un compte enfant envoie ou reçoit des images sexuellement explicites, la photo sera floue et l'enfant sera averti, présenté des ressources utiles et rassuré qu'il n'y a pas de problème s'il ne veut pas voir ou envoyer la photo. Par mesure de précaution supplémentaire, les jeunes enfants peuvent également être informés que, pour s'assurer qu'ils sont en sécurité, leurs parents recevront un message s'ils le voient.

La deuxième fonctionnalité, la détection CSAM dans iCloud Photos, est conçue pour maintenir CSAM hors des photos iCloud sans fournir d'informations à Apple sur des photos autres que celles qui correspondent aux images CSAM connues. Les images CSAM sont illégales à posséder dans la plupart des pays, y compris les États-Unis. Cette fonctionnalité n'affecte que les utilisateurs qui ont choisi d'utiliser iCloud Photos pour stocker leurs photos. Cela n'affecte pas les utilisateurs qui n'ont pas choisi d'utiliser iCloud Photos. Il n'y a aucun impact sur les autres données sur l'appareil. Cette fonctionnalité ne s'applique pas aux messages.

Le reste du document est divisé en trois sections (en gras ci-dessous), avec des réponses aux questions fréquemment posées suivantes :

guichet automatique Apple Pay sans carte près de chez moi

quelle couleur iphone 12 devrais-je obtenir
    Sécurité de la communication dans Messages
  • Qui peut utiliser la sécurité des communications dans Messages ?
  • Cela signifie-t-il que Messages partagera des informations avec Apple ou les forces de l'ordre ?
  • Cela casse-t-il le chiffrement de bout en bout dans Messages ?
  • Cette fonctionnalité empêche-t-elle les enfants vivant dans des foyers abusifs de demander de l'aide ?
  • Les parents seront-ils avertis sans que les enfants ne soient prévenus et n'aient le choix ?
  • Détection CSAM
  • Cela signifie-t-il qu'Apple va numériser toutes les photos stockées sur mon iPhone ?
  • Cela téléchargera-t-il les images CSAM sur mon ‌iPhone‌ comparer avec mes photos ?
  • Pourquoi Apple fait-il cela maintenant ?
  • Sécurité pour la détection CSAM pour les photos iCloud
  • Le système de détection CSAM dans ‌iCloud Photos‌ être utilisé pour détecter des choses autres que CSAM ?
  • Les gouvernements pourraient-ils forcer Apple à ajouter des images non CSAM à la liste de hachage ?
  • Des images non CSAM peuvent-elles être « injectées » dans le système pour signaler des comptes pour des choses autres que CSAM ?
  • La détection CSAM dans ‌iCloud Photos‌ signaler faussement des innocents aux forces de l'ordre ?

Les lecteurs intéressés doivent consulter le document pour les réponses complètes d'Apple à ces questions. Cependant, il convient de noter que pour les questions auxquelles il est possible de répondre par un oui/non binaire, Apple les commence toutes par « Non » à l'exception des trois questions suivantes de la section intitulée « Sécurité pour la détection CSAM pour ‌ Photos iCloud‌ :'

Le système de détection CSAM dans iCloud Photos peut-il être utilisé pour détecter des choses autres que CSAM ?
Notre processus est conçu pour empêcher que cela se produise. La détection CSAM pour les photos iCloud est conçue pour que le système ne fonctionne qu'avec les hachages d'images CSAM fournis par le NCMEC et d'autres organisations de sécurité des enfants. Cet ensemble de hachages d'images est basé sur des images acquises et validées pour être CSAM par des organisations de sécurité de l'enfance. Il n'y a pas de signalement automatisé aux forces de l'ordre et Apple procède à un examen humain avant de faire un signalement au NCMEC. Par conséquent, le système est uniquement conçu pour signaler des photos connues CSAM dans iCloud Photos. Dans la plupart des pays, y compris les États-Unis, le simple fait de posséder ces images est un crime et Apple est obligé de signaler tout cas dont nous avons connaissance aux autorités compétentes.

Les gouvernements pourraient-ils forcer Apple à ajouter des images non CSAM à la liste de hachage ?
Apple refusera de telles demandes. La capacité de détection CSAM d'Apple est conçue uniquement pour détecter les images CSAM connues stockées dans des photos iCloud qui ont été identifiées par des experts du NCMEC et d'autres groupes de sécurité des enfants. Nous avons déjà été confrontés à des demandes de création et de déploiement de changements mandatés par le gouvernement qui dégradent la confidentialité des utilisateurs et nous avons fermement refusé ces demandes. Nous continuerons à les refuser à l'avenir. Soyons clairs, cette technologie se limite à détecter le CSAM stocké dans iCloud et nous n'accéderons à aucune demande d'un gouvernement pour l'étendre. De plus, Apple procède à un examen humain avant de faire un rapport au NCMEC. Dans le cas où le système signalerait les photos qui ne correspondent pas aux images CSAM connues, le compte ne serait pas désactivé et aucun rapport ne serait déposé au NCMEC.

Des images non CSAM peuvent-elles être « injectées » dans le système pour signaler des comptes pour des choses autres que CSAM ?
Notre processus est conçu pour empêcher que cela se produise. L'ensemble de hachages d'images utilisé pour la correspondance provient d'images connues et existantes de CSAM qui ont été acquises et validées par des organisations de sécurité de l'enfance. Apple n'ajoute pas à l'ensemble des hachages d'images CSAM connus. Le même ensemble de hachages est stocké dans le système d'exploitation de chaque utilisateur d'iPhone et d'iPad, de sorte que les attaques ciblées contre des individus spécifiques ne sont pas possibles dans notre conception. Enfin, il n'y a pas de signalement automatisé aux forces de l'ordre et Apple procède à un examen humain avant de faire un signalement au NCMEC. Dans le cas peu probable où le système signalerait des images qui ne correspondent pas aux images CSAM connues, le compte ne serait pas désactivé et aucun rapport ne serait déposé au NCMEC.

Apple a fait face à de nombreuses critiques de la part des défenseurs de la vie privée, des chercheurs en sécurité, des experts en cryptographie, des universitaires et d'autres pour sa décision de déployer la technologie avec la sortie de iOS 15 et iPad 15 , attendu en septembre.

Cela s'est traduit par une lettre ouverte critiquant le projet d'Apple d'analyser les iPhones pour CSAM dans ‌iCloud Photos‌ et des images explicites dans les messages pour enfants, qui ont recueilli plus de 5 500 signatures au moment de la rédaction. Apple a également été critiqué par WhatsApp, propriété de Facebook, dont le chef Will Cathcart l'a appelé « la mauvaise approche et un revers pour la vie privée des gens partout dans le monde ». Le PDG d'Epic Games, Tim Sweeney, a également attaqué la décision, affirmant qu'il avait « s'efforcer » de voir le mouvement du point de vue d'Apple, mais avait conclu que, « inévitablement, il s'agit d'un logiciel espion gouvernemental installé par Apple sur la base d'une présomption de culpabilité ».

'Peu importe à quel point Apple est bien intentionné, avec cela, la surveillance de masse est déployée dans le monde entier.' mentionné l'éminent lanceur d'alerte Edward Snowden, ajoutant que 's'ils peuvent rechercher de la pornographie pour enfants aujourd'hui, ils pourront rechercher n'importe quoi demain'. L'Electronic Frontier Foundation à but non lucratif a également critiqué Les plans d'Apple, déclarant que 'même une porte dérobée soigneusement documentée, soigneusement pensée et à portée étroite est toujours une porte dérobée'.

comment utiliser le moniteur d'activité sur mac
Mots clés : Confidentialité d'Apple , Fonctionnalités de sécurité pour les enfants d'Apple