Actualités Apple

Apple décrit la sécurité et la confidentialité du système de détection CSAM dans un nouveau document

Vendredi 13 août 2021 12h45 PDT par Joe Rossignol

Apple aujourd'hui partagé un document qui donne un aperçu plus détaillé des fonctionnalités de sécurité pour enfants annoncées pour la première fois la semaine dernière , y compris les principes de conception, les exigences de sécurité et de confidentialité et les considérations relatives au modèle de menace.





fonction de sécurité de communication iphone
Le plan d'Apple pour détecter les images connues d'abus sexuels sur enfants (CSAM) stockées dans iCloud Photos a été particulièrement controversé et a suscité des inquiétudes de la part de certains chercheurs en sécurité, de l'Electronic Frontier Foundation à but non lucratif et d'autres au sujet du système potentiellement abusé par les gouvernements en tant que forme de surveillance de masse.

Le document vise à répondre à ces préoccupations et réitère certains détails qui ont fait surface plus tôt dans un entretien avec le responsable de l'ingénierie logicielle d'Apple, Craig Federighi , y compris qu'Apple prévoit de définir un seuil de correspondance initial de 30 images CSAM connues avant qu'un compte iCloud ne soit signalé pour examen manuel par la société.



Apple a également déclaré que la base de données sur l'appareil des images CSAM connues ne contient que des entrées qui ont été soumises indépendamment par au moins deux organisations de sécurité des enfants opérant dans des juridictions souveraines distinctes et non sous le contrôle du même gouvernement.

Le système est conçu de manière à ce qu'un utilisateur n'ait pas besoin de faire confiance à Apple, à une autre entité unique ou même à un ensemble d'entités susceptibles de collusion de la même juridiction souveraine (c'est-à-dire sous le contrôle du même gouvernement) pour être sûr que le système fonctionne comme annoncé. Ceci est réalisé grâce à plusieurs mécanismes de verrouillage, y compris la vérifiabilité intrinsèque d'une seule image logicielle distribuée dans le monde entier pour l'exécution sur l'appareil, une exigence que tout hachage d'image perceptible inclus dans la base de données CSAM cryptée sur l'appareil soit fourni indépendamment par deux ou plusieurs sécurité enfant. organisations de juridictions souveraines distinctes, et enfin, un processus d'examen humain pour empêcher tout rapport erroné.

Apple a ajouté qu'il publiera un document d'assistance sur son site Web contenant un hachage racine de la base de données de hachage CSAM cryptée incluse avec chaque version de chaque système d'exploitation Apple prenant en charge cette fonctionnalité. De plus, Apple a déclaré que les utilisateurs pourront inspecter le hachage racine de la base de données cryptée présente sur leur appareil et le comparer au hachage racine attendu dans le document d'assistance. Aucun délai n'a été prévu pour cela.

Dans un mémo obtenu par Bloomberg de Mark Gurman , Apple a déclaré qu'un auditeur indépendant examinerait également le système. La note indiquait que les employés de la vente au détail d'Apple pouvaient recevoir des questions de la part des clients sur les fonctions de sécurité pour enfants et liées à une FAQ qu'Apple a partagée plus tôt cette semaine en tant que ressource que les employés peuvent utiliser pour répondre aux questions et fournir plus de clarté et de transparence aux clients.

Apple a initialement annoncé que les nouvelles fonctionnalités de sécurité pour les enfants arriveraient sur l'iPhone, l'iPad et le Mac avec des mises à jour logicielles plus tard cette année, et la société a déclaré que les fonctionnalités ne seraient disponibles aux États-Unis qu'au lancement. Malgré les critiques, Apple a déclaré aujourd'hui n'avoir apporté aucune modification à ce délai pour déployer les fonctionnalités auprès des utilisateurs.