Actualités Apple

Craig Federighi reconnaît la confusion autour des fonctionnalités de sécurité des enfants d'Apple et explique de nouveaux détails sur les sauvegardes

Vendredi 13 août 2021 7 h 33 HAP par Hartley Charlton

Le vice-président senior de l'ingénierie logicielle d'Apple, Craig Federighi, a défendu aujourd'hui le projet controversé de l'entreprise fonctions de sécurité pour enfants dans un entretien significatif avec Le journal de Wall Street , révélant un certain nombre de nouveaux détails sur les garanties intégrées au système d'Apple pour analyser les bibliothèques de photos des utilisateurs à la recherche de matériel pédopornographique (CSAM).





craig wwdc 2021 confidentialité
Federighi a admis qu'Apple avait traité la semaine dernière annonce des deux nouvelles fonctionnalités mal, relatives à la détection de contenu explicite dans Messages pour les enfants et le contenu CSAM stocké dans Photos iCloud bibliothèques et a reconnu la confusion généralisée autour des outils :

Il est vraiment clair que beaucoup de messages se sont mélangés assez mal en termes de compréhension des choses. Nous souhaitons que cela ressorte un peu plus clairement pour tout le monde car nous nous sentons très positifs et fortement sur ce que nous faisons.



comment redémarrer dur apple watch

[...]

Avec le recul, l'introduction de ces deux fonctionnalités en même temps était une recette pour ce genre de confusion. En les libérant en même temps, les gens les ont techniquement connectés et ont eu très peur : que deviennent mes messages ? La réponse est... rien ne se passe avec vos messages.

La fonction de sécurité des communications signifie que si les enfants envoient ou reçoivent des images explicites via iMessage, ils seront avertis avant de les regarder, l'image sera floue et il y aura une option pour que leurs parents soient alertés. L'analyse CSAM, d'autre part, tente de faire correspondre les photos des utilisateurs avec des images hachées de CSAM connues avant qu'elles ne soient téléchargées sur iCloud . Les comptes pour lesquels le CSAM a été détecté seront ensuite soumis à un examen manuel par Apple et pourront être signalés au National Center for Missing and Exploited Children (NCMEC).

l'iphone 11 pro a-t-il une touche 3d

Les nouvelles fonctionnalités ont fait l'objet de nombreuses critiques de la part des utilisateurs, chercheurs en sécurité , les Electronic Frontier Foundation (EFF) et Edward Snowden , L'ancien chef de la sécurité de Facebook , et même Employés d'Apple .

Au milieu de ces critiques, Federighi a abordé l'un des principaux sujets de préoccupation, soulignant que le système d'Apple sera protégé contre l'exploitation par des gouvernements ou d'autres tiers avec « plusieurs niveaux d'auditabilité ».


Federighi a également révélé un certain nombre de nouveaux détails concernant les garanties du système, tels que le fait qu'un utilisateur devra rencontrer environ 30 correspondances pour le contenu CSAM dans leur Photos bibliothèque avant qu'Apple ne soit alerté, après quoi il confirmera si ces images semblent être de véritables instances de CSAM.

Si et seulement si vous atteignez un seuil de quelque chose de l'ordre de 30 correspondances d'images pédopornographiques connues, alors seulement Apple sait quoi que ce soit sur votre compte et sait quoi que ce soit sur ces images, et à ce stade, ne connaît que ces images, pas sur l'une de vos autres images. Il ne s'agit pas de faire une analyse car aviez-vous une photo de votre enfant dans la baignoire ? Ou, d'ailleurs, aviez-vous une photo d'une autre sorte de pornographie ? Cela ne correspond littéralement qu'aux empreintes digitales exactes d'images pédopornographiques connues.

Il a également souligné l'avantage pour la sécurité de placer le processus d'appariement sur le iPhone directement, plutôt que de se produire sur les serveurs de ‌iCloud‌.

Parce que c'est sur le [téléphone], les chercheurs en sécurité sont constamment en mesure d'introspecter ce qui se passe dans le logiciel [téléphone] d'Apple. Donc, si des changements étaient apportés pour élargir la portée de cela d'une manière que nous nous étions engagés à ne pas faire, il y a une vérifiabilité, ils peuvent repérer ce qui se passe.

Lorsqu'on lui a demandé si la base de données d'images utilisée pour faire correspondre le contenu CSAM sur les appareils des utilisateurs pourrait être compromise par l'insertion d'autres matériaux, tels que du contenu politique dans certaines régions, Federighi a expliqué que la base de données est construite à partir d'images CSAM connues de plusieurs organisations de sécurité de l'enfance, au moins deux étant « dans des juridictions distinctes », pour se protéger contre les abus du système.

comment faire approuver une carte apple

Ces organisations de protection de l'enfance, ainsi qu'un auditeur indépendant, pourront vérifier que la base de données d'images ne comprend que du contenu de ces entités, selon Federighi.

L'interview de Federighi fait partie des plus gros refoulements de relations publiques d'Apple à ce jour suite à la réponse publique mitigée à l'annonce des fonctionnalités de sécurité pour les enfants, mais la société a également tenté à plusieurs reprises de répondre aux préoccupations des utilisateurs , publier une FAQ et répondre directement aux préoccupations dans entretiens avec les médias .

Mots clés: The Wall Street Journal , Craig Federighi , Fonctions de sécurité pour les enfants d'Apple