Actualités Apple

L'ancien chef de la sécurité de Facebook discute de la controverse autour des fonctionnalités de sécurité des enfants prévues par Apple

Mardi 10 août 2021 6 h 50 HAP par Hartley Charlton

Au milieu de la controverse en cours autour des plans d'Apple pour mettre en œuvre nouvelles fonctionnalités de sécurité pour les enfants Cela impliquerait de scanner les messages et les bibliothèques de photos des utilisateurs, l'ancien chef de la sécurité de Facebook, Alex Stamos, a pesé dans le débat avec des critiques de plusieurs parties impliquées et des suggestions pour l'avenir.





Fonction de sécurité pour enfants
Dans une vaste Fil Twitter , Stamos a déclaré qu'il n'y avait « pas de réponses faciles » dans le débat sur la protection de l'enfance par rapport à la vie privée.

comment utiliser les airpods avec apple tv

Stamos a exprimé sa frustration quant à la manière dont Apple a géré l'annonce des nouvelles fonctionnalités et critiqué l'entreprise pour ne pas s'être engagée dans des discussions sectorielles plus larges sur les aspects de sécurité et de confidentialité du chiffrement de bout en bout au cours des dernières années.



Apple a été invité mais a refusé de participer à ces discussions, et avec cette annonce, ils se sont simplement lancés dans le débat sur l'équilibrage et ont poussé tout le monde dans les recoins les plus reculés sans consultation ni débat public.

De même, Stamos a dit qu'il était déçu par diverses ONG, comme la Fondation de la frontière électronique (EFF) et National Center for Missing & Exploited Children (NCMEC), pour avoir laissé peu de place à la discussion dans leurs déclarations publiques. Le NCMEC, par exemple, appelé les employés d'Apple qui remettait en question les implications sur la vie privée des nouvelles fonctionnalités « les voix hurlantes de la minorité ». 'Le mouvement public d'Apple les a poussés à défendre leurs actions à l'extrême', a expliqué Stamos.

Stamos exhorté s chercheurs en sécurité et les militants qui ont été surpris par l'annonce d'Apple d'accorder une plus grande attention à l'environnement réglementaire mondial, et ont émis l'hypothèse que le projet de loi britannique sur la sécurité en ligne et la loi sur les services numériques de l'UE avaient joué un rôle déterminant dans la décision d'Apple de mettre en œuvre les nouvelles fonctionnalités de sécurité des enfants.

L'un des problèmes fondamentaux de l'approche d'Apple est qu'ils semblent désespérés d'éviter de créer une véritable fonction de confiance et de sécurité pour leurs produits de communication. Il n'existe aucun mécanisme pour signaler les spams, menaces de mort, discours de haine, NCII ou tout autre type d'abus sur iMessage.

Il dit aussi qu'Apple ne dispose pas de fonctions suffisantes pour la confiance et la sécurité, et a encouragé Apple pour créer un système de signalement dans iMessage, déployer le ML côté client pour inciter les utilisateurs à signaler quelque chose d'abusif et doter une équipe de sécurité des enfants en place pour enquêter sur les pires signalements.

Au lieu de cela, nous obtenons un système de ML qui ne cible que les (moins) de 13 ans (pas le plus grand groupe de cibles de sextorsion / toilettage dans mon expérience), qui donne aux enfants un choix pour lequel ils ne sont pas équipés, et informe les parents au lieu d'Apple T&S.

Stamos mentionné qu'il ne comprenait pas pourquoi Apple recherche CSAM localement à moins que le cryptage de sauvegarde iCloud ne soit en cours, et a averti qu'Apple pourrait avoir 'empoisonné' l'opinion contre les classificateurs côté client.

pourquoi un seul de mes airpods fonctionne

Je ne comprends pas non plus pourquoi Apple pousse l'analyse CSAM pour iCloud dans l'appareil, à moins que ce ne soit en vue d'un véritable cryptage des sauvegardes iCloud. Une cible raisonnable devrait être l'analyse des albums iCloud partagés, qui pourraient être implémentés côté serveur.

Dans tous les cas, sortir de la porte avec une analyse non consensuelle des photos locales et créer un ML côté client qui ne fournira pas beaucoup de prévention réelle des dommages, signifie qu'Apple pourrait avoir empoisonné le puits contre toute utilisation du client classificateurs latéraux pour protéger les utilisateurs.

Néanmoins, Stamos mis en évidence que Facebook a surpris 4,5 millions d'utilisateurs publiant des images d'abus d'enfants, et qu'il ne s'agit probablement que d'une proportion du nombre total de délinquants, en recherchant des images avec des correspondances connues pour CSAM.

Mots clés : Facebook , Fonctions de sécurité pour les enfants d'Apple