Actualités Apple

La coalition mondiale des groupes politiques exhorte Apple à abandonner son « plan visant à intégrer des capacités de surveillance dans les iPhones »

Jeudi 19 août 2021 02h23 PDT par Tim Hardwick

Une coalition internationale de plus de 90 groupes politiques et de défense des droits publié une lettre ouverte jeudi exhortant Apple à abandonner ses projets de « construire des capacités de surveillance dans les iPhones, iPads et autres produits » – une référence à l'intention de la société de analyser les bibliothèques de photos iCloud des utilisateurs à la recherche d'images d'abus sexuels sur des enfants (passant par Reuters ).





Fonction de sécurité pour enfants jaune

«Bien que ces capacités soient destinées à protéger les enfants et à réduire la propagation du matériel pédopornographique (CSAM), nous craignons qu'elles ne soient utilisées pour censurer les discours protégés, menacer la vie privée et la sécurité des personnes dans le monde et avoir des effets désastreux conséquences pour de nombreux enfants », ont écrit les groupes dans la lettre.



Certains signataires de la lettre, organisée par le Center for Democracy & Technology (CDT), basé aux États-Unis, craignent que le système d'analyse CSAM sur l'appareil d'Apple ne soit détourné dans des pays dotés de systèmes juridiques différents pour rechercher du contenu politique ou autre contenu sensible.

'Une fois cette fonctionnalité de porte dérobée intégrée, les gouvernements pourraient obliger Apple à étendre la notification à d'autres comptes et à détecter les images répréhensibles pour des raisons autres que sexuellement explicites', lit-on dans la lettre.

La lettre appelle également Apple à abandonner les modifications prévues d'iMessage dans les comptes familiaux, qui tenteraient d'identifier et de brouiller la nudité dans les messages des enfants, leur permettant de la voir uniquement si les parents en sont informés. Les signataires affirment que non seulement cette étape pourrait mettre en danger les enfants des foyers intolérants ou ceux qui recherchent du matériel éducatif, mais elle briserait également le cryptage de bout en bout pour iMessage.

Certains signataires viennent de pays dans lesquels il existe déjà des batailles juridiques passionnées sur le cryptage numérique et les droits à la vie privée, comme le Brésil, où WhatsApp a été bloqué à plusieurs reprises pour n'avoir pas réussi à déchiffrer les messages dans le cadre d'enquêtes criminelles. D'autres signataires sont basés en Inde, au Mexique, en Allemagne, en Argentine, au Ghana et en Tanzanie. Les groupes qui ont également signé incluent l'American Civil Liberties Union, Electronic Frontier Foundation, Access Now, Privacy International et le projet Tor.

Le plan d'Apple pour détecter les images CSAM connues stockées dans Photos iCloud a été particulièrement controversé et a suscité des inquiétudes chez les chercheurs en sécurité, les universitaires, les groupes de protection de la vie privée et d'autres au sujet du système potentiellement abusé par les gouvernements en tant que forme de surveillance de masse. La société a tenté de répondre aux préoccupations en publiant documents supplémentaires et un FAQ expliquant comment le système de détection d'images fonctionnera et arguant du fait que le risque de fausses détections est faible.

Apple a également déclaré qu'il refuserait les demandes d'étendre le système de détection d'images au-delà des images d'enfants signalées par des bases de données reconnues de matériel pédopornographique, même si, comme Reuters fait remarquer, il n'a pas dit qu'il se retirerait d'un marché plutôt que d'obéir à une décision de justice.

Mots clés : Confidentialité d'Apple , Fonctionnalités de sécurité pour les enfants d'Apple