Actualités Apple

Des chercheurs universitaires qui ont construit un système de numérisation CSAM exhortent Apple à ne pas utiliser la technologie « dangereuse »

Vendredi 20 août 2021 06h48 PDT par Sami Fathi

Des chercheurs universitaires respectés tirent la sonnette d'alarme sur la technologie derrière les plans d'Apple pour numériser iPhone les bibliothèques de photos des utilisateurs pour le CSAM, ou le matériel d'abus sexuel d'enfants, qualifiant la technologie de « dangereuse ».





vie privée de pomme
Jonanath Mayer, professeur adjoint d'informatique et d'affaires publiques à l'Université de Princeton, ainsi qu'Anunay Kulshrestha, chercheur au Princeton University Center for Information Technology Policy, tous deux a écrit un éditorial pour Le Washington Post , décrivant leurs expériences avec la technologie de détection d'images de bâtiment.

Les chercheurs ont lancé un projet il y a deux ans pour identifier CSAM dans des services en ligne cryptés de bout en bout. Les chercheurs notent que compte tenu de leur domaine, ils 'connaissent la valeur du cryptage de bout en bout, qui protège les données contre l'accès de tiers'. Cette préoccupation, disent-ils, est ce qui les horrifie à propos de CSAM 'proliférant sur des plates-formes cryptées'.



comment fermer des programmes sur iphone 11

Mayer et Kulshrestha ont déclaré qu'ils voulaient trouver un terrain d'entente à la situation : créer un système que les plateformes en ligne pourraient utiliser pour trouver CSAM et protéger le cryptage de bout en bout. Les chercheurs notent que les experts dans le domaine doutaient de la perspective d'un tel système, mais ils ont réussi à le construire et ont ainsi remarqué un problème important.

Nous avons cherché à explorer un terrain d'entente possible, où les services en ligne pourraient identifier les contenus nuisibles tout en préservant le cryptage de bout en bout. Le concept était simple : si quelqu'un partageait du matériel qui correspondait à une base de données de contenu dangereux connu, le service serait alerté. Si une personne partageait un contenu innocent, le service n'apprendrait rien. Les gens ne pouvaient pas lire la base de données ou savoir si le contenu correspondait, car ces informations pourraient révéler des méthodes d'application de la loi et aider les criminels à échapper à la détection.

Des observateurs avertis ont soutenu qu'un système comme le nôtre était loin d'être réalisable. Après de nombreux faux départs, nous avons construit un prototype fonctionnel. Mais nous avons rencontré un problème flagrant.

Depuis l'annonce de la fonctionnalité par Apple, la société a été bombardée avec des inquiétudes que le système de détection de CSAM pourrait être utilisé pour détecter d'autres formes de photos à la demande de gouvernements oppressifs. Apple s'est fortement opposé à une telle possibilité, affirmant qu'il refuserait toute demande de ce type de la part des gouvernements.

Néanmoins, les inquiétudes concernant les implications futures de la technologie utilisée pour la détection de CSAM sont largement répandues. Mayer et Kulshrestha ont déclaré que leurs inquiétudes quant à la manière dont les gouvernements pourraient utiliser le système pour détecter des contenus autres que CSAM les avaient « dérangés ».

comment localiser une montre apple perdue

Un gouvernement étranger pourrait, par exemple, obliger un service à des personnes partageant un discours politique défavorable. Ce n'est pas hypothétique : WeChat, l'application de messagerie chinoise populaire, utilise déjà la correspondance de contenu pour identifier le matériel dissident. L'Inde a promulgué cette année des règles qui pourraient exiger une présélection de contenu critique de la politique gouvernementale. La Russie a récemment infligé des amendes à Google, Facebook et Twitter pour ne pas avoir supprimé le matériel de protestation en faveur de la démocratie.

Nous avons repéré d'autres lacunes. Le processus de correspondance de contenu pourrait avoir des faux positifs et des utilisateurs malveillants pourraient jouer avec le système pour soumettre des utilisateurs innocents à un examen minutieux.

Nous étions tellement perturbés que nous avons pris une mesure que nous n'avions jamais vue auparavant dans la littérature informatique : nous avons mis en garde contre notre propre conception de système, exhortant à poursuivre les recherches sur la façon d'atténuer les graves inconvénients...

Apple a continué de répondre aux préoccupations des utilisateurs concernant ses plans, publication de documents supplémentaires et une page FAQ . Apple continue de croire que son système de détection CSAM, qui se produira sur l'appareil d'un utilisateur, s'aligne sur ses valeurs de confidentialité de longue date.

Mots clés : Confidentialité d'Apple , WashingtonPost.com , Fonctions de sécurité pour les enfants d'Apple