Actualités Apple

Des chercheurs en sécurité expriment leur inquiétude face aux projets d'Apple de numériser des images iCloud, mais la pratique est déjà répandue

Jeudi 5 août 2021 14h04 PDT par Juli Clover

Pomme a annoncé aujourd'hui qu'avec le lancement de iOS 15 et iPad 15 , il commencera à numériser Photos iCloud aux États-Unis pour rechercher du matériel connu d'abus sexuels sur enfants (CSAM), avec l'intention de signaler les résultats au National Center for Missing and Exploited Children (NCMEC).





Fonction de sécurité pour enfants
Avant qu'Apple ne détaille ses plans, les nouvelles de l'initiative CSAM ont été divulguées et les chercheurs en sécurité ont déjà commencé à exprimer leurs inquiétudes quant à la manière dont le nouveau protocole de numérisation d'images d'Apple pourrait être utilisé à l'avenir, comme l'a noté Temps Financier .

Apple utilise un système « NeuralHash » pour comparer les images CSAM connues aux photos d'un utilisateur iPhone avant qu'ils ne soient téléchargés sur iCloud . S'il y a une correspondance, cette photo est téléchargée avec un bon de sécurité cryptographique, et à un certain seuil, un examen est déclenché pour vérifier si la personne a CSAM sur ses appareils.



comment connecter homepod à iphone

À l'heure actuelle, Apple utilise sa technologie de numérisation et de correspondance d'images pour rechercher des cas de maltraitance d'enfants, mais les chercheurs craignent qu'à l'avenir, elle puisse être adaptée pour rechercher d'autres types d'images plus préoccupantes, comme les panneaux anti-gouvernementaux à protestations.

Dans une série de tweets, le chercheur en cryptographie de Johns Hopkins Matthieu Vert a déclaré que la numérisation CSAM est une « vraiment mauvaise idée » car à l'avenir, elle pourrait s'étendre à la numérisation de photos cryptées de bout en bout plutôt qu'au simple contenu téléchargé sur ‌iCloud‌. Pour les enfants, Pomme est mettre en œuvre une fonction d'analyse distincte qui recherche le contenu sexuellement explicite directement dans iMessages, qui sont cryptés de bout en bout.

Green a également fait part de ses inquiétudes concernant les hachages qu'Apple envisage d'utiliser, car il pourrait y avoir des « collisions », où quelqu'un envoie un fichier inoffensif qui partage un hachage avec CSAM et pourrait entraîner un faux drapeau.

Apple, pour sa part, affirme que sa technologie de numérisation a un 'niveau de précision extrêmement élevé' pour s'assurer que les comptes ne sont pas signalés de manière incorrecte, et que les rapports sont examinés manuellement avant que ‌iCloud‌ le compte est désactivé et un rapport est envoyé au NCMEC.

Green pense que la mise en œuvre d'Apple poussera d'autres entreprises technologiques à adopter des techniques similaires. « Cela brisera le barrage », a-t-il écrit. « Les gouvernements l'exigeront de tout le monde. » Il a comparé la technologie aux « outils que les régimes répressifs ont déployés ».


Le chercheur en sécurité Alec Muffett, qui travaillait auparavant chez Facebook, a déclaré que la décision d'Apple de mettre en œuvre ce type de numérisation d'images était une 'étape énorme et régressive pour la vie privée des individus'. 'Apple revient sur la confidentialité pour permettre 1984', a-t-il déclaré.

Ross Anderson, professeur d'ingénierie de la sécurité à l'Université de Cambridge, a déclaré qu'il s'agissait d'une 'idée absolument épouvantable' qui pourrait conduire à une 'surveillance en masse distribuée' des appareils.

Comme beaucoup l'ont souligné sur Twitter, plusieurs entreprises technologiques effectuent déjà la numérisation d'images pour CSAM. Google, Twitter, Microsoft, Facebook et d'autres utilisent des méthodes de hachage d'images pour rechercher et signaler des images connues de maltraitance d'enfants.


Il convient également de noter qu'Apple était déjà numériser du contenu pour les images d'abus d'enfants avant le déploiement de la nouvelle initiative CSAM. En 2020, la responsable de la confidentialité d'Apple, Jane Horvath, a déclaré qu'Apple utilisait la technologie de filtrage pour rechercher des images illégales, puis désactivait les comptes si des preuves de CSAM étaient détectées.

combien coûte applecare+ pour iphone 12

Pomme en 2019 mis à jour ses politiques de confidentialité à noter qu'il analyserait le contenu téléchargé à la recherche de «contenu potentiellement illégal, y compris du matériel d'exploitation sexuelle d'enfants», de sorte que les annonces d'aujourd'hui ne sont pas entièrement nouvelles.

Remarque : En raison de la nature politique ou sociale de la discussion concernant ce sujet, le fil de discussion se trouve dans notre Nouvelles politiques forum. Tous les membres du forum et les visiteurs du site sont invités à lire et à suivre le fil, mais la publication est limitée aux membres du forum ayant au moins 100 messages.

Mots clés : Confidentialité d'Apple , Fonctionnalités de sécurité pour les enfants d'Apple