Actualités Apple

Apple présente de nouvelles fonctionnalités de sécurité pour les enfants, y compris la numérisation des bibliothèques de photos des utilisateurs pour le matériel d'abus sexuel connu

Jeudi 5 août 2021 à 13 h 00 HAP par Joe Rossignol

Apple aujourd'hui aperçu des nouvelles fonctionnalités de sécurité pour les enfants qui arrivera sur ses plates-formes avec des mises à jour logicielles plus tard cette année. La société a déclaré que les fonctionnalités ne seront disponibles aux États-Unis qu'au lancement et seront étendues à d'autres régions au fil du temps.





fonction de sécurité de communication iphone

Sécurité des communications

Tout d'abord, l'application Messages sur iPhone, iPad et Mac bénéficiera d'une nouvelle fonctionnalité de sécurité des communications pour avertir les enfants et leurs parents lors de la réception ou de l'envoi de photos sexuellement explicites. Apple a déclaré que l'application Messages utiliserait l'apprentissage automatique sur l'appareil pour analyser les pièces jointes d'images, et si une photo est jugée sexuellement explicite, la photo sera automatiquement floue et l'enfant sera averti.



comment scanner des fichiers sur iphone

Lorsqu'un enfant tente de voir une photo signalée comme sensible dans l'application Messages, il est averti que la photo peut contenir des parties du corps privées et que la photo peut être blessante. Selon l'âge de l'enfant, les parents auront également la possibilité de recevoir une notification si leur enfant continue de visionner la photo sensible ou s'ils choisissent d'envoyer une photo sexuellement explicite à un autre contact après avoir été averti.

Apple a déclaré que la nouvelle fonctionnalité de sécurité des communications arrivera dans les mises à jour d'iOS 15, d'iPadOS 15 et de macOS Monterey plus tard cette année pour les comptes configurés en tant que familles dans iCloud. Apple a veillé à ce que les conversations iMessage restent protégées par un cryptage de bout en bout, rendant les communications privées illisibles par Apple.

Numérisation de photos pour le matériel d'abus sexuel d'enfants (CSAM)

Deuxièmement, à partir de cette année avec iOS 15 et iPadOS 15, Apple sera en mesure de détecter les images connues d'abus sexuels sur enfants (CSAM) stockées dans iCloud Photos, permettant à Apple de signaler ces cas au National Center for Missing and Exploited Children (NCMEC) , une organisation à but non lucratif qui travaille en collaboration avec les forces de l'ordre américaines.

Apple a déclaré que sa méthode de détection des CSAM connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, Apple a déclaré que le système effectuerait une correspondance sur l'appareil avec une base de données de hachages d'images CSAM connus fournis par le NCMEC et d'autres organisations de sécurité des enfants. Apple a déclaré qu'il transformerait davantage cette base de données en un ensemble de hachages illisible qui est stocké en toute sécurité sur les appareils des utilisateurs.

La technologie de hachage, appelée NeuralHash, analyse une image et la convertit en un numéro unique spécifique à cette image, selon Apple.

'L'objectif principal du hachage est de garantir que des images identiques et visuellement similaires donnent le même hachage, tandis que des images différentes les unes des autres donnent des hachages différents', a déclaré Apple dans un nouveau livre blanc 'Protections étendues pour les enfants'. 'Par exemple, une image qui a été légèrement recadrée, redimensionnée ou convertie de la couleur au noir et blanc est traitée de la même manière que son original et a le même hachage.'

organigramme apple csam
Avant qu'une image ne soit stockée dans iCloud Photos, Apple a déclaré qu'un processus de correspondance sur l'appareil était effectué pour cette image par rapport à l'ensemble illisible de hachages CSAM connus. S'il y a une correspondance, l'appareil crée un bon de sécurité cryptographique. Ce bon est téléchargé sur iCloud Photos avec l'image, et une fois qu'un seuil non divulgué de correspondances est dépassé, Apple est en mesure d'interpréter le contenu des bons pour les correspondances CSAM. Apple examine ensuite manuellement chaque rapport pour confirmer qu'il existe une correspondance, désactive le compte iCloud de l'utilisateur et envoie un rapport au NCMEC. Apple ne partage pas son seuil exact, mais garantit un 'niveau de précision extrêmement élevé' pour que les comptes ne soient pas signalés de manière incorrecte.

Apple a déclaré que sa méthode de détection des CSAM connus offre des « avantages importants en matière de confidentialité » par rapport aux techniques existantes :

• Ce système est un moyen efficace d'identifier les CSAM connus stockés dans les comptes iCloud Photos tout en protégeant la confidentialité des utilisateurs.
• Dans le cadre du processus, les utilisateurs ne peuvent pas non plus apprendre quoi que ce soit sur l'ensemble d'images CSAM connues qui sont utilisées pour la correspondance. Cela protège le contenu de la base de données d'une utilisation malveillante.
• Le système est très précis, avec un taux d'erreur extrêmement faible de moins d'un compte sur mille milliards par an.
• Le système préserve beaucoup plus la confidentialité que l'analyse basée sur le cloud, car il ne signale que les utilisateurs qui ont une collection de CSAM connus stockés dans iCloud Photos.

La technologie sous-jacente au système d'Apple est assez complexe et il a publié un résumé technique avec plus de détails.

« La protection étendue d'Apple pour les enfants change la donne. Avec autant de personnes utilisant des produits Apple, ces nouvelles mesures de sécurité ont un potentiel de sauvetage pour les enfants qui sont attirés en ligne et dont les images horribles sont diffusées dans du matériel pédopornographique », a déclaré John Clark, président-directeur général du National Center for Missing. & Enfants exploités. «Au Centre national pour les enfants disparus et exploités, nous savons que ce crime ne peut être combattu que si nous restons déterminés à protéger les enfants. Nous ne pouvons le faire que parce que les partenaires technologiques, comme Apple, se mobilisent et font connaître leur engagement. La réalité est que la vie privée et la protection des enfants peuvent coexister. Nous applaudissons Apple et sommes impatients de travailler ensemble pour faire de ce monde un endroit plus sûr pour les enfants.

Guide CSAM étendu dans Siri et Search

iphone csam siri
Troisièmement, Apple a déclaré qu'il étendrait les conseils dans Siri et Spotlight Search sur tous les appareils en fournissant des ressources supplémentaires pour aider les enfants et les parents à rester en sécurité en ligne et à obtenir de l'aide dans les situations dangereuses. Par exemple, les utilisateurs qui demandent à Siri comment ils peuvent signaler la CSAM ou l'exploitation d'enfants seront dirigés vers des ressources pour savoir où et comment déposer un signalement.

Les mises à jour de Siri et de Search arriveront plus tard cette année dans une mise à jour d'iOS 15, iPadOS 15, watchOS 8 et macOS Monterey, selon Apple.

Remarque : En raison de la nature politique ou sociale de la discussion concernant ce sujet, le fil de discussion se trouve dans notre Nouvelles politiques forum. Tous les membres du forum et les visiteurs du site sont invités à lire et à suivre le fil, mais la publication est limitée aux membres du forum ayant au moins 100 messages.

Mots clés : Confidentialité d'Apple , Fonctionnalités de sécurité pour les enfants d'Apple