Actualités Apple

Apple est prêt à étendre les nouvelles fonctionnalités de sécurité des enfants aux applications tierces

Lundi 9 août 2021 12h00 HAP par Joe Rossignol

Apple a organisé aujourd'hui une session de questions-réponses avec des journalistes concernant ses nouvelles fonctionnalités de sécurité pour les enfants , et lors du briefing, Apple a confirmé qu'il serait disposé à étendre les fonctionnalités aux applications tierces à l'avenir.





fonction de sécurité de communication iphone
En guise de rappel, Apple a dévoilé trois nouvelles fonctionnalités de sécurité pour les enfants à venir dans les futures versions d'iOS 15, iPadOS 15, macOS Monterey et/ou watchOS 8.

Les nouvelles fonctionnalités de sécurité pour les enfants d'Apple

Tout d'abord, une fonction facultative de sécurité des communications dans l'application Messages sur iPhone, iPad et Mac peut avertir les enfants et leurs parents lorsqu'ils reçoivent ou envoient des photos sexuellement explicites. Lorsque la fonctionnalité est activée, Apple a déclaré que l'application Messages utiliserait l'apprentissage automatique sur l'appareil pour analyser les images jointes, et si une photo est jugée sexuellement explicite, la photo sera automatiquement floue et l'enfant sera averti.



Deuxièmement, Apple sera en mesure de détecter les images connues d'abus sexuels sur enfants (CSAM) stockées dans iCloud Photos, ce qui permettra à Apple de signaler ces cas au National Center for Missing and Exploited Children (NCMEC), une organisation à but non lucratif qui travaille en collaboration. avec les forces de l'ordre américaines. Apple a confirmé aujourd'hui que le processus ne s'appliquerait qu'aux photos téléchargées sur iCloud Photos et non aux vidéos.

Troisièmement, Apple étendra les conseils dans Siri et Spotlight Search sur tous les appareils en fournissant des ressources supplémentaires pour aider les enfants et les parents à rester en sécurité en ligne et à obtenir de l'aide dans les situations dangereuses. Par exemple, les utilisateurs qui demandent à Siri comment ils peuvent signaler la CSAM ou l'exploitation d'enfants seront dirigés vers des ressources pour savoir où et comment déposer un signalement.

Extension aux applications tierces

Apple a déclaré que bien qu'il n'ait rien à partager aujourd'hui en termes d'annonce, étendre les fonctionnalités de sécurité pour enfants à des tiers afin que les utilisateurs soient encore plus protégés serait un objectif souhaitable. Apple n'a fourni aucun exemple spécifique, mais une possibilité pourrait être que la fonction de sécurité des communications soit mise à la disposition d'applications comme Snapchat, Instagram ou WhatsApp afin que les photos sexuellement explicites reçues par un enfant soient floues.

Une autre possibilité est que le système de détection CSAM connu d'Apple puisse être étendu à des applications tierces qui téléchargent des photos ailleurs que sur iCloud Photos.

Apple n'a pas fourni de délai quant au moment où les fonctionnalités de sécurité pour enfants pourraient être étendues à des tiers, notant qu'il lui restait encore à terminer les tests et le déploiement des fonctionnalités, et la société a également déclaré qu'elle devrait s'assurer que toute extension potentielle ne serait pas compromettre les propriétés de confidentialité ou l'efficacité des fonctionnalités.

D'une manière générale, Apple a déclaré que l'extension des fonctionnalités à des tiers est l'approche générale de l'entreprise et ce depuis qu'elle a introduit la prise en charge des applications tierces avec l'introduction de l'App Store sur iPhone OS 2 en 2008.