Pourquoi Apple a abandonné son projet de scanner les photos iCloud à la recherche de matériel pédopornographique

Pourquoi Apple a abandonné son projet de scanner les photos iCloud à la recherche de matériel pédopornographique

Fin 2022, Apple a annulé son initiative visant à détecter les photos d’abus sexuels sur des enfants stockées dans iCloud. Depuis son annonce, le projet a suscité une grande controverse car, malgré ses bonnes intentions, il pourrait entraîner des problèmes inimaginables en matière de confidentialité. Et même si ceux de Cupertino sont restés attachés à leur stratégie initiale malgré les critiques du public et de dizaines d’organisations civiles, ils ont fini par tout jeter par-dessus bord sans donner plus d’explications. Jusqu’à maintenant.

Pour la première fois, Apple a précisé pourquoi il avait mis fin à l’initiative visant à analyser les photos stockées dans iCloud à la recherche de matériel pédopornographique. Erik Neuenschwandervice-président de la confidentialité des utilisateurs et de la sécurité des enfants de la firme californienne, l’a détaillé dans une lettre envoyée à Sarah Gardner, PDG de Heat Initiative, un groupe de sécurité des enfants (via CÂBLÉ).

Gardner a initialement envoyé un e-mail à Tim Cook et à d’autres dirigeants d’Apple pour exprimer son mécontentement face au retard initial et à l’annulation ultérieure du plan visant à détecter les photos d’abus d’enfants sur ses appareils et services cloud. En outre, il les a informés que son groupe lancerait une campagne pour faire pression publiquement sur eux afin qu’ils mettent en œuvre un système qui détecterait, signalerait et éliminerait la pédopornographie stockée dans iCloud. Ainsi que de promouvoir la création d’un mécanisme permettant aux utilisateurs de ses produits de signaler l’existence de ce type de matériel.

La réponse de Neuenschwander à cette affirmation est très intéressante. L’exécutif a ouvertement reconnu qu’Apple n’a pas réussi à élucider les aspects techniques nécessaires développer un système de détection de photos de maltraitance d’enfants qui soit efficace, mais ne compromet pas la vie privée des utilisateurs.

Apple a consulté des experts en technologie, en sécurité et en droits de l’homme et a étudié la technologie de numérisation « sous pratiquement tous les angles possibles ». Et la conclusion était forte : ce qui était censé être réalisé était impossible sans faire des concessions en matière de vie privée.

Apple et l’annulation de son initiative de détection des photos d’abus d’enfants dans iCloud

Photo de Tim Gouw sur Unsplash

Dans l’e-mail envoyé au leader de la Heat Initiative, Neuenschwander souligne que la pédopornographie est odieuse et énumère les multiples mesures prises par Apple pour protéger les mineurs qui utilisent ses appareils. Cependant, il détaille ensuite Pourquoi a-t-on décidé d’annuler l’initiative de détection de ce type de matériel dans iCloud ?.

« Les entreprises utilisent régulièrement l’analyse cloud des données personnelles pour monétiser les informations de leurs utilisateurs. Bien que certaines entreprises aient justifié de telles pratiques, nous avons choisi une voie très différente : celle qui donne la priorité à la sécurité et à la confidentialité de nos utilisateurs. Nous estimons que l’analyse des informations privées de chaque utilisateur Le contenu iCloud stocké aurait pour eux de graves conséquences inattendues. (…) L’analyse du contenu iCloud stocké en privé créerait de nouveaux vecteurs de menace que les voleurs de données pourraient trouver et exploiter.

Cela entraînerait également la possibilité d’une pente glissante entraînant des conséquences inattendues. La recherche d’un type de contenu, par exemple, ouvrirait la porte à une surveillance de masse et pourrait susciter le désir d’analyser d’autres systèmes de messagerie cryptés à la recherche d’autres catégories et types de contenus (tels que des images, des vidéos, du texte ou de l’audio). Comment les utilisateurs peuvent-ils être sûrs qu’un outil destiné à un type de surveillance n’a pas été reconfiguré pour surveiller d’autres contenus tels que des activités politiques ou des persécutions religieuses ? Les outils de surveillance de masse ont de vastes conséquences négatives sur la liberté d’expression et, par extension, sur la démocratie dans son ensemble. De plus, la conception de cette technologie pour un gouvernement pourrait nécessiter des applications pour d’autres pays disposant de nouveaux types de données.

« Les systèmes de numérisation ne sont pas non plus infaillibles, et il existe des preuves documentées provenant d’autres plates-formes où des personnes innocentes ont été entraînées dans des réseaux dystopiques qui en ont fait des victimes alors qu’elles n’ont rien fait d’autre que de partager des photographies parfaitement normales et appropriées de leurs bébés. »

Fragment de l’e-mail envoyé par Erik Neuenschwander à Sarah Gardner.

Il n’est pas habituel pour Apple de parler ouvertement de ses décisions concernant ses stratégies de produits ou de services, mais il est évident que son initiative visant à détecter les photos d’abus d’enfants dans iCloud le justifiait. Il est également probable que le message de Neuenschwander n’était pas destiné à être rendu public. Même si cela donne au moins une image plus claire de Quel poids ont pesé les gens du quartier face à cette histoire ?.

L’un des projets les plus controversés d’Apple

iCloud

Rappelons qu’au début, Apple a tenu bon dans sa décision de scanner des appareils comme un iPhone à la recherche de photos d’abus sur des enfants. En fait, Craig Federighi, vice-président de l’ingénierie logicielle de l’entreprise, a reconnu que l’annonce avait semé la confusion. Et il a même tenté d’expliquer l’approche adoptée par l’entreprise pour préserver la confidentialité des utilisateurs.

À l’époque, l’exécutif avait indiqué que le système serait basé sur Hachages CSAM. Qu’est-ce que cela signifiait ? Apple utiliserait une base de données de photos d’abus sexuels sur des enfants créée par des entités de protection de l’enfance et auditée de manière indépendante. La technologie à mettre en œuvre émettrait une alarme seulement lorsqu’un certain nombre de correspondances ont été détectées.

« Si, et seulement si, vous atteignez un seuil d’environ 30 photos pédopornographiques connues, alors Apple connaîtra votre compte et celles-ci. Et à ce stade, il ne connaîtra que celles-ci, et aucune de vos autres images. Il ne s’agit pas ici d’analyser pourquoi vous aviez une photo de votre enfant dans la baignoire ni, d’ailleurs, si vous aviez une image pornographique d’une autre sorte. Littéralement, cela correspond simplement aux empreintes digitales exactes d’images pornographiques spécifiques connues. enfants », a expliqué Federighi à Le journal de Wall Street en août 2021.

Malgré cette position initiale à toute épreuve, Apple a conclu que il n’y avait aucun moyen de garantir la confidentialité à la recherche de photos de maltraitance d’enfants. Pas même si le traitement des informations a été effectué, par exemple, à l’intérieur d’un iPhone, et non sur des serveurs iCloud.

Avec l’explication de Neuenschwander, nous disposons désormais au moins de données plus précises sur cette histoire. N’oublions cependant pas qu’Apple a continué à travailler pour améliorer la protection des mineurs qui utilisent leurs appareils. L’un des cas les plus notables est celui des alertes de nudité pour les images envoyées via iMessage.

A lire également