porte dérobée

Apple annonce l’ajout d’une porte dérobée dans ses appareils

Hier, Apple a annoncé des initiatives pour lutter contre les images à caractère sexuel impliquant des enfants. Cette annonce a suscité de vives réactions de la part d’organismes de défense de la vie privée.

Apple va inclure une option de contrôle parental utilisant des techniques d’apprentissage-machine pour analyser les images sur les appareils des enfants. Les parents seront avertis si du matériel sensible est partagé sur ces appareils.

Deuxièmement, Apple instaure une inspection des images téléversées vers iCloud. Celles-ci seront comparées à une base de données d’images connues pour être du matériel d’exploitation sexuelle de mineurs.

Techniquement, ce ne sont pas les images elles-mêmes qui seront comparées, mais leur valeur de hachage. Il s’agit d’un processus mathématique qui permet de transformer un fichier, comme une image ou une vidéo, en une valeur de chiffres et de lettres. Cette valeur sera toujours la même pour un fichier identique.

Pour terminer, l’assistant vocal Siri va maintenant avertir les gens lorsqu’ils font des recherches pour des sujets reliés au matériel d’exploitation sexuelle de mineurs.

Un pas vers la surveillance de masse

Matthew Green, un professeur de cryptographie à l’Université Johns Hopkins, explique dans un fil Twitter que le chiffrement des communications est un outil essentiel pour la protection de la vie privée. La contrepartie est que cela rend le travail des forces policières plus difficile. Une image chiffrée n’aura plus la même signature de « hash » que l’image en clair. Cela rend la comparaison et la détection impossible.

Selon le professeur Green, les gouvernements mettent donc de la pression sur les entreprises pour que celles-ci leur donnent accès à des « portes dérobées » pour déjouer le chiffrement. Ces accès rendraient les applications moins sécuritaires, car ce qui est utilisé par les forces de l’ordre peut être détourné et utilisé par n’importe qui.

Les entreprises en viennent donc à proposer un compromis. Vu que les images seront chiffrées sur leurs serveurs, pourquoi ne pas les scanner sur l’appareil du client avant de les téléverser ? Bingo !

Lorsqu’une solution offre le beurre et l’argent du beurre, il y a souvent des problèmes à l’horizon. M. Green rappelle que ces algorithmes de hachage sont « imprécis ». Ils ont pour fonction de détecter des images qui « ressemblent » à des images connues même si elles sont comprimées ou si les dimensions ont été changées. Il y a donc un réel risque de « faux positif », c’est-à-dire de signaler des images inoffensives comme étant du matériel illicite.

Pour M. Green, cette annonce par une compagnie qui a fait de la protection de la vie privée une marque de commerce envoie un message très clair aux gouvernements et entreprises qu’il est correct de scanner les appareils de ses clients pour du matériel interdit.

La liste de ce qui est interdit peut facilement être modifiée et allongée, une fois que le système est en place.

Contrôle parental et abus potentiel

L’Electronic Frontier Foundation (EFF), un organisme de défense des droits civils basé aux États-Unis a également réagi à l’annonce de Apple. Dans un texte publié sur son site, l’organisme affirme qu’« il est impossible de créer un système de surveillance qui ne peut être utilisé que pour détecter du matériel sexuellement explicite envoyé par ou à des enfants ».

« Ce n’est pas une pente glissante. C’est un système déjà prêt qui n’attend qu’une pression externe pour élargir son mandat »

Malgré la meilleure des intentions, cette pratique va ouvrir la porte à des abus. « Ce n’est pas une pente glissante. C’est un système déjà prêt qui n’attend qu’une pression externe pour élargir son mandat », ajoutent les auteures. Elles donnent l’exemple d’une base de données déjà existante de « contenu terroriste ».

Comme le « partage familial » peut être organisé par un partenaire abusif, l’EFF s’inquiète que cette fonctionnalité pourrait être utilisée à des fins de surveillance.

Il y a également la question des adolescents et adolescentes dont Apple dévoilerait l’orientation sexuelle dans des contextes ou cela pourrait les mettre en danger.

Apple prévoit instaurer ces mesures aux États-Unis en premier. Selon le communiqué émis par l’entreprise, ces mesures seront ajoutées cette année dans les mises à jour des systèmes d’exploitation iOS 15, iPadOS15 et macOS Monterey.

Crédit photo: Franck Michel CC-BY 2.0

FacebooktwitterredditpinterestlinkedintumblrmailFacebooktwitterredditpinterestlinkedintumblrmail

Publié par

Sam Harper

Il y a quelques années, j’ai troqué le stéthoscope pour le clavier. Journaliste indépendant et programmeur passionné par la cybersécurité, j’écris des mots et du code. Je m’intéresse particulièrement aux enjeux politiques et sociaux qui entourent les algorithmes. Vous pouvez me rejoindre à samharper[a]acetum[point]ca