Chat Control, ou la surveillance généralisée sur internet

Bonjour les pirates, les Parlementaires européens et notamment Patrick Breyer Travaille sur deux sujet majeurs en ce moment au Parlement européen.

Voici une traduction d’un résumé produit par son équipe pour le sujet de l’identité numérique chat control, ou comment faire de la surveillance de masse sous couvert de lutte contre la pédocriminalité :

Je vous propose de réagir à ce sujet, et si ce sujet vous intéresse, soit nous publierons ce résumé, soit une version enrichie par ce fil de discussion. (écrivez moi en MP pour avoir accès à un pad de travail)

En mai 2022, la Commission européenne a proposé un règlement visant à obliger les fournisseurs à fouiller automatiquement tous les chats, messages, e-mails et stockages en ligne privés à la recherche de contenus suspects - de manière générale et sans distinction. L’objectif déclaré est de poursuivre le partage de matériel pédopornographique ainsi que la sollicitation d’enfants à des fins sexuelles. Les fournisseurs sont déjà autorisés à effectuer cette recherche sur une base volontaire, mais la Commission veut la rendre obligatoire pour tous les services pour lesquels il existe un risque de partage ou de manipulation psychologique.

Le 10 octobre 2022, la proposition a été présentée et discutée pour la première fois au sein de la commission LIBE du Parlement européen ; le pirate Patrick Breyer a été désigné comme rapporteur fantôme pour le groupe des Verts/ALE. La première réunion de la commission LIBE aura lieu le 30 novembre 2022. Par la suite, le Parlement européen et le Conseil de l’UE discuteront des amendements proposés par les commissions, et ces délibérations pourraient se terminer dès la fin de l’année 2022.

Le règlement concerne les services de messagerie ainsi que les services de cloud computing et d’hébergement de toutes sortes, même les fournisseurs de services de communications chiffrées de bout en bout. Le règlement rendrait obligatoire la surveillance des conversations après que le fournisseur en ait reçu l’ordre par les autorités compétentes. Elles recevraient un tel ordre si, à la suite d’une évaluation, il s’avère qu’il existe un risque que le service (qu’il s’agisse de la fonction de conversation d’un jeu vidéo ou d’un service de vidéoconférence, de comptes en ligne, de services de courrier électronique, etc.) Par conséquent, comme il existe un tel risque pour tous les services de communication et de stockage en ligne, tous les textes, images, vidéos et voix (par exemple, les réunions visio, les messages vocaux et les appels téléphoniques) devraient être scannés. En cas d’atteinte à la vie privée, le projet de loi permet aux fournisseurs de transmettre des rapports automatisés à la police sans qu’il y ait d’instance de contrôle humaine.

Le projet soulève de nombreuses inquiétudes au niveau des droits fondamentaux. En définitive, le règlement conduira à l’abolition du secret des télécommunications protégé par l’article 7 de la Charte européenne des droits fondamentaux, et constitue une ingérence grave dans la protection de ses données accordée par l’article 8 de la Charte, notamment parce qu’aucune approbation d’un juge n’est requise pour la recherche.

En outre, la technologie basée sur l’IA qui est utilisée entraînera vraisemblablement des quantités massives de faux signalements en raison du taux d’erreur inconnu des algorithmes (jusqu’à présent proposés). La Commission n’a pas fixé de normes contraignantes concernant le taux d’erreur maximal admissible. Les filtres de reconnaissance d’images sont connus pour leur capacité à détecter même des photos de vacances légales avec des enfants sur la plage ou des flirts consensuels entre mineurs, ce qui a pour conséquence de criminaliser des citoyens innocents et d’inonder la police d’innombrables faux positifs.

En outre, les algorithmes auxquels la Commission fait référence lorsqu’elle propose une telle mesure de filtrage ne sont pas accessibles au public et à la communauté scientifique, et le projet ne contient aucune obligation de divulgation. Les déclarations de diverses autorités renforcent ce soupçon d’une technologie sujette aux erreurs. Selon la police fédérale suisse, 80 % des rapports qu’elle reçoit sur la base des recherches déjà effectuées (généralement basées sur la méthode du hachage) sont pénalement non pertinents. De même, en Irlande, seuls 20 % des rapports du NCMEC reçus en 2020 ont été confirmés comme étant réellement de la pédopornographie.

Les agences de renseignement et les pirates informatiques pourront ainsi accéder plus facilement aux conversations et aux courriels privés. Dès que le chiffrement sécurisé sera affaibli pour permettre la surveillance des conversations, cette faille permettra à d’autres tiers d’accéder aux communications des personnes. Ainsi, les communications privées, de même que les secrets d’affaires et les informations gouvernementales sensibles, seraient exposées à des risques plus élevés de cyber-attaques et bénéficieraient d’une protection réduite.

Il est donc extrêmement peu probable que la surveillance des conversations ait l’effet escompté pour lutter réellement contre la pédopornographie. La surveillance obligatoire des conversations ne permettra pas de détecter la plupart des auteurs qui enregistrent et partagent de la pédopornographie, car on sait que les pédophiles s’organisent principalement par le biais de forums secrets autogérés sans algorithmes de contrôle, au lieu de partager leur contenu via des services commerciaux de courrier électronique, de messagerie ou de conversation.

En même temps, l’utilisation d’une technologie qui lit automatiquement les communications privées en ligne est dangereuse, car elle peut facilement être détournée à d’autres fins. Dans les États autoritaires, de tels filtres sont utilisés pour persécuter et emprisonner les opposants désagréables au gouvernement.

Pour lutter efficacement contre les abus, il faut renforcer les forces de l’ordre de manière ciblée au lieu de les accabler de milliers de faux rapports. En outre

Pour lutter efficacement contre les abus, il faut renforcer les moyens des forces de l’ordre de manière spécifique au lieu de les encombrer de milliers de faux rapports. En outre, il faut créer des structures qui préviennent activement les abus dans la société et dans les institutions, afin de s’attaquer à la cause du problème et pas seulement à son symptôme. Enfin, le contenu existant doit être systématiquement supprimé d’Internet, contrairement aux pratiques actuelles de la police.

3 Likes

Voici la page exposant l’état actuel de la proposition devant le Parlement européen : Fiche de procédure: 2022/0155(COD) | Observatoire législatif | Parlement européen

Vous y retrouverez la proposition de la commission, les différents rapp

1 Like