Ce blog invité est par John Carr, l'une des principales autorités mondiales sur l'utilisation d'Internet par les enfants et les jeunes et les nouvelles technologies associées. Il y expose l'impact probable (dévastateur) de la proposition de Facebook de chiffrer ses plates-formes et de priver ainsi les agences de protection de l'enfance de la possibilité de détecter et de supprimer à l'avenir les contenus d'abus sexuels sur enfants.

Nous avons présenté d'autres blogs de John sur verification de l'AGE, Capsuleuses, et le Alliance mondiale WeProtect.

Mercredi dernier, le Centre national américain pour les enfants disparus et exploités (NCMEC) a publié ses numéros pour 2020. 16.9 millions de rapports reçus en 2019 sont passés à 21.7 millions en 2020, soit une augmentation de plus de 25%. Les plates-formes de messagerie restent la plus grande source.

21.4 millions des rapports 2020 provenaient directement d'entreprises en ligne elles-mêmes, le reste des membres du public. Ce dernier représente une multiplication par trois par rapport à 2019. Fait frappant, il y a eu une augmentation annuelle de près de 100% des rapports de séduction en ligne. Une conséquence des verrouillages à grande échelle dans le monde? Probablement.

Les 21.7 millions de rapports, entre autres, contenaient 31,654,163 33,690,561 XNUMX fichiers vidéo et XNUMX XNUMX XNUMX fichiers contenant des images fixes. Un seul rapport peut référencer plusieurs éléments.

Ainsi, dans le nombre total de rapports, l'accent est mis de manière écrasante sur le traitement des images illégales d'un type ou d'un autre, sauf les 120,590 "autres fichiers"  figurant dans le tableau du NCMEC représentent également de graves menaces pour les enfants.

Avec 2,725,518 1 XNUMX rapports, l'Inde est une fois de plus en tête de la liste des pays. Les Philippines, le Pakistan et l'Algérie viennent ensuite, loin derrière mais toujours au-dessus de la barre du million.

Bonnes ou mauvaises nouvelles? 

Les gens qui s'opposent à l'analyse proactive des abus sexuels sur les enfants sur les plateformes de messagerie pointent parfois ces chiffres et disent que, parce qu'ils augmentent toujours, cela prouve que l'analyse n'est pas un moyen de dissuasion utile. Certains disent que nous devrions même appeler la politique "un échec".

Parce que les criminels refusent catégoriquement de remplir des rapports annuels déclarant fidèlement ce qu'ils ont fait l'année dernière tout en décrivant leurs plans pour les 12 mois à venir, nous n'avons jamais su et ne pouvons jamais savoir à quel point le CSAM est, a été ou est susceptible d'être là-bas, ou combien de tentatives ont été ou seront faites pour engager des enfants en ligne d'une manière abusive sexuellement. Les nouveaux chiffres du NCMEC pourraient donc simplement nous indiquer que nous nous améliorons en matière de détection. Ce qu'ils ne font certainement pas, c'est de donner le mandat d'abandonner ce domaine de la lutte contre la criminalité, de déserter les victimes, de déclarer la victoire aux agresseurs d'enfants et de ne pas gérer l'espace en ligne.

De meilleurs outils

Les outils dont nous disposons actuellement sont tout simplement meilleurs qu’ils ne l’étaient auparavant et sont déployés plus largement et plus énergiquement. Et bien sûr, il y a plus d'internautes cette année que l'an dernier. Il y a forcément une partie de l'augmentation qui est uniquement imputable à ce type de croissance organique. On peut s'attendre à ce que cela continue pendant un certain temps à mesure que la disponibilité du wifi et du haut débit se développe et que de plus en plus de pays se connectent.

Dans tous les domaines de la criminalité, la détection et la lutte contre les comportements criminels après l’événement n’est ou ne devrait toujours être qu’un élément d’une stratégie plus large dans laquelle la prévention par l’éducation et la sensibilisation sont toujours privilégiées. Mais l'idée que vous devriez refuser d'essayer d'atténuer les effets du comportement criminel où et quand vous le pouvez est à la fois sans cœur et une insulte pour les enfants victimes. Les actions parlent plus fort que les mots et aucune action ne parle plus fort encore.

Pendant ce temps dans l'UE

La semaine précédente NCMEC statistiques publiées montrant que les rapports reçus des États membres de l'UE étaient down de 51% depuis décembre 2020. C'est la date à laquelle le Code des communications électroniques européen est entré en vigueur.

Par rapport à un global global augmenter dans le reporting, il faut donc craindre qu'en rapportant un pourcentage tomber dans les rapports des États membres de l'UE, les enfants européens se portent peut-être encore plus mal que les enfants d'autres régions du monde. Commissaire Johansson a souligné dans l'UE, 663 rapports par jour sont ne sauraient  avoir été fait autrement aurait été. Cela serait vrai si le niveau de notification était resté constant. De toute évidence, ce n'est pas le cas, ce qui signifie que le nombre réel de rapports d'absence sera probablement au nord de 663.

Et le Parlement européen paralyse toujours le processus de réforme.

Facebook sur les manœuvres

Rappelons-nous en décembre dernier, lorsque le nouveau Code est entré en vigueur. Facebook, une entreprise notoirement litigieuse et combative, a décidé de rompre les rangs avec les leaders de l'industrie en arrêtant de détecter les abus sexuels sur les enfants. Facebook aurait pu le combattre ou, comme ses collègues, l'ignorer. Ils ne l'ont pas fait non plus.

Les cyniques ont suggéré que la décision de l'entreprise de se retourner comme un chiot obéissant était inspirée par le désir d'ouvrir la voie à leur longue ambition déclarée d'introduire un cryptage fort dans Messenger et Instagram Direct. S'il n'y a pas de moyen légal d'analyser les plates-formes de messagerie, que les plates-formes soient cryptées ou non, cela n'a presque plus d'importance.

La décision de Facebook de décembre a certainement semblé légitimer l'opposition de groupes qui ont toujours été contre l'analyse des contenus et des comportements qui menacent les enfants.

L'effronterie de l'entreprise la plus abusive de la vie privée de l'histoire de la planète Terre, exécutant un volte face complet, et le faisant au détriment des enfants et des citoyens respectueux des lois en général, vous coupe le souffle. Aucun mot chaleureux ne peut effacer cela.

Tenez cette pensée pendant un moment.

Une question de timing?

Facebook a récemment mené des recherches sur les activités d'abus sexuel des enfants sur leurs plateformes. Les résultats viennent d'être publié dans un blog.

Il y avait deux études distinctes. Tous deux soulèvent des doutes ou remettent en question la valeur du scan proactif pour protéger les enfants.

Il s'agit d'une rupture radicale avec le passé de Facebook. Ils déclaraient fièrement et à plusieurs reprises leur engagement à rechercher proactivement le contenu et les activités qui menacent les enfants. En fait, à leur honneur, ils ont continué à rechercher des signes de personnes susceptibles de s'automutiler et de se suicider. Bien que la façon dont ils concilient cela avec ce qu'ils font en ce qui concerne les abus sexuels sur des enfants m'échappe momentanément.

Qui pourrait être contre la recherche? Pas moi. Mais les mêmes cyniques auxquels j'ai fait allusion plus tôt n'ont pas tardé à souligner que le moment de la publication de cette recherche fait que l'on se demande si cela a été fait avec les motifs les plus purs. Les personnes qui ont réellement fait le travail ou qui ont décidé du moment de publier se sont-elles arrêtées pour se demander si elles étaient manipulées?

Une surprise

La première des deux études a révélé qu'en octobre et novembre 2020, 90% de tout le contenu trouvé sur leur plate-forme et signalé au NCMEC concernait du matériel identique ou très similaire au matériel précédemment signalé.

Ceux d'entre nous qui travaillons dans le domaine depuis longtemps pourraient être surpris que ce soit aussi bas que 90%. J'avais toujours compris que le pourcentage de répétitions se situerait dans les années 90 très élevées. Des pourcentages élevés montrent que les outils proactifs font leur travail. C'est pourquoi leur utilisation continue est si importante, en particulier pour les victimes représentées sur les images. Le fait qu'une image soit répétée ne fait que souligner et amplifier le tort causé à l'enfant. Cela ne le diminue certainement pas.

Les victimes peuvent et doivent affirmer leur droit légal à la vie privée et à la dignité humaine. Ils veulent que chaque instance de l'image disparaisse, peu importe le nombre de fois ou l'endroit où elle apparaît.

Publier un numéro comme "Plus de 90%" sans expliquer ce genre de contexte est susceptible d'amener un observateur mal informé, par exemple quelqu'un pressé avec beaucoup de papiers à lire, à se demander de quoi il s'agit?

Notez dans le rapport du NCMEC qu'ils mentionnent avoir reçu des rapports de 10.4 millions unique images. Cela les distingue spécifiquement des répétitions. Ce sont les répétitions que l'on nous demande de croire représentent 90% de la charge utile dans la recherche de Facebook.

Plus d'impressions potentiellement trompeuses

Dans le même blog et en se référant à la même étude, Facebook poursuit en nous disant "seulement six "les vidéos étaient responsables de plus de la moitié" de tous les rapports qu'ils ont fait au NCMEC. En plus d'être laissé à spéculer sur le nombre de vidéos qui composent l'autre moitié, la question évidente est «Et votre argument?»  

Je suppose que ce qui restera dans l'esprit des gens occupés est "six".  Six et 90%. Numéros de titre. Faites attention à ce qu'ils soient répétés par, eh bien, vous savez par qui.

La deuxième étude

En prenant une période différente (pourquoi?), Juillet-août, 2020 et janvier 2021, et une cohorte différente, beaucoup plus petite (seulement 150 comptes), on nous dit des personnes qui ont téléchargé csam qui a été signalé au NCMEC 75% l'a fait sans apparente "malveillance".  Au contraire, la recherche suggère que les individus qui ont commis le crime de téléchargement de csam ont agi à partir d'un «Sentiment d'indignation» ou parce qu'ils pensaient que c'était drôle. 75%. C'est un autre numéro de titre qui restera et sera répété.

Peut-être qu'il y a un article quelque part qui explique comment Facebook a conclu qu'il n'y avait pas "malveillance". Je ne le trouve pas. Mais il n'est pas difficile de déterminer l'effet net des diverses manœuvres égoïstes de Facebook en temps opportun.

Le public cible est constitué d'hommes politiques et de journalistes

En ce moment, Facebook veut que les gens - et par là j'entends principalement les politiciens et les journalistes - en Europe, aux États-Unis et ailleurs, commencent à penser que le problème de l'abus sexuel d'enfants en ligne est différent et beaucoup plus petit qu'ils auraient pu le croire auparavant et que c'est essentiellement dû à l'idiotie humaine (excusable?).

Pourtant, la vérité inaltérable est que les images doivent disparaître. C'est le début et la fin. Si nous avons les moyens de nous débarrasser des images illégales de douleur et d'humiliation des enfants, pourquoi ne le ferions-nous pas? Pourquoi les cacherions-nous au contraire délibérément? L'argent est la seule réponse que je puisse trouver et ce n'est pas suffisant.

Mauvais substituts

Dans la troisième partie du même blog, Facebook nous parle d'autres choses qu'il envisage de faire. Ils aborderont le manque apparent de bon goût des gens dans les blagues ou leur stupidité.

Jusqu'à présent, ils ont créé deux fenêtres contextuelles. Bravo. Facebook devrait les mettre de toute façon. Ni l'un ni l'autre ne parvient à compenser leurs projets de cryptage. Dans n'importe quel autre domaine de la vie, si un groupe de personnes se combinait pour cacher des preuves de crimes, je suppose qu'ils seraient arrêtés et accusés de complot visant à entraver le cours de la justice.

Les chiffres de Facebook en 2020

Les résultats de la recherche de Facebook sont sortis au milieu de la rangée dans l'UE. Ils étaient tout à fait opposés à la publication des nouveaux chiffres du NCMEC.

En 2019, le NCMEC a reçu 16,836,694 15,884,511 94 rapports, dont 2020 21.7 20,307,216 (93%) provenaient de plateformes appartenant à Facebook. En XNUMX, sur les XNUMX millions, XNUMX provenaient des différentes plateformes de Facebook (XNUMX%).

Bien que je sois extrêmement critique envers Facebook, nous ne devons pas oublier deux qualifications importantes. Ils sont de loin la plus grande plate-forme dans l'espace des médias sociaux. Et nous ne savons pas grand-chose à leur sujet parce que les données sont disponibles. En effet, leurs deux principales applications de messagerie, Messenger et Instagram Direct, ne sont pas (encore) cryptées.

Il faut donc se demander ce qui se passe sur les autres plates-formes de messagerie qui chiffrent déjà leurs services et ne peuvent donc presque pas produire de données. En fait, il ne faut pas trop se demander.

Un aperçu derrière une porte cryptée

Vendredi dernier The Times  révélé en 2020, la police britannique a reçu 24,000 informations de Facebook et Instagram. Mais seulement 308 de WhatsApp. WhatsApp est déjà crypté.

Avec 44.8 millions d'utilisateurs le Royaume-Uni compte le troisième plus grand nombre de clients Facebook au monde derrière l'Inde et les États-Unis. Instagram compte 24 millions d'utilisateurs au Royaume-Uni. De toute évidence, il y aura probablement un grand chevauchement avec Facebook et ses applications Messenger et Instagram. WhatsApp compte 27.6 millions d'utilisateurs au Royaume-Uni.

Il est impossible de dire quel est le numéro WhatsApp "aurait du être" - trop d'impondérables - mais le ratio de 308: 24,000 XNUMX semble un peu décevant. Si quoi que ce soit, vous vous attendez à ce que le trafic d'images illégales soit plus important sur WhatsApp précisément parce qu'il est déjà crypté. Pensez-y.