Dans ce blog invité de notre collègue John Carr nous apporte de bonnes nouvelles sur les derniers mouvements d'Apple qui aideront à protéger les enfants de l'exploitation sexuelle sur Internet. Vous pouvez trouver tous les blogs de John sur Desiderata.

« Il y a eu une grande joie au siège mondial d'ECPAT International à Bangkok. La semaine dernière le travail que nous avons fait avec nos partenaires autour d'un cryptage fort a reçu un énorme coup de pouce lorsque Apple a fait une annonce extrêmement importante concernant ses plans pour assurer la sécurité des enfants en ligne. Tout le monde ne l'aime pas mais nous l'aimons.

Le chat est sorti du sac

Le chat est maintenant très certainement hors du sac. Apple a confirmé une affirmation de base avancée par ECPAT. Il existe des solutions évolutives disponibles qui ne cassent pas le cryptage, qui respectent la vie privée des utilisateurs tout en réduisant de manière significative certains types de comportements criminels, en l'occurrence des crimes terribles qui nuisent aux enfants.

Si les gens croient qu'Apple ou des gouvernements malveillants pourraient abuser de la technologie, c'est un point extrêmement important, mais c'est un autre point. Cela explique la manière dont nous réglementons ou supervisons Internet. Ce n’est absolument pas un argument qui permet aux entreprises de continuer à ne rien faire pour lutter contre l’illégalité là où il existe une technologie qui leur permet de le faire. De même, ce n’est pas un argument pour qu’Apple "désinventer" ce qu'il a déjà inventé. 

C'est un argument pour que les gouvernements et les législatures rattrapent leur retard. Vite. 

Dans le monde de la technologie, les alibis pour l'inaction sont toujours épais sur le terrain. Apple devrait être applaudi. Ils ne se sont pas contentés de déplacer l'aiguille, ils lui ont donné une poussée énorme et tout à fait bénéfique. L'entreprise n'a pas agi rapidement et n'a pas cassé les choses. Il a pris son temps et les a corrigés.

Alors, qu'est-ce qu'Apple envisage de faire ?

Apple annonce contenait trois éléments. Plus tard cette année, dans la prochaine version de leur système d'exploitation, d'abord aux États-Unis, puis pays par pays, ils :

  1. Limitez la capacité des utilisateurs à localiser le matériel pédopornographique (CSAM) et avertissez des environnements en ligne dangereux pour les enfants.
  2. Introduire de nouveaux outils pour aider les parents à aider leurs enfants à rester en sécurité par rapport aux communications en ligne. Notamment l'avertissement concernant le contenu sensible qui peut être sur le point d'être envoyé ou qui a été reçu.
  3. Activez la détection de csam sur des appareils individuels avant que l'image n'entre dans un environnement crypté. Cela rendra impossible pour l'utilisateur de télécharger csam ou de le distribuer d'une autre manière. 

Le numéro trois est ce qui a suscité le plus grand tollé.

Un changeur de jeu

Le simple fait qu'une entreprise comme Apple ait reconnu qu'elle avait la responsabilité d'agir dans ce domaine et qu'elle ait proposé une solution évolutive change fondamentalement la nature du débat. Maintenant, nous savons quelque chose vous être fait le "ce n'est pas possible"position a été vaincue. Toute entreprise en ligne qui refuse de changer ses habitudes se retrouvera probablement du mauvais côté de l'opinion publique et, probablement, la loi en tant que législateurs du monde entier se sentira désormais enhardie à agir pour contraindre entreprises à faire ce qu'Apple a volontairement choisi de faire.

Et toute l'angoisse ?

Plusieurs commentateurs qui semblaient par ailleurs exprimer leur sympathie pour l'objectif déclaré d'Apple n'ont pas pu s'empêcher d'essayer de faire briller leur coup de théâtre en se plaignant de la manière ils l'ont fait. 

Cependant, en 2019, l'annonce unilatérale de Facebook selon laquelle il avait l'intention de faire exactement le contraire de ce que propose Apple suggère que la possibilité de parvenir à un consensus de l'industrie était totalement illusoire.

Je suis sûr que beaucoup "est" doivent être pointillés, beaucoup "c'est" besoin d'être franchi, mais parfois j'ai l'impression qu'en matière de protection des enfants, tout doit être impeccable et sortir des pièges. C'est OK pour Big Tech d'aller vite et de casser des choses partout ailleurs et de les réparer plus tard, ou non. Mais cela ne peut pas se produire dans ce département. C'est bien d'innover à la folie, mais pas ici. Nous sommes jugés selon une norme différente.

Ne vous méprenez pas. Je ne suis pas en faveur de l'imperfection. Je n'applaudis pas l'innovation qui ne tient pas compte des inconvénients. 

La simple vérité, cependant, est que toute cette affaire a été une question de valeurs et de priorités. C'est totalement binaire. Soit vous pensez que des mesures doivent être prises pour minimiser les risques pour les enfants avant que le contenu ne soit crypté, soit vous ne le faites pas. Il n'y a pas de moyen terme car lorsqu'il est crypté, il est invisible pour toujours. Les méchants gagnent. Apple a montré comment ils perdent.

Bonne nouvelle d'Apple

Le cryptage n'est pas cassé. Aucune nouvelle donnée n'est collectée ou exploitée

Dans une autre déclaration publiée par Apple hier ils indiquent clairement qu'ils ne cassent aucun type de cryptage. Ils précisent également que leur technologie a une portée limitée et qu'ils ne l'utiliseront à aucune autre fin.

Si vous ne croyez pas que nous revenons au point que j'ai soulevé plus tôt. Discutons-en, mais quel que soit le résultat de la discussion, Apple doit être autorisé et encouragé à continuer. J'attends avec impatience d'entendre d'autres entreprises s'engager à suivre leurs traces. Bientôt."

Lettre dans le Financial Times

Le 12 août 2021, John Carr a également publié une lettre sur cette question dans le Financial Times. Il applaudit la décision d'Apple concernant ses plans visant à limiter la possibilité que du matériel pédopornographique soit distribué via leurs appareils ou leur réseau. John a également suggéré que cela forcerait Facebook à reconsidérer ses très mauvaises intentions. Le texte intégral de la lettre est…

« Dans son article sur les projets d'Apple d'introduire de nouvelles politiques de protection de l'enfance, Richard Waters suggère que la façon dont Apple a procédé a « coupé court au débat » sur l'impact potentiel de leurs mesures prévues (Avis du 10 août). 

Plus précisément, Waters fait référence au plan d'Apple d'inspecter le contenu sur les appareils des utilisateurs avant qu'il ne soit téléchargé et placé dans un environnement fortement crypté tel que iCloud. Apple va le faire afin de s'assurer que l'entreprise n'aide pas et n'encourage pas la distribution de matériel pédopornographique. 

Malheureusement, le « débat » dure depuis au moins cinq ans et pendant la plus grande partie de ce temps, il a été complètement gelé. Les choses se sont intensifiées quand, en mars 2019, Facebook a annoncé qu'il (allait) faire exactement le contraire de ce que propose Apple. C'était aussi une décision unilatérale, d'autant plus mauvaise que, contrairement à Apple, c'était dans un contexte bien documenté de Facebook sachant déjà que ses plates-formes Messenger et Instagram Direct actuellement non cryptées étaient massivement exploitées à des fins criminelles. 

En 2020, il y a eu 20,307,216 XNUMX XNUMX signalements aux autorités américaines de matériel d'abus sexuel d'enfants qui avaient été échangés via Messenger ou Instagram, mais Facebook n'a jusqu'à présent donné aucun signe qu'il reviendrait. 

Il faut faire un choix

L'argument est, j'en ai peur, binaire. Une fois que le matériel est fortement crypté, il devient invisible pour les forces de l'ordre, les tribunaux et l'entreprise elle-même. Donc, soit vous êtes prêt à vivre avec cela, soit vous ne l'êtes pas. Facebook est. Apple ne l'est pas. 

Cependant, je soupçonne que la décision d'Apple forcera Facebook et d'autres à reconsidérer. Il existe des solutions évolutives disponibles qui peuvent respecter la vie privée des utilisateurs tout en luttant contre au moins certains types de comportements criminels, en l'occurrence des crimes terribles qui nuisent aux enfants.

Si les gens pensent qu'Apple ou même des gouvernements malveillants pourraient abuser de la technologie, c'est un point important mais différent qui concerne la façon dont nous réglementons ou supervisons Internet. Ce n'est absolument pas un argument qui permet aux entreprises de continuer à ne rien faire pour lutter contre l'illégalité là où il existe une technologie qui leur permet de le faire. Apple devrait être applaudi. Il n'a pas seulement déplacé l'aiguille, il lui a donné une poussée énorme et tout à fait bénéfique. »