Instagram impose de nouvelles limites de sécurité pour les adolescents.  Voici comment ils fonctionnent.

Instagram impose de nouvelles limites de sécurité pour les adolescents. Voici comment ils fonctionnent.


Instagram et Facebook ont ​​dévoilé de nouvelles limites à ce que les adolescents peuvent voir sur les applications, une décision qui, selon leur société mère Meta, réduira la quantité de contenu potentiellement dangereux rencontré par les jeunes.

Déjà, les adolescents pourraient choisir que l’algorithme d’Instagram recommande des contenus moins « sensibles » – qui incluent les corps nus, la violence, les drogues, les armes à feu, les contenus de perte de poids et les discussions sur l’automutilation. Désormais, Meta affirme qu’il masquera le contenu sensible même s’il est publié par des amis ou des créateurs suivis par les adolescents.

Le changement annoncé mardi intervient quelques semaines avant que le PDG de Meta, Mark Zuckerberg, ne témoigne devant la commission judiciaire du Sénat sur ce que les législateurs ont fait. appelé l’incapacité de l’entreprise à protéger les enfants en ligne. Lors de la session du 31 janvier, Zuckerberg, ainsi que les dirigeants des applications sociales TikTok, Snap, Discord et X, répondront aux problèmes de sécurité en ligne tels que la publicité prédatrice, l’intimidation et les publications faisant la promotion de troubles de l’alimentation.

Les entreprises technologiques sont également confrontées à une surveillance croissante de la part des responsables au niveau des États et à l’étranger. Les États ont ces dernières années a adopté une série de lois sur la sécurité en ligne des enfantsdont certaines exigent que les plateformes obtiennent le consentement parental avant de permettre aux utilisateurs adolescents de créer des comptes.

S’ils sont efficaces, les derniers changements apportés par Meta signifieraient moins de mentions de sujets tels que les régimes amaigrissants ou la maladie mentale dans le calendrier des adolescents. Mais sans les données internes de Meta, que l’entreprise ne partage généralement pas, on ne sait pas exactement dans quelle mesure ces limites sont efficaces pour protéger les adolescents contre les contenus préjudiciables. De plus, même si le filtre de contenu sensible est activé par défaut sur les comptes adolescents, ils peuvent facilement créer de nouveaux comptes sans avoir à le faire. révéler leur véritable âge.

Les applications et les services ne sont pas autorisés à collecter des données sur l’activité en ligne des enfants. Mais une faille dans les règles actuelles leur permet de le faire quand même. (Vidéo : Jonathan Baran/The Washington Post)

Pour quiconque connaît le bilan de Meta en matière de sécurité des adolescents, cette décision est trop peu, trop tard, a déclaré Josh Golin, directeur exécutif de Fairplay, une organisation à but non lucratif qui vise à mettre fin au marketing ciblant les enfants. Meta s’oppose continuellement aux règles de sécurité tout en ne parvenant pas à mettre en œuvre des contrôles significatifs, a-t-il déclaré. Fin 2022, par exemple, un groupe industriel financé par Meta poursuivi pour bloquer une loi sur la sécurité des enfants en Californie.

“Si Meta est vraiment sérieux en matière de sécurité, ils s’écarteront de la réglementation”, a déclaré Golin. “Ils ont eu plus d’une décennie pour rendre leur plateforme plus sûre pour les jeunes, et ils ont lamentablement échoué.”

“Notre travail sur la sécurité des adolescents remonte à 2009, et nous construisons continuellement de nouvelles protections pour assurer la sécurité des adolescents et consultons des experts pour garantir que nos politiques et fonctionnalités sont au bon endroit”, a déclaré la porte-parole de Meta, Liza Crenshaw. « Ces mises à jour sont le résultat de cet engagement et de ces consultations continus et ne constituent pas une réponse à un événement particulier. »

Ce n’est pas la première fois que Meta lance des dispositifs de sécurité avant une audience au Congrès. En 2021, la société a déployé des invites facultatives « faire une pause », qui suggèrent aux utilisateurs d’arrêter temporairement de faire défiler, la veille du témoignage du chef d’Instagram, Adam Mosseri, devant le Congrès. Quelques semaines plus tôt, Frances Haugen, ancienne employée de Facebook, avait divulgué des recherches internes montrant que l’entreprise savait que ses produits aggravaient parfois les problèmes d’image corporelle de certaines adolescentes. L’entreprise a défendu son bilan en matière de sécurité et a repoussé les caractérisations des études, mais a continué de faire face à des pressions à Washington pour étendre la protection des enfants.

À la fin de l’année dernière, l’entreprise, pour la première fois publiquement réclamé législation fédérale exigeant que les magasins d’applications obtiennent l’approbation parentale lorsque les utilisateurs âgés de 13 à 15 ans téléchargent des applications.

La Californie, quant à elle, a adopté une loi en 2022 exigeant que les entreprises mettent en œuvre par défaut des paramètres de confidentialité et de sécurité plus stricts pour les enfants, connus sous le nom de California Age-Appropriate Design Code. La mesure californienne s’inspire de réglementations similaires en Grande-Bretagne.

Avec les limites de cette semaine, Instagram et Facebook placeront automatiquement tous les comptes adolescents sur le paramètre de contenu sensible le plus restrictif. L’application étend également ses termes de recherche bloqués liés au suicide, à l’automutilation et aux troubles de l’alimentation, indique la société. Si quelqu’un recherche « boulimique », par exemple, il verra des ressources d’aide pour les troubles de l’alimentation plutôt que des résultats de recherche.

Meta a eu du mal à articuler précisément quel contenu est considéré comme sensible. Par exemple, le contrôle du contenu sensible cache aux utilisateurs de 15 ans et moins les publications « sexuellement suggestives ». Mais décider si une photo d’une personne en bikini est considérée comme « sexuellement suggestive » relève de la technologie de numérisation de l’application, et Crenshaw a refusé de nommer ses critères. Cependant, elle a noté qu’un exemple de contenu à caractère sexuel serait une personne portant des vêtements transparents.

Certains défenseurs de la sécurité des jeunes disent que Meta approche fragmentaire la sécurité a plus à voir avec les relations publiques que la protection des jeunes.

Kristin Bride, une maman de l’Arizona qui travaille avec l’organisation bipartite Issue One pour plaider en faveur de la loi fédérale sur la sécurité des enfants en ligne, note que les changements de contrôle de contenu apportés par les sociétés de médias sociaux sont souvent « mineurs, temporaires et juste du bout des lèvres ». Pourtant, a-t-elle déclaré, “toute modification apportée par Meta à ses plateformes pour les rendre plus sûres pour les enfants est appréciée, en particulier par les parents”.

Quelques experts en sécurité ont fait appel à l’entreprise de rendre publics ses algorithmes et ses recherches internes pour audit. D’autres ont demandé pourquoi Meta autorise les mineurs sur ses applications s’il ne peut pas garantir qu’ils ne seront pas poussés. dans des terriers algorithmiques favorisant l’automutilation, les troubles de l’alimentation ou l’extrémisme politique.

Parallèlement, certaines recherches montrent que les médias sociaux peuvent être bénéfiques pour les jeunes. Les amis en ligne peuvent être un moyen de dissuasion contre le suicideet les adolescents LGBTQ+ souvent trouver une communauté et du soutien sur les réseaux sociaux lorsqu’il n’est pas disponible à la maison.

Cristiano Lima a contribué à ce rapport.