Dans une initiative majeure qui rappelle l’approche de classification des contenus d’Hollywood, Instagram a annoncé hier la mise en œuvre d’un système de classification de type PG-13 pour les comptes d’adolescents, marquant le dernier effort de la plateforme pour répondre aux préoccupations croissantes concernant la sécurité en ligne des jeunes utilisateurs.
Le géant des médias sociaux appartenant à Meta déploie cette nouvelle fonctionnalité dans un contexte d’intensification de la surveillance réglementaire sur plusieurs continents. Selon les nouvelles directives, Instagram placera automatiquement les comptes d’adolescents sur le paramètre de contenu le plus restrictif, limitant efficacement leur exposition à du matériel sensible qui existait auparavant dans les zones grises des politiques de modération de la plateforme.
“Cela représente un changement fondamental dans la façon dont le contenu est filtré pour les jeunes utilisateurs,” a déclaré Dre Samantha Reid, experte en sécurité numérique à la Fondation canadienne des politiques d’Internet. “En adoptant une terminologie de classification familière de l’industrie du divertissement, Instagram crée un cadre que les parents peuvent plus facilement comprendre et auquel ils peuvent faire confiance.”
Cette mesure intervient après qu’Instagram ait fait l’objet de vives critiques de la part des législateurs et des défenseurs de la sécurité des enfants qui soutiennent depuis longtemps que les algorithmes de la plateforme exposent les adolescents à des contenus préjudiciables allant des troubles alimentaires à l’automutilation. Les recherches internes de Meta, révélées lors d’un témoignage au Congrès l’année dernière, ont reconnu l’impact négatif potentiel de la plateforme sur la santé mentale des adolescents.
Selon l’annonce d’Instagram, le nouveau système limitera l’accès des adolescents aux contenus abordant des sujets comme les procédures cosmétiques, les produits de perte de poids et certains types de contenus relationnels. La société a souligné que cela s’appuie sur les fonctionnalités de sécurité pour adolescents existantes introduites au cours des deux dernières années.
“Nous avons développé des approches plus nuancées de la modération de contenu,” a déclaré Adam Mosseri, directeur d’Instagram, dans le communiqué officiel de l’entreprise. “Plutôt que de simples décisions binaires sur ce qui est approprié, nous créons des expériences plus graduées qui reflètent la façon dont les parents guident habituellement la consommation médiatique de leurs enfants.”
Les experts canadiens en politique numérique notent que si ces changements représentent un progrès, des questions demeurent quant à leur mise en œuvre et leur efficacité. “Le défi a toujours été l’application et la vérification,” a noté Dre Elaine Zhang, professeure de médias numériques à l’Université de Toronto. “La vérification de l’âge reste largement basée sur l’autodéclaration, créant d’importantes failles.”
Les analystes financiers de Meta ont suivi attentivement la réponse de l’entreprise à la pression réglementaire. Avec une législation potentielle en attente dans plusieurs juridictions qui pourrait avoir un impact significatif sur les modèles économiques des médias sociaux, ces mesures de sécurité proactives peuvent servir à des fins à la fois protectrices et stratégiques.
Le déploiement commence immédiatement aux États-Unis, avec une mise en œuvre mondiale, y compris au Canada, prévue au cours du mois prochain. L’entreprise a promis que des fonctionnalités supplémentaires de contrôle parental suivront plus tard ce trimestre.
Pour les adolescents eux-mêmes, la réaction a été mitigée sur les plateformes de médias sociaux. Si certains expriment leur frustration face aux restrictions, d’autres accueillent favorablement ce qu’ils considèrent comme des garde-fous nécessaires. “Ça ne me dérange pas d’avoir quelques limites si cela signifie moins de contenu toxique dans mon fil,” a déclaré Maya Henderson, 16 ans, de Mississauga, dans une récente réponse sur TikTok.
Alors que les plateformes numériques façonnent de plus en plus le développement des jeunes et les interactions sociales, la question fondamentale demeure: l’autorégulation par les entreprises technologiques offre-t-elle une protection suffisante, ou une supervision gouvernementale plus complète est-elle nécessaire pour véritablement protéger les jeunes utilisateurs dans des environnements en ligne de plus en plus complexes?