Votre ado tape « automutilation » dans la barre de recherche d’Instagram. Jusqu’ici, la plateforme bloquait la requête et proposait un numéro d’aide. Désormais, Meta veut aller plus loin : les parents seront directement alertés par mail, SMS ou notification.
Comment ça va fonctionner
Le système, annoncé ce 26 février par Meta sur son blog officiel, cible les comptes adolescents inscrits dans le programme « Teen Accounts ». Si un mineur effectue plusieurs recherches liées au suicide ou à l’automutilation en peu de temps, ses parents recevront une alerte accompagnée de ressources d’experts pour aborder le sujet.
Les alertes seront envoyées par courriel, SMS, WhatsApp ou directement dans l’application Instagram, selon les coordonnées dont dispose Meta. Le déploiement commence la semaine prochaine aux États-Unis, au Royaume-Uni, en Australie et au Canada. Le reste du monde suivra « plus tard dans l’année », précise l’entreprise.
Meta prévoit aussi d’étendre ce dispositif aux conversations que les ados pourraient avoir avec les chatbots IA intégrés à Instagram. Les jeunes « se tournent de plus en plus vers l’IA pour trouver du soutien », reconnaît la plateforme.
« Maladroit et risqué »
La fondation Molly Rose, du nom d’une adolescente britannique qui s’est suicidée en 2017 après avoir consulté du contenu d’automutilation en ligne, n’a pas mâché ses mots. Son directeur Andy Burrows estime que ces alertes « pourraient faire plus de mal que de bien », rapporte la BBC.
Le problème, selon lui : les parents vont recevoir une notification anxiogène sans être préparés à gérer la conversation qui suit. « Chaque parent voudrait savoir si son enfant souffre, mais ces notifications fragiles laisseront les parents paniqués et mal armés », a déclaré Burrows à la BBC.
La fondation pointe un paradoxe qui pique. En septembre 2025, une étude menée par l’organisme Cybersecurity for Democracy et des chercheurs associés à la Molly Rose Foundation avait révélé que 30 des 47 outils de protection des mineurs sur Instagram étaient « substantiellement inefficaces ou n’existaient plus », selon la BBC. Instagram continuait de recommander activement du contenu sur la dépression et l’automutilation à des profils vulnérables.
En clair, Meta alerte les parents d’un côté, mais son algorithme continue de pousser du contenu nocif de l’autre.
Un contexte de pression mondiale
Cette annonce tombe à un moment où les gouvernements du monde entier serrent la vis. Au Royaume-Uni, l’Online Safety Act oblige désormais les plateformes à protéger les mineurs du contenu dangereux, sous peine de sanctions. Un porte-parole du gouvernement britannique a déclaré à la BBC que « les entreprises technologiques ne peuvent plus détourner le regard ».
En France, la loi du 7 juillet 2023 visant à instaurer une majorité numérique à 15 ans et à encadrer l’accès des mineurs aux réseaux sociaux va dans le même sens. L’Australie a adopté fin 2024 une interdiction pure et simple des réseaux sociaux pour les moins de 16 ans.
Meta, de son côté, reconnaît que le système pourrait envoyer des faux positifs. L’entreprise dit vouloir « privilégier la prudence » plutôt que de rater un signal. Reste à savoir si alerter des parents déjà dépassés par les usages numériques de leurs enfants changera quoi que ce soit. Ou si c’est juste une façon de se dédouaner.