Instagram va tester des fonctionnalités permettant de flouter les messages contenant de la nudité afin de protéger les adolescents et d'empêcher les escrocs potentiels de les atteindre, a déclaré jeudi sa société mère Meta, qui tente d'apaiser les inquiétudes concernant les contenus préjudiciables sur ses applications.

Le géant de la technologie est soumis à une pression croissante aux États-Unis et en Europe en raison d'allégations selon lesquelles ses applications créeraient une dépendance et alimenteraient des problèmes de santé mentale chez les jeunes.

Meta a déclaré que la fonction de protection pour les messages directs d'Instagram utiliserait l'apprentissage automatique sur l'appareil pour analyser si une image envoyée par le service contient de la nudité.

La fonction sera activée par défaut pour les utilisateurs de moins de 18 ans et Meta informera les adultes pour les encourager à l'activer.

"Comme les images sont analysées sur l'appareil lui-même, la protection contre la nudité fonctionnera également dans les chats cryptés de bout en bout, où Meta n'aura pas accès à ces images - à moins que quelqu'un ne choisisse de nous les signaler", a déclaré l'entreprise.

Contrairement aux applications Messenger et WhatsApp de Meta, les messages directs sur Instagram ne sont pas cryptés, mais l'entreprise a déclaré qu'elle prévoyait de déployer le cryptage pour ce service.

Meta a également indiqué qu'elle développait une technologie permettant d'identifier les comptes susceptibles d'être impliqués dans des escroqueries par sextorsion et qu'elle testait de nouveaux messages contextuels à l'intention des utilisateurs susceptibles d'avoir interagi avec de tels comptes.

En janvier, le géant des médias sociaux avait déclaré qu'il dissimulerait davantage de contenus aux adolescents sur Facebook et Instagram, ajoutant qu'il serait ainsi plus difficile pour eux de tomber sur des contenus sensibles tels que le suicide, l'automutilation et les troubles de l'alimentation.

Les procureurs généraux de 33 États américains, dont la Californie et New York, ont poursuivi l'entreprise en justice en octobre, affirmant qu'elle avait à plusieurs reprises trompé le public sur les dangers de ses plateformes.

En Europe, la Commission européenne a demandé des informations sur la manière dont Meta protège les enfants des contenus illégaux et préjudiciables. (Reportage de Granth Vanaik à Bengaluru ; rédaction d'Aditya Soni et Alan Barona)