Le comité de surveillance de Meta Platforms examine la manière dont l'entreprise a géré deux images sexuellement explicites de célébrités féminines générées par l'IA qui ont circulé sur ses services Facebook et Instagram, a déclaré le comité mardi.

Le conseil, qui est financé par le géant des médias sociaux mais fonctionne indépendamment de lui, utilisera ces deux exemples pour évaluer l'efficacité globale des politiques et des pratiques d'application de Meta concernant les fausses images pornographiques créées à l'aide de l'intelligence artificielle, a indiqué le conseil dans un billet de blog.

Il a fourni des descriptions des images en question mais n'a pas nommé les femmes célèbres qui y sont représentées afin "d'éviter tout préjudice supplémentaire", a déclaré un porte-parole du conseil d'administration.

Les progrès de la technologie de l'intelligence artificielle ont permis de fabriquer des images, des clips audio et des vidéos qu'il est pratiquement impossible de distinguer d'un véritable contenu créé par l'homme, ce qui a entraîné la prolifération en ligne d'images sexuelles truquées, représentant principalement des femmes et des jeunes filles.

Dans une affaire particulièrement médiatisée au début de l'année, la plateforme de médias sociaux X, propriété d'Elon Musk, a brièvement empêché les utilisateurs de rechercher toutes les images de la pop star américaine Taylor Swift, après avoir lutté pour contrôler la diffusion de fausses images explicites d'elle.

Certains dirigeants du secteur ont appelé à l'adoption d'une législation visant à criminaliser la création de "deep fakes" nuisibles et à exiger des entreprises technologiques qu'elles empêchent ce type d'utilisation de leurs produits.

D'après les descriptions du Conseil de surveillance, l'un des cas concerne une image générée par l'IA d'une femme nue ressemblant à une personnalité publique indienne, postée par un compte Instagram qui ne partage que des images de femmes indiennes générées par l'IA.

L'autre image, selon le conseil, est apparue dans un groupe Facebook de partage de créations d'IA et présente une représentation générée par IA d'une femme nue ressemblant à "une personnalité publique américaine" avec un homme lui tripotant les seins.

Meta a supprimé l'image représentant la femme américaine pour violation de sa politique en matière d'intimidation et de harcèlement, qui interdit les "photoshops ou dessins sexualisés désobligeants", mais a initialement laissé en place celle représentant la femme indienne et n'a fait marche arrière qu'après que le comité l'a sélectionnée pour examen.

Dans un autre message, Meta a reconnu les faits et s'est engagé à mettre en œuvre les décisions du conseil d'administration. (Reportage de Katie Paul ; Rédaction de Stephen Coates)