Le groupe Meta va prochainement déployer un outil capable de signaler automatiquement les contenus générés ou altérés par l’IA sur ses plateformes sociales, souligne le site blogdumoderateur.com.

À l’instar d’autres acteurs, Meta élabore progressivement des méthodes permettant d’encadrer l’utilisation de l’IA générative sur ses plateformes. Dans un blog post publié le mardi 6 février, le groupe américain annonce l’introduction, « dans les prochains mois », d’un outil permettant d’étiqueter automatiquement les contenus générés par IA sur Facebook, Threads et Instagram.

Pour développer cette solution, l’entreprise annonce « travailler avec des partenaires industriels afin d’établir des normes techniques communes permettant de signaler que le contenu a été généré par IA », détaille Nick Clegg, le président dédié aux affaires internationales du groupe basé à Menlo Park.
Un outil de pointe

Cette annonce n’est pas vraiment une surprise : depuis le lancement aux États-Unis de Imagine with Meta, le groupe a déjà, « pour des raisons de transparence et de traçabilité », déployé deux filigranes sur les images produites par son IA génératrice d’images, l’un invisible et l’autre apparent. Mais désormais, l’entreprise aspire à concevoir, avec d’autres acteurs de son secteur, « un outil de pointe » permettant d’étiqueter automatiquement des images provenant de solutions concurrentes comme Midjourney, Adobe Firefly ou DALL-E, développé par OpenAI.
Feuille de route

Sans détailler précisément la feuille de route, Meta souhaite que l’outil soit mis en place dans les plus brefs délais, en prévision de la tenue de plusieurs scrutins majeurs, dont les élections présidentielles américaines, où l’IA générative pourrait être exploitée à des fins de désinformation. « Nous développons cet outil dès à présent, et prochainement, nous appliquerons des étiquettes dans toutes les langues prises en charge par les applications », poursuit-il.
Les outils d’IA génératives offrent d’immenses possibilités, et nous croyons qu’il est à la fois possible et nécessaire que ces technologies soient développées de manière responsable, conclut Nick Clegg.
Sanctions

Si l’entreprise semble en mesure d’identifier la présence de l’IA dans un contenu visuel, elle admet rencontrer des difficultés à détecter ces mêmes signaux sur de l’audio ou de la vidéo. Pour pallier ce manque, Meta a donc annoncé travailler, en parallèle, sur l’ajout d’une fonction permettant à l’utilisateur de signaler lorsque le contenu a été conçu avec l’aide de l’intelligence artificielle. Cette mention sera exigée sur les plateformes du groupe, et Meta se réserve le droit d’appliquer des sanctions si le diffuseur omet de préciser que le contenu publié a « été créé ou modifié numériquement ».
Cette approche représente le summum de ce qui est techniquement possible actuellement. Mais il n’est pas encore possible d’identifier tout le contenu généré par IA, concède Nick Clegg dans son blog post.
Un enjeu majeur

La prolifération des contenus générés à l’aide de l’IA, et notamment ceux ayant été truqués, ne préoccupe pas uniquement Meta. En novembre dernier, YouTube annonçait une série de mesures permettant d’encadrer l’usage de l’IA générative sur sa plateforme, en introduisant notamment un libellé spécifique permettant de signaler à l’utilisateur que le contenu visionné a été généré ou modifié numériquement. Depuis septembre, TikTok impose également une mention indiquant que le contenu a été altéré ou créé à l’aide de l’intelligence artificielle.