Détection de Contenus Générés

Groupe de travail du GDR-IASIS

Groupe de Travail – Détection de Contenus Générés (DCG)

DCG est un Groupe de travail GDR-IASIS.

Introduction

Dans un contexte où la génération de contenus par intelligence artificielle devient de plus en plus simple et accessible, la capacité à différencier les contenus générés de ceux qui ne le sont pas est primordiale. Le groupe de travail (GT) “Détection de Contenus Générés (DCG)” organisant cet événement se concentre sur l’analyse et la détection de contenus synthétisés par des modèles d’apprentissage profond tels que les modèles de langage (LLM) pour le texte, les modèles de diffusion pour les images, et bien d’autres applications.
La question de la détection des contenus générés va au-delà de la simple différenciation ; elle se situe également au cœur de la lutte contre les falsifications numériques. En effet, une partie seulement d’un contenu peut être générée, ce qui complique davantage l’identification des manipulations. Ces approches basées sur l’intelligence artificielle prennent progressivement le relais des méthodes traditionnelles de manipulation d’images et de vidéos (Photoshop, Gimp, etc.), et sont désormais intégrées directement dans ces outils (comme Adobe Firefly dans Photoshop). Cette évolution soulève des enjeux importants en termes de fiabilité, de sécurité, et d’éthique des contenus numériques.


Objectifs

L’événement se concentre sur plusieurs axes clés autour de la détection et de la manipulation de contenus par IA :

  • Explicabilité des détecteurs et classificateurs d’IA : Comprendre et rendre transparent le fonctionnement des systèmes de détection afin d’améliorer leur fiabilité et leur interprétabilité.
  • Détection de contenus générés par IA : Textes, audios, vidéos, et autres formats.
  • Localisation des manipulations par IA : Identifier où et comment l’intelligence artificielle a été utilisée pour modifier ou créer un contenu.
  • Watermarking de l’IA : Techniques visant à intégrer des filigranes numériques permettant de tracer l’origine des contenus générés.

Appel à participation – journée 2025

Nous invitons les doctorants, post-doctorants et jeunes chercheurs/chercheuses à soumettre une proposition pour présenter leurs travaux lors de l’événement. Les présentations dureront entre 15 et 20 minutes, suivies de 5 minutes de questions-réponses. Ces interventions seront l’occasion de partager des recherches récentes et de stimuler des discussions autour des défis et des avancées dans le domaine de la détection et de la manipulation des contenus générés par l’intelligence artificielle.

Les présentations peuvent être faites en français ou en anglais, mais les slides doivent être en anglais.

Si vous êtes intéressé(e) à participer, veuillez envoyer un e-mail à jan.butora <at> cnrs.fr pour soumettre votre proposition et obtenir plus de détails sur le processus de soumission.

Nous encourageons vivement la participation de la communauté académique émergente et espérons avoir l’opportunité d’explorer ensemble les dernières avancées dans ce domaine passionnant.

Orateurs invités

Informations pratiques

Journée commune entre le GDR IASIS et le GDR Sécurité informatique
Date : L’événement aura lieu le 4 avril 2025
Horaires : 9h à 17h
Lieu : Amphithéatre Curi
CNRS – Délégation Paris Michel-Ange
Campus Gérard Mégié
3 rue Michel-Ange – 75794 Paris cedex 16

Lien d’inscription : https://gdr-iasis.cnrs.fr/reunions/detection-de-contenus-generes/

Organisation

Les animateurs du groupe de travail.


Réalisations

Une journée est en cours de préparation en association avec les GDR-Sécurité.


Animation

  • Jan Butora (CRIStAL)
  • Eva Giboulot (INRIA/IRISA)
  • Vincent Itier (CERI SN / CRIStAL)
  • Pauline Puteaux (CRIStAL / LIRMM)

©GT DCG 2024