Étudiant.e.s

Victor Livernoche
Université McGill
Département d'informatique
Programme: Doctorat
Superviseur: Reihaneh Rabbany
Début: 2024
Fin: 2029
Projet
Titre: Création d’un dataset moderne pour la détection de deepfakes
Ce projet vise à combler le besoin urgent d’un jeu de données moderne et représentatif pour faire avancer la recherche sur la détection de deepfakes. Alors que les images générées par l’IA à partir de modèles propriétaires tels que Midjourney, Ideogram et FLUX.1 pro atteignent aujourd’hui un niveau de réalisme sans précédent, les méthodes de détection traditionnelles, qui sont développées à partir de datasets dépassés issus de modèles open source, deviennent de moins en moins efficaces. Cette lacune freine le développement d’algorithmes robustes et remet en question la viabilité d’une détection à grande échelle des deepfakes, en particulier face aux enjeux de désinformation et de sécurité électorale.

L’objectif principal du projet est de créer un dataset comprenant des images générées par l’IA à la fois par des modèles propriétaires de pointe et des modèles open source. Ce jeu de données sera diversifié, incluant des portraits humains, des paysages et des objets, avec une attention particulière portée aux images les plus susceptibles d’être utilisées à des fins de désinformation.

Les objectifs clés sont les suivants :
• Collecter un ensemble large et à jour d’images générées par l’IA, reflétant les techniques de génération les plus avancées.
• Évaluer si les images issues des modèles propriétaires les plus récents présentent des artefacts détectables.
• Mesurer l’efficacité et la capacité de généralisation des méthodes de détection actuelles sur ce nouveau jeu de données.
• Identifier les types d’images et de contenus qui posent le plus de difficultés à la détection.

En comblant cette lacune critique, ce projet offrira aux chercheurs et aux praticiens les outils nécessaires pour évaluer et améliorer la détection des deepfakes, contribuant ainsi à la lutte contre la désinformation et à la préservation de la fiabilité des contenus générés par l’IA dans les contextes à fort impact.
Prix
Bourse de recherche étudiant du CÉDC - 2025
Mots Clés
Share This