You are currently viewing Olivier Lézoray, au croisement de l’image, des données et de l’intelligence artificielle

Olivier Lézoray, au croisement de l’image, des données et de l’intelligence artificielle

Enseignant chercheur en informatique à l’université de Caen Normandie et chercheur au GREYC, Olivier Lézoray intervient très prochainement à ORASIS 2025 – journées francophones des jeunes chercheurs en vision par ordinateur et en intelligence artificielle, qui aura lieu du 9 au 13 juin 2025 au Croisic. À cette occasion, son intervention portera sur le traitement et l’analyse de maillages 3D, du traitement de signaux sur graphes aux réseaux de neurones.

Qu’est-ce qui vous a amené à vous intéresser à l’informatique et à l’intelligence artificielle ?

J’ai réalisé l’ensemble de mon parcours à l’université, depuis la licence Informatique jusqu’à la maîtrise et au DEA. J’ai ensuite soutenu une thèse à l’hôpital de Cherbourg, où j’ai développé un système de dépistage automatisé de cellules cancéreuses dans le cadre du cancer du poumon, avec un financement de la Ligue contre le cancer. À l’époque, nous numérisions des lames de prélèvements réalisés sur des patients, puis nous utilisions des méthodes qui relèvent aujourd’hui de l’intelligence artificielle – notamment les réseaux de neurones – pour identifier les cellules malignes.

J’ai été recruté à l’université en 2000. Ce qui m’a attiré vers l’informatique, c’est son aspect novateur et stimulant, à la frontière entre la nouveauté et les mathématiques, que j’aimais beaucoup. Mon DEA, en 1995, portait déjà sur l’intelligence artificielle et l’algorithmique, même si à l’époque, les outils étaient bien plus limités qu’aujourd’hui : moins de données, moins de puissance de calcul… mais déjà beaucoup de traitement d’image.

Depuis 2010, je travaille intensément avec l’IA, dans des domaines variés, notamment le médical, mais aussi des applications comme la reconnaissance d’émotions, par exemple dans des entretiens d’embauche. C’est un domaine riche, en constante évolution.

Pour un public non expert, pouvez-vous expliquer ce que sont les maillages 3D et en quoi ils sont importants ?

Aujourd’hui, avec un simple smartphone et une application, on peut facilement scanner un objet en 3D. Le principe est simple : le téléphone prend plusieurs photos autour de l’objet, puis reconstruit sa forme en trois dimensions. Cette forme est ensuite représentée sous forme de maillage, c’est-à-dire un réseau de points et de surfaces.

Mais ce maillage brut comporte souvent des défauts : il doit être corrigé, nettoyé ou compressé, notamment pour être utilisé efficacement. Ce traitement est essentiel dans des domaines comme le jeu vidéo, où les avatars 3D doivent être légers, bien modélisés et optimisés pour ne pas ralentir le jeu. C’est un peu comme la compression d’une image : il faut faire du post-traitement, corriger les erreurs, combler les zones manquantes. Dans le cinéma, c’est devenu une pratique courante : les acteurs sont scannés en 3D pour créer leur double numérique, ce qui permet ensuite de les incruster numériquement dans une scène en cas de besoin. Et là aussi, la qualité du maillage est cruciale pour un rendu réaliste.

Lors d’ORASIS 2025, que souhaitez-vous transmettre ou faire découvrir aux participants à travers votre intervention ?

Avec le développement rapide de l’intelligence artificielle, les méthodes utilisées ont beaucoup évolué. Là où l’on s’appuyait auparavant sur des techniques classiques de traitement du signal ou de l’image, on utilise aujourd’hui de plus en plus les réseaux de neurones.

Dans ma présentation, je retrace cette évolution des approches traditionnelles vers l’IA, et je présente quelques-unes des méthodes que j’ai développées. Par exemple, je travaille sur la détection automatique des zones saillantes dans les maillages 3D, c’est-à-dire les zones jugées importantes ou susceptibles d’attirer notre attention.

Je parlerai également de la manière dont on peut réparer automatiquement un maillage incomplet, en apprenant à la machine à combler les zones manquantes grâce à des exemples d’apprentissage.

Quelles sont les applications concrètes des travaux que vous menez ? Peut-on imaginer des impacts dans d’autres domaines ?

Les maillages 3D permettent de représenter presque tout. On peut notamment numériser le monde réel, par exemple un bâtiment, pour en créer une représentation en trois dimensions. Cela permet ensuite de préparer une rénovation ou une reconstruction avec une grande précision.

Autre cas d’usage : en microscopie, on peut observer la structure de certains matériaux en visualisant les grains qui les composent, puis les représenter sous forme de maillage 3D. Cela permet de suivre leur évolution dans le temps, notamment lorsqu’on les soumet à des déformations.

Quels sont, selon vous, les grands défis scientifiques actuels dans ce champ d’étude qu’est l’IA ?

Aujourd’hui, l’un des enjeux majeurs en intelligence artificielle, c’est de concevoir des modèles plus frugaux, c’est-à-dire moins gourmands en ressources. L’entraînement des réseaux de neurones demande énormément de temps et de puissance de calcul. Par exemple, dans notre cas, nous utilisons Jean Zay, une plateforme de calcul intensif fournie par le CNRS. Ces ressources sont très coûteuses, en énergie comme en temps. Même pour générer ce qu’on appelle des « starter packs », très tendances aujourd’hui, il faut parfois une journée entière de calcul sur des infrastructures très puissantes. C’est pourquoi la tendance actuelle, dans la recherche, consiste à développer des modèles plus compacts, qui restent performants tout en étant moins lourds à entraîner et à faire fonctionner.

Comment voyez-vous évoluer l’usage de l’IA dans le domaine de la vision par ordinateur dans les prochaines années ?

La vision par ordinateur a été l’un des premiers domaines d’application de l’intelligence artificielle, notamment avec la reconnaissance faciale ou le suivi de personnes via les caméras de surveillance. Ces technologies sont déjà bien développées. Aujourd’hui, l’IA devient aussi très populaire dans le traitement du texte. On assiste à une convergence entre texte et image, avec des outils capables de générer une description à partir d’une image, ou au contraire, de créer une image à partir d’un simple texte. Les usages vont continuer d’évoluer fortement, notamment en fonction de la manière dont les utilisateurs s’approprieront ces nouvelles possibilités.

Quels conseils donneriez-vous à un jeune chercheur ou étudiant qui souhaite s’orienter dans ce domaine ?

Ce qui est très positif aujourd’hui, notamment avec des projets comme NORMANTHIIA, c’est que la formation à l’intelligence artificielle commence de plus en plus tôt.

À l’IUT, par exemple, dès la troisième année, les étudiants suivent des modules dédiés à l’IA, que ce soit pour apprendre à en programmer ou à l’utiliser de manière raisonnée dans leur quotidien. Au départ, on leur interdit d’y recourir, afin qu’ils acquièrent d’abord une compréhension solide des outils et des concepts. Puis, une fois cette base acquise, on les autorise à utiliser l’IA comme un assistant, car cela leur fait gagner du temps — et c’est tout simplement représentatif du monde professionnel actuel.

C’est un domaine très technique, qui nécessite une vraie curiosité, une appétence pour l’informatique et l’envie de s’investir dans un secteur en constante évolution.