Image Module

Module image


Proposé par l'équipe ICAR
(image et interaction)

LIRMM, Montpellier
22 au 24 mai 2023

Responsables :

Olivier Strauss, LIRMM, département robotique. 04 67 41 85 87.
Marc Chaumont, LIRMM, département informatique. 04 67 41 85 14.

Informations :

Réagissez sur le module image en envoyant un e-mel.
Pour s'inscrire à ce module, envoyez un e-mel précisant :

  • Vos prénom et nom
  • Votre formation doctorale de rattachement
  • Votre position et votre laboratoire
  • Le titre de ce module (Module Image)

Pensez par ailleurs à vous inscrire auprès de l'ADUM !

Contenu du module :

Ce module s'adresse aux étudiants de l'école doctorale I2S et aux chercheurs interessés par les techniques de traitement d'image et de vision par ordinateur. Les thèmes abordés dans ces conférences sont très larges. Ils portent généralement à la fois sur l'aspect fondamental du traitement d'image ainsi que sur l'aspect applicatif. Les conférenciers présentent un thème fort de leur équipe de recherche dont leur laboratoire est spécialiste au niveau national et international.

Cliquez ici pour accéder au programme du module image des années précédentes.

Organisation du module :

Ce module de l'école doctorale est composé de 6 cours/conférences. Les conférences, d'une durée de 2 à 3 heures, se déroulent sur trois jours à raison d'une conférence par demi-journée. Les repas de midi sont pris en charge par nos partenaires pour permettre aux participants de discuter entre eux et avec les conférenciers.

Lieu

Les exposés du module image de l'école doctorale auront lieu dans l’amphithéâtre Jean-Jacques Moreau du campus St Priest de l’Université de Montpellier - 860 Rue de St - Priest, 34090 Montpellier. Pour obtenir le plan, cliquez ici.

Soutenu par

Programme

Programme

22 mai 2023

Thomas CORPETTI
9h - 12h

DR CNRS, au LETG

Les réseaux de neurones pour l’observation de la terre

Modéliser et suivre l’état environnemental de la terre est une démarche nécessaire dans le but de comprendre les changements observés et agir en conséquence. Que ce soit dans les domaines de la climatologie (réchauffement global, conséquences locales dans les villes), de la pollution, de l’agriculture ou encore de la santé, l’observation à grande échelle via la télédétection (images satellites, aéroportées, drones par exemple) ou les capteurs locaux (stations météo au sol par exemple) est très utilisée.
Cependant, les modalités d’imagerie (RGB, infrarouge, radar, hyperspectral, …), la nature parfois désordonnée des données (nuages de points par exemple) ou encore la complexité des phénomènes observés (turbulence, milieu urbain) fait que l’extraction automatique d’information à partir des données n’est pas une tâche aisée. Comme dans beaucoup de domaines, la dernière décennie a apporté des solutions intéressantes pour mieux comprendre et interpréter les données satellites via notamment les réseaux de neurones profonds.
Dans cette intervention, les différents défis en observation de la terre, la diversité des données disponibles et les techniques d’extraction d’informations associées seront présentées.

Les réseaux de neurones pour l’observation de la terre.
Cartographie automatique des objets en milieu côtier (Letard et al, 2021) pour le suivi du littoral.
Spyros GIDARIS
14h - 17h

Chercheur chez Valeo.AI

Self-supervision on Wheels: Self-supervised representation learning from autonomous driving data

Self-supervised learning (SSL) has seen a lot of exciting progress in the last two years, with many new SSL methods managing to match or even surpass the performance of fully supervised techniques. In this talk, we will focus on how to learn data representations without any human supervision, using self-supervised representation learning. We will first describe main self-supervised tasks and explain how pre-training a neural network with them leads to learning useful visual representations for downstream image understanding tasks, i.e., achieving better gains per annotated sample when fine-tuning from self-supervised pre-training than with classic supervised training.

Then, we will focus on the challenges and opportunities that arise when trying to learn representations from autonomous driving (AD) data. On the one hand, AD data are heavily imbalanced and repetitive (e.g., many almost-identical camera frames). We will describe existing strategies for dealing with this issue. On the other hand, AD data offer us the opportunity of using lots of annotation-free supervision signals: other perception sensors that are usually synchronized (e.g., multiple cameras, Lidar, radar, microphones, etc.), time (video), IMU, or GPS. We will explain how to devise self-supervised learning methods that leverage one sensor to supervise pre-training of a network for a different sensor, e.g., camera to Lidar or Lidar to camera.

Self-supervision on Wheels: Self-supervised representation learning from autonomous driving data
Self-supervised representation learning for autonomous driving data.

23 mai 2023

Mohamed-Chaker Larabi
9h - 12h

McF Université de Poitiers, au Xlim

Compression et évaluation de la qualité pour les environnements immersifs

Les environnements immersifs ont connu une croissance fulgurante ces dernières années et ce dans de nombreux domaines comme le divertissement, la santé, l’éducation ou l’industrie. Ils font désormais partie de notre quotidien avec divers types de contenus et d'applications dont la 3D, l'imagerie 360, la réalité virtuelle, la réalité augmentée, etc. Ces technologies offrent à l'utilisateur une expérience visuelle unique à condition de maîtriser la chaîne de création et de diffusion des contenus.
Ce cours se concentre sur les techniques de compression et d'évaluation de la qualité des contenus immersifs pour des applications allant de la 3D à la réalité virtuelle et augmentée. Nous aborderons les différents standards de compression notamment ceux offrant des profils dédiés. Les méthodes pour évaluer la qualité des contenus immersifs seront également abordées, y compris les aspects clés tels que l'expérience utilisateur, la perception visuelle, et les normes et les métriques de qualité. Nous explorerons les tendances actuelles en matière de compression et d'évaluation de la qualité pour les images et les vidéos dans les environnements immersifs, ainsi que les défis et les opportunités liés à ce domaine.

Compression et évaluation de la qualité pour les environnements immersifs.
Compression et évaluation des images 360 degrés.
Julien Rabin
14h - 17h

McF Université de Caen, au GREYC

Apprentissage et Mémorisation des Modèles Génératifs d’Images

Dans ce cours nous aborderons la question de l’apprentissage de modèles génératifs d’images et du phénomène de mémorisation des données d’entraînement dans ce contexte.
Dans un premiers temps, nous proposerons une vue d’ensemble de l’état de l’art des méthodes de génération d’images qui a connu un essor considérable ces dernières années, tant par la taille des modèles et des jeux de données associés que par la faculté des modèles les plus sophistiqués à tromper l’évaluation humaine.
Ensuite nous mettrons en évidence le problème de mémorisation des données d’entraînement dans le cas des images de visages.
Nous proposerons quelques techniques pour essayer de détecter automatiquement ce phénomène, et discuterons des moyens de s’en prémunir.

Apprentissage et Mémorisation des Modèles Génératifs d’Images
Self-supervised representation learning for autonomous driving data.

24 mai 2023

François Chaumette
9h - 12h

DR Inria Rennes-Bretagne Atlantique

Asservissement visuel en robotique

Asservissement visuel en robotique.
Configurations possibles en asservissement visuel.

Les techniques d'asservissement visuel consistent à commander les mouvements d'un système robotique via une boucle fermée sur des informations fournies par un capteur de vision. La présentation portera dans un premier temps sur les étapes ssentielles permettant de mettre en œuvre de telles techniques et sur le large spectre de leurs applications potentielles. La seconde partie portera sur un champ plus prospectif consistant à utiliser l'image brute en entrée de la loi de commande, évitant ainsi l'extraction de toutes mesures de type géométrique dans l'image.

Nicolas Chaverou
14h - 17h

Cofondateur et chef de produit cher Golaem

La recherche au service des effets spéciaux - la simulation de foules numériques

Si marcher au milieu d'une foule paraît anodin et fait partie de notre quotidien, les règles qui la régissent le sont beaucoup moins. Alors que chaque individu déroule un comportement unique et différent en fonction de ses buts, de sa morphologie, de son humeur... la foule produit un tout unifié et auto organisé. Sans communication, nous sommes capables de nous éviter, de naviguer en groupe, d'anticiper notre trajectoire dans un environnement contraint et de l'adapter. Et si la densité évolue, alors les règles changent et la foule s'adapte.

Depuis presque 15ans, la société Golaem, issue de l'INRIA, tente de mettre des équations derrière ces règles afin de simuler les foules les plus réalistes et contrôlables possibles et de pouvoir peupler les séquences de nos séries et films préférés. À travers les marcheurs de Game Of Thrones, les chasseurs de prime de Mandalore ou les habitants de Zaun, nous reviendrons sur l'ensemble des travaux de recherche qui ont été menés pour arriver au pixel final diffusé sur nos écrans. Ces travaux pluri disciplinaires croisent aussi bien l'intelligence artificielle, que la cognition, les simulations de fluides, la simulation physique, la robotique, l'analyse géométrique, la génération procédurale...

La simulation de foules numériques La simulation de foules numériques La simulation de foules numériques La simulation de foules numériques
Exemple de simulations produit par le simulateur de foules Golaem - HBO - Tous droits réservés.