Olivier Strauss, LIRMM, département robotique. 04 67 41 85 87. Noura Faraj, LIRMM, département informatique. 04 67 41 85 14.
Réagissez sur le module image en envoyant un e-mel. Pour s'inscrire à ce module, remplissez ce formulaire formulaire.
Pensez par ailleurs à vous inscrire auprès de l'ADUM !
Ce module s'adresse aux étudiants de l'école doctorale I2S et aux chercheurs interessés par les techniques de traitement d'image et de vision par ordinateur. Les thèmes abordés dans ces conférences sont très larges. Ils portent généralement à la fois sur l'aspect fondamental du traitement d'image ainsi que sur l'aspect applicatif. Les conférenciers présentent un thème fort de leur équipe de recherche dont leur laboratoire est spécialiste au niveau national et international. Cliquez ici pour accéder au programme du module image des années précédentes.
Ce module de l'école doctorale est composé de 6 cours/conférences. Les conférences, d'une durée de 2 à 3 heures, se déroulent sur trois jours à raison d'une conférence par demi-journée. Les repas de midi sont pris en charge par nos partenaires pour permettre aux participants de discuter entre eux et avec les conférenciers.
Les exposés du module image de l'école doctorale auront lieu dans l’amphithéâtre A36.02 du bâtiment 36 du campus Triolet de l’Université de Montpellier - Pl. Eugène Bataillon, 34090 Montpellier. Pour obtenir le plan, cliquez ici.
L’imagerie non conventionnelle de polarisation est un outil très performant pour percevoir des détails de la scène qui ne sont pas perceptibles avec une caméra classique. Longtemps réservée à l'astronomie et à la biologie, l’imagerie de polarisation commence à gagner du terrain dans le domaine de la robotique et du véhicule autonome. Récemment, elle a été utilisée pour une analyse fine de la scène routière afin de prendre le relai là où les systèmes de vision échouent. Néanmoins, l’analyse automatique d'une scène routière, requiert de la détection, de la classification, du calcul de similarité et donc de la distance. Or, de par sa construction, le formalisme de polarisation n’a aucune structure mathématique. Il est basé sur la réflexion et de ce fait deux points proches en terme de distance euclidienne ne le sont pas forcément en terme "optique", c'est à dire, n'appartiennent pas forcément au même matériau. La raison vient du fait que tout le formalisme de polarisation est basé sur la propagation des ondes lumineuses. Ces ondes électromagnétiques planes sont modélisées par des vecteur 4x1; les vecteurs de Stokes. La somme de deux vecteurs de Stokes ne reflète pas forcément la somme de deux ondes planes même quand elles sont de polarisations identiques. Dans cet exposé, je présenterai cette problématique dans sa globalité ainsi que quelques applications notamment au domaine de la navigation autonome pour l’analyse et l’interprétation des scènes routières. Je présenterai également quelques pistes envisagées pour définir une structure mathématique autour du formalisme de la polarisation.
Il est crucial d’aller au-delà des mesures d’imagerie faites en clinique pour caractériser la complexité des pathologies de la fonction cardiaque. Les récents progrès en imagerie et en apprentissage automatique permettent d’extraire des biomarqueurs physiologiques fins des images. Néanmoins, un autre enjeu majeur est l’analyse de cette quantité de données, de haute dimension et de types hétérogènes, à l’échelle de populations. La première partie de cette présentation resituera les principales techniques d'apprentissage pour l'analyse des images cardiaques, notamment en IRM et échographie, d'abord pour l'extraction de biomarqueurs physiologiquement pertinents, puis pour analyser ces données à l'échelle d'une population. La deuxième partie de la présentation donnera une vue d'ensemble de nos travaux récents intégrant l'apprentissage de représentation et la fusion d'informations multimodales pour enrichir à la fois l'extraction des biomarqueurs et pour l'analyse de populations, en particulier en tenant compte de la complémentarité des biomarqueurs disponibles.
Images are an efficient way to convey information that people tend to trust as they are considered to be objective. Thus, images have become the most exchanged media on the internet. In the context of spreading fake news, it is easy to be fooled by misinformation carried by images. Furthermore, it is now effortless to create convincing fake or totally generated images without any technical background in graphical software programs or computer science. In this presentation, I will present image forensics bases and related topics, and we will discuss how to detect if an image is likely to convey misinformation, i.e., to detect if it is generated or if it has undergone manipulation. Detection approaches can be passive using no prior knowledge or active by adding a hidden mark in the image. The latter was mostly used in some specific cases, such as press photography, and was considered a mature technology. However, image generation has recently brought watermarking back into focus, especially since the regulations imposed by the USA and the EU. Also, we will show how image generation raises challenges related to machine learning such as domain adaptation, unbalanced prediction, and interpretability. Indeed, the variety of images makes the set of real images really hard to model, therefore, the majority of methods rely on training sets. Unfortunately, these sets are too specific and fail to apply in the wild in operational settings. Moreover, new models for image generation appear regularly and make these training sets obsolete. Finally, the interpretability of real or fake image classifiers is interesting to address for two reasons: it helps us to understand what biases they exploit and may increase explainability for the user.
Bioimage analysis is concerned with the quantitative analysis of biological image data. In this context images are often considered spatially distributed measurements. They can represent biological structures but also biological processes like translation, apoptosis and others. Imaging and automated image analysis are used as a tool in biological experiments. The scale of images of biological objects ranges from nanometers on the subcellular level to meters for individual animals and plants or even kilometers for whole ecosystems. However the inner workings of cells and the interactions between cells, forming tissues and organs, are a central part of biology. Individual cells are often on the micrometer scale and microscopes are used to make them visible. The field of epifluorescence microscopy is especially important for bioimage analysis. Fluorescent tags are attached to molecules of interest. The fluorophores are stimulated by a laser pulse with a given wavelength to emit photons, which are captured by the microscope. This way multiple molecules or structures can be imaged independently from each other. Optical microscopy is unable to resolve structures below a limit of approximately 200nm, due to the diffraction limit. Multiple approaches like SIM, STED and STORM exist to get around the diffraction limit. Life happens in a 3D world. With the help of optical slicing, 3D images can be taken. The confocal laser scanning microscope, the spinning disk microscope, the multiphoton microscope and the lightsheet microscope allow to capture 3D images with a high resolution. To obtain correct results, the bioimage analysis must in many cases take into account the specifics of the image formation process and the degradations introduced by the microscope used. Correcting these degradations is called image restoration. The image is considered as a superposition of the signal of interest, different forms of noise and background. For the epifluorescence microscope the point spread function (psf) is the impulse response of the optical system and the acquired image is a linear superposition of psfs. With the help of the psf, a less degraded image can then be approximated using image deconvolution. Other pre-processing operations include alignment or stiching, noise removal and background correction. In order to count biological objects and to measure their intensity and shape features, the objects must be detected or segmented. The calculation of features in the form of convolutional filters and ranking filters, thresholding and post processing of the resulting masks with the help of mathematical morphology are the basic steps of image analysis workflows. Machine and deep learning can provide better solutions. Pixel and object classifiers based on the random forest model are often used. When these do not succeed, convolutional neural networks can be trained to accomplish semantic or instance segmentation. Often networks based on the UNet architecture are used in bioimage analysis. The analysis can go beyond measuring the features of individual objects, for example by analyzing the spatial distribution of molecules within cells, the colocalization of different molecules or the movements of specimen, cells and molecules. We will demonstrate the application of bio-image analysis using two examples we recently worked on: The segmentation and detection of microglia on fluorescent images and the delineation of bark, pith, and xylem annual rings on stained sections of tree trunks.
Directeur des Productions et Ingénieur R&D chez Les Tontons Truqueurs.
Afin de proposer des décors numériques réalistes, les graphistes et l'équipe technique du studio Les Tontons Truqueurs ont régulièrement recours à des solutions de numérisation d'environnements réels. Lors de cette présentation, nous aborderons et comparerons différentes techniques de numérisation comme la photogrammétrie, les Neural Radiance Fields et le Gaussian Splatting. Nous présenterons ensuite des travaux de recherche et développement en cours qui visent à faciliter la pré-production de séries et de long-métrages à l'aide d'environnements virtuels obtenus par Gaussian Splatting.
La recherche en rendu expressif, en particulier lorsqu’il s’agit de développer de nouveaux outils de contrôle et de création, doit s’ancrer dans les pratiques des artistes. Je présenterai l’approche recherche-innovation que j’ai généralement adoptée dans mes travaux, en insistant sur le rôle des études préliminaires et la définition des besoins. Nous dresserons ensuite un panorama des grands domaines du rendu expressif, en abordant les fonctions des styles et les enjeux liés à la cohérence temporelle. Enfin, je détaillerai quelques travaux récents portant sur le contrôle utilisateur pour un rendu plausible (Ray Portals, Shadow Layers) ainsi que sur l’aide à la création d’animations en rendu peinture.