....... Module Image 2020 .......

Le module image vous est proposé par le projet ICAR (image et interaction)

  
    


Responsables :

Olivier Strauss, LIRMM, département robotique. 04 67 41 85 87.
Marc Chaumont, LIRMM, département informatique. 04 67 41 85 14.

 
Réagissez sur le module image en envoyant un e-mel 
(cliquez sur le penseur).
Pour s'inscrire à ce module, envoyez un e-mel précisant :
  • Vos prénom et nom
  • Votre formation doctorale de rattachement
  • Le titre de ce module (Module Image)

  • en cliquant sur le lien suivant : 
    Pensez par ailleurs à vous inscrire auprès de l'ADUM !

      
    Contenu du module :
    Ce module s'adresse aux étudiants de l'école doctorale I2S et aux chercheurs interessés par les techniques de traitement d'image et de vision par ordinateur.
    Les thèmes abordés dans ces conférences sont très larges. Ils portent généralement à la fois sur l'aspect fondamental du traitement d'image ainsi que sur l'aspect applicatif.
    Les conférenciers présentent un thème fort de leur équipe de recherche dont leur laboratoire est spécialiste au niveau national et international.
     
    Organisation du module :
    Ce module de l'école doctorale est composé de 6 cours/conférences.
    Les conférences, d'une durée de 2 à 3 heures, se déroulent sur trois jours à raison d'une conférence par demi-journée.
    Les repas de midi sont pris en charge par nos partenaires pour permettre aux participants de discuter entre eux et avec les conférenciers. 
    Lieu
    Les exposés du module image de l'école doctorale auront lieu dans l’amphithéâtre Jean-Jacques Moreau du campus St Priest de l’Université de Montpellier - 860 Rue de St - Priest, 34090 Montpellier.
    Pour obtenir le plan, cliquez ici : 

    Pour accéder à la version 2018 du module doctoral, cliquez sur la vielle femme.


    PROGRAMME DU MODULE IMAGE



    Les indicateurs :
    : Pour vous connecter sur la page institutionnelle de l'intervenant
    : Pour récupérer une présentation (lorqu'elle nous a été transmise)




    Mercredi 22 avril - 9h00-12h00 : Introduction à l'imagerie SAR et au débruitage de ces données.
    FlorenceTupin -  LTCI - Télécom Paris.

    Les capteurs radar à synthèse d'ouverture (SAR) embarqués sur des satellites délivrent de précieuses informations sur la terre. Ils permettent de cartographier et suivre l'évolution du milieu urbain ou de la végétation, mais aussi de produire des modèles numériques d'élévation ou de suivre les mouvements de terrain grâce à l'interférométrie.
    Malgré ses avantages (imagerie tout temps pouvant acquérir des images quelle que soit la couche nuageuse et de jour comme de nuit), l'imagerie SAR reste difficile d'utilisation en raison du très fort bruit qui dégrade les images. Ce bruit, inhérent aux systèmes d'imagerie cohérente et nommé speckle, est bien modélisé statistiquement et peut être réduit par des approches de traitement d'images.
     
    • Dans une première partie nous présenterons le principe d'acquisition des images SAR ainsi que ses différentes modalités (interférométrie et polarimétrie) et les applications qui ont été développées à partir de ces données.
     
    • Dans une deuxième partie, nous présenterons plus précisément les modèles statistiques du bruit et quelques méthodes de débruitage récentes permettant d'améliorer considérablement ces données.





    Paris (la Seine et la Tour Eiffel) imagée par un capteur radar (TerraSAR-X)


    Image SAR originale bruitée
    Image SAR débruitée




    Mercredi 22 avril - 14h00-17h00 : Optimisation non linéaire : panorama et applications en informatique graphique.
    Alexandra Bac - LIS - Polytech Marseille.






    Jeudi 23 avril - 9h00-12h00 : Les autoencodeurs et les modèles génératifs pour la compréhension et la synthèse d'images.
      Alasdair Newson - Télécom Paris.

    Comprendre et créer automatiquement des images est un objectif important du traitement d'images et de la vision par ordinateur. Certaines des applications incluent le débruitage, la restauration, l'inpainting et la synthèse d'images, qui sont appliquées dans des industries telles que la post-production de films ou pour l'usage personnel (ex. photoshop).  Trouver un bon modèle d'image (comme la variation totale ou l'auto-similitude de l'image) est au cœur de ces problèmes. C'est une tâche extrêmement difficile, cependant, récemment, l'apprentissage profond a fait de grands progrès en changeant le point de vue sur cette problématique : le modèle est établi en apprenant directement à partir des données elles-mêmes, plutôt qu'en s'appuyant sur un a priori, qui est souvent limité. C'est l'idée centrale des réseaux de type autoencodeur et des modèles génératifs profonds.

    Dans cette présentation, j'expliquerai les principes de ces approches et j'examinerai comment différents mécanismes, tels que l'espace latent et les réseaux adversaires, permettent aux réseaux de neurones profonds de découvrir ce que devrait être un bon modèle d'image. Une fois cela fait, il est possible de manipuler, comprendre et synthétiser des images d'une manière beaucoup plus puissante que ce qui était possible auparavant.

    Dans la deuxième partie de la présentation, je vais discuter de certains de nos projets récents qui emploient ces types de réseaux. Entre autres, je parlerai d'un travail sur la compréhension des mécanismes internes des auto-encodeurs et une architecture d'auto-encodeur qui essaie d'imiter les propriétés utiles de l'Analyse en Composantes Principales, afin que l'espace latent des auto-encodeurs et des modèles génératifs puisse être mieux compris et navigué. Je montrerai des exemples de résultats sur des visages où l'on est capable de modifier certains aspects haut-niveau du visage (coleur des cheveux, pose de la tête).





    Jeudi 23 avril - 14h00-17h00 : IA et médical : bonnes pratiques de la recherche au produit.
      Julien Guillaumin - THERAPIXEL - Paris.

    L'apprentissage automatique révolutionne le monde médical.
    De plus en plus de produits médicaux sont boostés par de l'IA: dépistage du cancer du sein, cardiologie, dépistage cancer du poumon, dermatologie, ...
    En 3 années de R&D intensives, Therapixel est passé d'un projet de recherche à un produit (en cours de marquage auprès des instances réglementaires).
    La gestion des données (images, annotations, labels), la sélection et évaluation des modèles, la détection des biais d'apprentissage ainsi que la mise en production doivent faire parti du quotidien du Data Scientist.




      Ces courbes illustrent combien il est difficle détecter des petits objets dans une grande image, et à bien les caractériser (malin ou bénin ?). Quelle métrique utiliser ? Sur quelles données ?


    Je présenterai les défis rencontrés dans le cas d'une startup d'IA en imagerie médicale et les bonnes pratiques à adopter.
    Peut-être très orientés 'pratique', les problèmes rencontrés sont en réalité de problématiques de l'état de l'art de la recherche en Deep Learning et Machine Learning.





    Vendredi 24 avril - 9h00-12h00 : Outils et méthodes pour le codage vidéo perceptuel.
      Vincent Ricordel.

    On ne peut que constater combien la technologie vidéo est devenue omniprésente en un peu plus d’une décennie.
    Si les besoins des nouveaux services vidéo ont été en partie satisfaits par l’efficacité des réseaux et de leurs technologies de couche physique, en parallèle les codecs vidéo ont été primordiaux en offrant compression et nouvelles fonctionnalités.
    La recherche en codage vidéo se caractérise alors par un fort contexte normatif où le point de compatibilité se fait au niveau du décodage. Les performances de chaque nouveau standard sont remarquables, car typiquement chacun par rapport au précédent, code avec la même qualité objective un format vidéo donné mais en divisant par deux le débit nécessaire. Il est cependant frappant de constater que le paradigme de la couche de codage n’a pas changé depuis l’origine, avec un codec dissymétrique où les décisions sont prises à l’encodage via un schéma hybride intégrant les étapes de prédiction, transformation, quantification et codage entropique. Il est aussi surprenant de constater la persistance de l’implantation dans les codeurs pour la phase d’optimisation débit-distorsion, d’un calcul de distorsion de type erreur quadratique moyenne, alors que l’on sait la corrélation pauvre entre les résultats de cette métrique et le jugement humain.

    C’est à ce niveau que se définit l’objectif du codage vidéo perceptuel qui est d’aller vers une représentation de l'information basée sur le contenu perçu et qui puisse servir de paradigme pour un codage basé qualité perceptuelle des contenus des vidéos 2D et 3D. Pour être en phase avec les approches standards, l’objectif devient de guider les choix de codage de façon à aller vers la fidélité perceptuelle sans perte des vidéos décodées. Mes travaux se positionnent donc dans cette recherche des outils et des méthodes où les choix pour améliorer la qualité perceptuelle guident le codage vidéo.
    Pendant le séminaire, après avoir rappelé les principes du standard de compression vidéo HEVC, je donnerai des exemples de mes travaux conduits au sein des équipes IVC-IRCCyN puis IPI-LS2N qui, du fait des recherche qui y sont conduites sur la modélisation du système visuel humain,ont offert et offrent encore un cadre collaboratif particulièrement propice aux travaux liés au codage vidéo perceptuel.


    Vendredi 24 avril - 14h00-17h00 : Technologies numériques et patrimoine architectural : enjeux scientifiques et culturels.
      Livio de Luca. MCC-MAP - CNRS Marseille.
     
    Les politiques émergentes de numérisation de contenus culturels, unies au développement croissant des technologies pour la collecte, le traitement, la visualisation et l’archivage de ressources, ouvrent une ère nouvelle pour l’étude et la sauvegarde du patrimoine architectural. L’introduction des technologies numériques dans les pratiques de documentation, d’analyse et de diffusion du patrimoine culturel est aujourd’hui un enjeu investissant non seulement la sphère des sciences du numérique  (analyse et traitement d’images, modélisation et simulations 3D, systèmes d’informations, etc.) mais également les sciences humaines et sociales (perception et fondements sémiologiques de la communication, formalisation des connaissances pluridisciplinaires, renouvellement des méthodologies en architecture, archéologie et conservation).
    Ce contexte fortement interdisciplinaire est en train de faire émerger des parcours d’hybridation de connaissances permettant d’aborder la conception de nouveaux systèmes de représentation, véritables outils d’investigation et de visualisation scientifique pour l’analyse de l’état de conservation des édifices historiques, l’étude des transformations du bâti, la classification des formes, la gestion des ressources documentaires, la restitution d’hypothèses archéologiques, etc.).

    Au-delà des nouveaux enjeux de connaissance stimulés par la sophistication des moyens d’observation et d’analyse, ce domaine en pleine effervescence, offre au monde culturel des possibilités nouvelles d’échange, de création, d’éducation et de partage des connaissances permettant d’élargir considérablement l’accès à la culture et au patrimoine.