....... Module Image .......

Le module image vous est proposé par le projet ICAR (image et interaction)
 
     

Responsables :
Olivier Strauss, LIRMM, département robotique. 04 67 41 85 87.
Benjamin Gilles, LIRMM, département robotique. 04 67 41 85 43.
 
Réagissez sur le module image en envoyant un e-mel 
(cliquez sur le penseur).
Pour s'inscrire à ce module, envoyez un e-mel précisant :
  • Vos prénom et nom
  • Votre formation doctorale de rattachement
  • Le titre de ce module (Module Image)

  • en cliquant sur le lien suivant : 
    Pensez par ailleurs à vous inscrire auprès de l'ADUM !

      
    Contenu du module :
    Ce module s'adresse aux étudiants de l'école doctorale I2S et aux chercheurs interessés par les techniques de traitement d'image et de vision par ordinateur.
    Les thèmes abordés dans ces conférences sont très larges. Ils portent généralement à la fois sur l'aspect fondamental du traitement d'image ainsi que sur l'aspect applicatif.
    Les conférenciers présentent un thème fort de leur équipe de recherche dont leur laboratoire est spécialiste au niveau national et international.
     
    Organisation du module :
    Ce module de l'école doctorale est composé de 6 cours/conférences.
    Les conférences, d'une durée de 2 à 3 heures, se déroulent sur trois jours à raison d'une conférence par demi-journée.
    Les repas de midi sont pris en charge par nos partenaires pour permettre aux participants de discuter entre eux et avec les conférenciers. 
    Lieu
    Les exposés du module image de l'école doctorale auront lieu dans le bâtiment 2 du campus UMII/St Priest (rue de St Priest, ancien bâtiment du CNIAM, à côte du LIRMM).
    Pour obtenir le plan, cliquez ici : 

    Pour accéder à la version 2012 du module doctoral, cliquez sur la vielle femme.


    PROGRAMME DU MODULE IMAGE
    (Ce programme est en cours d'élaboration)



    Les indicateurs :
    : Pour vous connecter sur la page institutionnelle de l'intervenant
    : Pour récupérer une présentation (lorqu'elle nous a été transmise)




    lundi 27 avril - 9h00-12h00 : Vidéo relief 3D : de l'acquisition à la diffusion.
    Laurent Lucas : CReSTIC EA3804 SIC – Université de Reims Champagne-Ardenne.

    L'extension de contenus visuels à la troisième dimension, comme la capture d'une scène dynamique en 3D en générant une double image de celle-ci sur un site distant en temps réel, ont longtemps été considérées comme des faits relevant de la science fiction. C'est aujourd'hui une réalité collectivement désignée sous le terme de télévision en trois dimensions (3DTV ou TVHD 3D). Ce nouveau type d'images dites en 3D relief permet de créer l'illusion d'un environnement réel en son absence. Au plan technologique, leur fabrication cible toute la chaîne de production d'images qui couvre aussi bien les moyens d'acquisition que les moyens de compression/transmission et de représentation. Depuis le succès du film « Avatar » l’acronyme « 3D » est devenu l’argument marketing de tous les grands industriels de l’audiovisuel mais sans pouvoir affranchir le téléspectateur du port de lunettes. Pour voir en relief sans lunettes de nombreux verrous scientifiques restent encore à dépasser comme par exemple, celui de la prise de vue en temps réel d’une scène réelle suivant des normes qualitatives comparables aux productions d’images relief de synthèse.


    Les recherches menées sur ce nouveau type d'images s'appuient sur différents domaines scientifiques allant du traitement du signal et des images au rendu interactif 3D en passant par les mathématiques appliquées et l’informatique. Les verrous technologiques abordés durant ce cours porteront sur :
    •  la caractérisation et le rendu perceptuel des géométries de capture et de restitution d'images reliefs ;
    •  la compression multi-vues de flux auto-stéréoscopiques ;
    •  la caractérisation et la reconstruction des profondeurs.
    Plusieurs illustrations sur ces différents points seront proposés dans des domaines comme l’imagerie biomédicale, la production multimédia et audiovisuelle (enrichissement de contenus 3D) et réalité mixte (mixage réel/virtuel).


    lundi 27 avril - 14h00-17h00 : Détection et reconnaissance d’acteurs – méthodes et applications cinématographiques.
    Remi Ronfard : IMAGINE, INRIA - Université de GRENOBLE - Alpes.


    Ce cours présentera un état de l’art de quelques méthodes récentes pour la détection, la reconnaissance et le suivi d’acteurs en vision par ordinateur. Nous montrerons les progrès obtenus au cours des dix dernières années par les méthodes génériques,  qui apprennent des modèles des apparences et des mouvements humains. Ensuite, nous montrerons certaines limitations de ces approches dans  des exemples de films et d’enregistrements de spectacles. Nous présenterons des méthodes récentes destinées à améliorer les performances des méthodes génériques dans ce cas particulier, notamment à l’aide de deux stratégies populaires et distinctes – la ré-identification d’acteurs et l’apprentissage de détecteurs spécifiques à chaque acteur. Nous présenterons nos travaux récents dans ce domaine en les comparant à d’autres approches plus classiques.



    Dans une deuxième partie du cours, nous montrerons comment la détection des acteurs peut être utilisée pour améliorer et/ou transformer le cadrage d’un film ; et pour calculer automatiquement un montage d‘un film de cinéma à partir d’enregistrements d’une même scène par plusieurs caméras réelles ou virtuelles. Cette seconde partie sera illustrée d’exemples extraits d’un projet de recherche mené en collaboration avec le théâtre de Lyon – Célestins de 2012 à 2014.
    Enfin, nous terminerons par un rapide tour d’horizons des applications des techniques de vision par ordinateur à l’industrie du cinéma – dans les domaines de la pré-production, de la prise de vue, de la post-production et des effets spéciaux.



    mardi 28 avril - 9h00-12h00 : Imagerie biologique: enjeux et defis en traitement d’images
      Charles Kervrann : INRIA - RENNES - Equipe SERPICO
    Diffusion restreinte. Pour obtenir cette présentation, merci d'envoyer un mail aux organisateurs. Olivier.Strauss (at) lirmm.fr.
    Les avancées en microscopie optique couplées aux techniques de marquage par sondes fluorescentes types GFP («Green Fluorescent Protein») ont révolutionné la biologie moléculaire et cellulaire, des avancées récompensées par deux prix Nobel ces dernières années. L’imagerie photonique à haute résolution spatiale et temporelle permet ainsi de quantifier les interactions moléculaires dans la cellule. Des avancées considérables en biologie fondamentale ont déjà été obtenues dans différents domaines : description des principales voies de transport membranaire, tri et adressage des protéines, division cellulaire,… Acquérir une vue quantifiée plus complète de la physiologie de la cellule pour toutes les échelles d’observation spatiales «nano-micro» et temporelles, est le défi à relever désormais. Mais, force est de constater que l’analyse des données de microscopie collectées, extrêmement variées (microscopie confocale, FLIM-FRET, TIRF, SIM…),  est très problématique. Il faut en effet traiter des quantités considérables de volumes, toujours en nombre croissant. Leurs contenus sont surtout  extrêmement complexes et très divers.
    Dans la première partie de ce cours, on rappellera les principes physiques et mathématiques de la formation des images en microscopie de fluorescence.  Dans la second partie, nous présenterons quelques grands principes pour améliorer la qualité des images (déconvolution, débruitage,..) et analyser les dynamiques des particules observées.  Nous monterons en particulier les spécificités des méthodes de suivi temporel d’objets en  vidéo-microscopie de fluorescence. Ces sujets sont relativement populaires en traitement d’images mais des approches méthodologiques et des modélisations spécifiques sont bien souvent nécessaires pour faire face aux enjeux de la biologie cellulaire.


    mardi 28 avril - 14h00-17h00 : Recalage des images dans les contextes biologique et médical.
    Gregoire Malandain : INRIA - Sophia Antipolis - Equipe Computational Sciences for Biology, Medicine and the Environment domain.
    Ce module s'intéressera aux outils de recalage des images, c'est-à-dire au calcul des transformations qui permettent de superposer 2 images. Une première partie sera consacrée à la présentation générique du problème du recalage et aux différentes solutions existantes. En particulier, nous nous intéresserons aux approches dites géométriques, en ce sens qu'elle nécessitent l'extraction préalable de primitives géométriques servant de support au calcul de la similarité entre images, ainsi qu'aux approches dites iconiques où cette similarité est calculée directement avec les intensités des images.
    Une seconde partie sera consacrée aux applications (calcul de mosaïque, correction de mouvement, etc.) où l'on montrera comment l'outil de calcul de transformation peut être utilisé dans un contexte biologique



    mercredi 29 avril - 9h00-12h00 : La vision embarquée pour les systèmes mobiles autonomes : état des lieux, enjeux et perspectives
    Xavier Savatier : ESIGELEC - Saint Etienne - Equipe IRSEEM

    Les systèmes électroniques embarqués sont aujourd’hui de plus en plus présents dans notre quotidien. Associant puces électroniques et logiciel enfoui, les systèmes embarqués permettent de rendre intelligents, sûrs et communicants tous les objets de notre quotidien. Cette intelligence se caractérise de plus en plus par une autonomie de fonctionnement, ce qui implique que le système a été doté de capacités de perception, d’analyse, de décisions et de partage d’informations. La forte accélération dans le domaine des nouvelles technologies du numérique rend possible ce qui était encore un rêve il y a quelques années, utiliser des véhicules autonomes pour nous déplacer. Dans le domaine de l’automobile, ce thème est très présent, en témoignent les nombreux projets et démonstrateurs visibles du grand public : challenges DARPA, projets Bertha Benz de Daimler, Drive Me de Volvo, Next 2 de Renault… L’intérêt de doter un véhicule de capacités de navigation autonome ne se limite pas au seul monde de l’automobile : ces fonctions trouveront aussi un usage dans le domaine du transport collectif (navettes automatisées), de la logistique (livraison automatisées de marchandises), la sécurité en milieu civil ou industriel (robotique mobile de surveillance) ou encore l’aide à la personne.

    Figure 1 : l’intérêt des systèmes mobiles autonomes ne se limite pas au cas de l’automobile. Exemple sur cette photographie avec le robot d’inspection automatique de plateformes pétrolières offshore développé par l’IRSEEM / ESIGELEC dans le cadre du challenge international de robotique ARGOS organisé par TOTAL et l’ANR


    Figure 2 : banc de test pour la conception de capteurs basés vision pour le véhicule autonome
    Pour comprendre les situations, alerter et agir à la place de l’être humain, ces systèmes doivent disposer d’informations sur l’environnement dans lequels ils évoluent. Ils doivent aussi être capables de s’y localiser précisément. En somme « voir » pour « comprendre » et « agir » comme le ferait un être humain. L’utilisation de caméras pour remplacer nos yeux  semble être la solution la plus efficace pour remplir cette tâche. Pourtant de nombreux verrous théoriques et technologiques limitent encore aujourd’hui l’usage de solutions basées vision pour des tâches de navigation autonome en environnement naturel.

    Dans ce cours nous présenterons les principaux traitements nécessaires à l’utilisation de systèmes basés vision pour la navigation autonome d’un véhicule. Nous mettrons les verrous que posent la perception et la compréhension de scènes en environnement naturel. Nous ferons un focus plus spécifique sur les travaux menés récemment par la communauté sur des techniques de vision que l’on peut qualifier de « non-conventionnelle » (vision omnidirectionnelle, caméra plénoptique, caméras à évènements,…) souvent inspirées des systèmes de vision présents dans la nature en particulier chez les oiseaux ou les insectes.

    Figure 3 : exemple de système de vision non-conventionnelle : objectif dit fisheye (à gauche) et utilisation pour la détection automatique de lignes sur voies routières



    mercredi 29 avril - 14h00-17h00 : See and move: vision-based robot control
    Andrea Cherubini : LIRMM - Montpellier - Equipe IDH


    A fundamental requirement for robot autonomy is the capability of processing sensor data, to perceive the state of the environment, and act accordingly. In particular, vision sensors provide rich and dense information at a relatively low cost. For this reason, they have attracted the interest of roboticists worldwide, and lead to the advent of visual servoing as a research theme. Visual servoing, also known as vision-based robot control, is a technique which exploits feedback information extracted from a vision sensor (camera, rgb-d, 3D lidar, etc), to control the motion of a robot. In this talk, I will firstly introduce the theoretical concepts underlying visual servoing (interaction matrix, optical flow, epipolar geometry), and then present a series of research results targeting real-life applications