.......
Module Image .......![]() Le module image vous est proposé par le projet ICAR (image et interaction) |
![]() |
![]() |
![]() ![]() |
![]() |
sur le module image en
envoyant un e-mel (cliquez sur le penseur). |
L'extension de contenus visuels à la troisième dimension, comme la capture d'une scène dynamique en 3D en générant une double image de celle-ci sur un site distant en temps réel, ont longtemps été considérées comme des faits relevant de la science fiction. C'est aujourd'hui une réalité collectivement désignée sous le terme de télévision en trois dimensions (3DTV ou TVHD 3D). Ce nouveau type d'images dites en 3D relief permet de créer l'illusion d'un environnement réel en son absence. Au plan technologique, leur fabrication cible toute la chaîne de production d'images qui couvre aussi bien les moyens d'acquisition que les moyens de compression/transmission et de représentation. Depuis le succès du film « Avatar » l’acronyme « 3D » est devenu l’argument marketing de tous les grands industriels de l’audiovisuel mais sans pouvoir affranchir le téléspectateur du port de lunettes. Pour voir en relief sans lunettes de nombreux verrous scientifiques restent encore à dépasser comme par exemple, celui de la prise de vue en temps réel d’une scène réelle suivant des normes qualitatives comparables aux productions d’images relief de synthèse. | ![]() |
![]() | Les
recherches menées sur ce nouveau type d'images s'appuient sur
différents domaines scientifiques allant du traitement du signal et des
images au rendu interactif 3D en passant par les mathématiques
appliquées et l’informatique. Les verrous technologiques abordés durant
ce cours porteront sur : • la caractérisation et le rendu perceptuel des géométries de capture et de restitution d'images reliefs ; • la compression multi-vues de flux auto-stéréoscopiques ; • la caractérisation et la reconstruction des profondeurs. Plusieurs illustrations sur ces différents points seront proposés dans des domaines comme l’imagerie biomédicale, la production multimédia et audiovisuelle (enrichissement de contenus 3D) et réalité mixte (mixage réel/virtuel). |
Ce
cours présentera un état de l’art de quelques méthodes récentes pour la
détection, la reconnaissance et le suivi d’acteurs en vision par
ordinateur. Nous montrerons les progrès obtenus au cours des dix
dernières années par les méthodes génériques, qui apprennent des
modèles des apparences et des mouvements humains. Ensuite, nous
montrerons certaines limitations de ces approches dans des exemples de
films et d’enregistrements de spectacles. Nous présenterons des
méthodes récentes destinées à améliorer les performances des méthodes
génériques dans ce cas particulier, notamment à l’aide de deux
stratégies populaires et distinctes – la ré-identification d’acteurs et
l’apprentissage de détecteurs spécifiques à chaque acteur. Nous
présenterons nos travaux récents dans ce domaine en les comparant à
d’autres approches plus classiques. | ![]() |
![]() | Dans
une deuxième partie du cours, nous montrerons comment la détection des
acteurs peut être utilisée pour améliorer et/ou transformer le cadrage
d’un film ; et pour calculer automatiquement un montage d‘un film de
cinéma à partir d’enregistrements d’une même scène par plusieurs
caméras réelles ou virtuelles. Cette seconde partie sera illustrée
d’exemples extraits d’un projet de recherche mené en collaboration avec
le théâtre de Lyon – Célestins de 2012 à 2014. |
Enfin, nous terminerons par un rapide tour d’horizons des applications des techniques de vision par ordinateur à l’industrie du cinéma – dans les domaines de la pré-production, de la prise de vue, de la post-production et des effets spéciaux. | ![]() |
Les avancées en microscopie optique couplées aux techniques de marquage par sondes fluorescentes types GFP («Green Fluorescent Protein») ont révolutionné la biologie moléculaire et cellulaire, des avancées récompensées par deux prix Nobel ces dernières années. L’imagerie photonique à haute résolution spatiale et temporelle permet ainsi de quantifier les interactions moléculaires dans la cellule. Des avancées considérables en biologie fondamentale ont déjà été obtenues dans différents domaines : description des principales voies de transport membranaire, tri et adressage des protéines, division cellulaire,… Acquérir une vue quantifiée plus complète de la physiologie de la cellule pour toutes les échelles d’observation spatiales «nano-micro» et temporelles, est le défi à relever désormais. Mais, force est de constater que l’analyse des données de microscopie collectées, extrêmement variées (microscopie confocale, FLIM-FRET, TIRF, SIM…), est très problématique. Il faut en effet traiter des quantités considérables de volumes, toujours en nombre croissant. Leurs contenus sont surtout extrêmement complexes et très divers. | ![]() |
Dans la première partie de ce cours, on rappellera les principes physiques et mathématiques de la formation des images en microscopie de fluorescence. Dans la second partie, nous présenterons quelques grands principes pour améliorer la qualité des images (déconvolution, débruitage,..) et analyser les dynamiques des particules observées. | Nous monterons en particulier les spécificités des méthodes de suivi temporel d’objets en vidéo-microscopie de fluorescence. Ces sujets sont relativement populaires en traitement d’images mais des approches méthodologiques et des modélisations spécifiques sont bien souvent nécessaires pour faire face aux enjeux de la biologie cellulaire. |
Ce
module s'intéressera aux outils de recalage des images, c'est-à-dire au
calcul des transformations qui permettent de superposer 2 images. Une
première partie sera consacrée à la présentation générique du problème
du recalage et aux différentes solutions existantes. En particulier,
nous nous intéresserons aux approches dites géométriques, en ce sens
qu'elle nécessitent l'extraction préalable de primitives géométriques
servant de support au calcul de la similarité entre images, ainsi
qu'aux approches dites iconiques où cette similarité est calculée
directement avec les intensités des images. Une seconde partie sera consacrée aux applications (calcul de mosaïque, correction de mouvement, etc.) où l'on montrera comment l'outil de calcul de transformation peut être utilisé dans un contexte biologique | ![]() |
Les
systèmes électroniques embarqués sont aujourd’hui de plus en plus
présents dans notre quotidien. Associant puces électroniques et
logiciel enfoui, les systèmes embarqués permettent de rendre
intelligents, sûrs et communicants tous les objets de notre quotidien.
Cette intelligence se caractérise de plus en plus par une autonomie de
fonctionnement, ce qui implique que le système a été doté de capacités
de perception, d’analyse, de décisions et de partage d’informations. La
forte accélération dans le domaine des nouvelles technologies du
numérique rend possible ce qui était encore un rêve il y a quelques
années, utiliser des véhicules autonomes pour nous déplacer. Dans le
domaine de l’automobile, ce thème est très présent, en témoignent les
nombreux projets et démonstrateurs visibles du grand public :
challenges DARPA, projets Bertha Benz de Daimler, Drive Me de Volvo,
Next 2 de Renault… L’intérêt de doter un véhicule de capacités de
navigation autonome ne se limite pas au seul monde de l’automobile :
ces fonctions trouveront aussi un usage dans le domaine du transport
collectif (navettes automatisées), de la logistique (livraison
automatisées de marchandises), la sécurité en milieu civil ou
industriel (robotique mobile de surveillance) ou encore l’aide à la
personne. | ![]() Figure 1 : l’intérêt des systèmes mobiles autonomes ne se limite pas au cas de l’automobile. Exemple sur cette photographie avec le robot d’inspection automatique de plateformes pétrolières offshore développé par l’IRSEEM / ESIGELEC dans le cadre du challenge international de robotique ARGOS organisé par TOTAL et l’ANR |
![]() Figure 2 : banc de test pour la conception de capteurs basés vision pour le véhicule autonome | Pour comprendre les situations, alerter et agir à la place de l’être humain, ces systèmes doivent disposer d’informations sur l’environnement dans lequels ils évoluent. Ils doivent aussi être capables de s’y localiser précisément. En somme « voir » pour « comprendre » et « agir » comme le ferait un être humain. L’utilisation de caméras pour remplacer nos yeux semble être la solution la plus efficace pour remplir cette tâche. Pourtant de nombreux verrous théoriques et technologiques limitent encore aujourd’hui l’usage de solutions basées vision pour des tâches de navigation autonome en environnement naturel. |
Dans
ce cours nous présenterons les principaux traitements nécessaires à
l’utilisation de systèmes basés vision pour la navigation autonome d’un
véhicule. Nous mettrons les verrous que posent la perception et la
compréhension de scènes en environnement naturel. Nous ferons un focus
plus spécifique sur les travaux menés récemment par la communauté sur
des techniques de vision que l’on peut qualifier de «
non-conventionnelle » (vision omnidirectionnelle, caméra plénoptique,
caméras à évènements,…) souvent inspirées des systèmes de vision
présents dans la nature en particulier chez les oiseaux ou les
insectes. | ![]() Figure 3 : exemple de système de vision non-conventionnelle : objectif dit fisheye (à gauche) et utilisation pour la détection automatique de lignes sur voies routières |
A
fundamental requirement for robot autonomy is the capability of
processing sensor data, to perceive the state of the environment, and
act accordingly. In particular, vision sensors provide rich and dense
information at a relatively low cost. For this reason, they have
attracted the interest of roboticists worldwide, and lead to the advent
of visual servoing as a research theme. Visual servoing, also known as
vision-based robot control, is a technique which exploits feedback
information extracted from a vision sensor (camera, rgb-d, 3D lidar,
etc), to control the motion of a robot. In this talk, I will firstly
introduce the theoretical concepts underlying visual servoing
(interaction matrix, optical flow, epipolar geometry), and then present
a series of research results targeting real-life applications | ![]() |