![]() |
sur le module image en
envoyant un e-mel (cliquez sur le penseur). |
Les
capteurs radar à synthèse d'ouverture (SAR) embarqués sur des
satellites délivrent de précieuses informations sur la terre. Ils
permettent de cartographier et suivre l'évolution du milieu urbain ou
de la végétation, mais aussi de produire des modèles numériques
d'élévation ou de suivre les mouvements de terrain grâce à
l'interférométrie. Malgré ses avantages (imagerie tout temps pouvant acquérir des images quelle que soit la couche nuageuse et de jour comme de nuit), l'imagerie SAR reste difficile d'utilisation en raison du très fort bruit qui dégrade les images. Ce bruit, inhérent aux systèmes d'imagerie cohérente et nommé speckle, est bien modélisé statistiquement et peut être réduit par des approches de traitement d'images. • Dans une première partie nous présenterons le principe d'acquisition des images SAR ainsi que ses différentes modalités (interférométrie et polarimétrie) et les applications qui ont été développées à partir de ces données. • Dans une deuxième partie, nous présenterons plus précisément les modèles statistiques du bruit et quelques méthodes de débruitage récentes permettant d'améliorer considérablement ces données. |
![]() Paris (la Seine et la Tour Eiffel) imagée par un capteur radar (TerraSAR-X) |
|
Comprendre
et créer automatiquement des images est un objectif important du
traitement d'images et de la vision par ordinateur. Certaines des
applications incluent le débruitage, la restauration, l'inpainting et
la synthèse d'images, qui sont appliquées dans des industries telles
que la post-production de films ou pour l'usage personnel (ex.
photoshop). Trouver un bon modèle d'image (comme la variation totale
ou l'auto-similitude de l'image) est au cœur de ces problèmes. C'est
une tâche extrêmement difficile, cependant, récemment, l'apprentissage
profond a fait de grands progrès en changeant le point de vue sur cette
problématique : le modèle est établi en apprenant directement à partir
des données elles-mêmes, plutôt qu'en s'appuyant sur un a priori, qui
est souvent limité. C'est l'idée centrale des réseaux de type
autoencodeur et des modèles génératifs profonds. Dans cette présentation, j'expliquerai les principes de ces approches et j'examinerai comment différents mécanismes, tels que l'espace latent et les réseaux adversaires, permettent aux réseaux de neurones profonds de découvrir ce que devrait être un bon modèle d'image. Une fois cela fait, il est possible de manipuler, comprendre et synthétiser des images d'une manière beaucoup plus puissante que ce qui était possible auparavant. Dans la deuxième partie de la présentation, je vais discuter de certains de nos projets récents qui emploient ces types de réseaux. Entre autres, je parlerai d'un travail sur la compréhension des mécanismes internes des auto-encodeurs et une architecture d'auto-encodeur qui essaie d'imiter les propriétés utiles de l'Analyse en Composantes Principales, afin que l'espace latent des auto-encodeurs et des modèles génératifs puisse être mieux compris et navigué. Je montrerai des exemples de résultats sur des visages où l'on est capable de modifier certains aspects haut-niveau du visage (coleur des cheveux, pose de la tête). | ![]() |
L'apprentissage automatique révolutionne le monde médical. De plus en plus de produits médicaux sont boostés par de l'IA: dépistage du cancer du sein, cardiologie, dépistage cancer du poumon, dermatologie, ... En 3 années de R&D intensives, Therapixel est passé d'un projet de recherche à un produit (en cours de marquage auprès des instances réglementaires). La gestion des données (images, annotations, labels), la sélection et évaluation des modèles, la détection des biais d'apprentissage ainsi que la mise en production doivent faire parti du quotidien du Data Scientist. |
![]() |
![]() Ces courbes illustrent combien il est difficle détecter des petits objets dans une grande image, et à bien les caractériser (malin ou bénin ?). Quelle métrique utiliser ? Sur quelles données ? |
Je présenterai les défis rencontrés dans le cas d'une startup d'IA en imagerie médicale et les bonnes pratiques à adopter. Peut-être très orientés 'pratique', les problèmes rencontrés sont en réalité de problématiques de l'état de l'art de la recherche en Deep Learning et Machine Learning. |
On ne peut que constater combien la technologie vidéo est devenue omniprésente en un peu plus d’une décennie. Si les besoins des nouveaux services vidéo ont été en partie satisfaits par l’efficacité des réseaux et de leurs technologies de couche physique, en parallèle les codecs vidéo ont été primordiaux en offrant compression et nouvelles fonctionnalités. La recherche en codage vidéo se caractérise alors par un fort contexte normatif où le point de compatibilité se fait au niveau du décodage. Les performances de chaque nouveau standard sont remarquables, car typiquement chacun par rapport au précédent, code avec la même qualité objective un format vidéo donné mais en divisant par deux le débit nécessaire. Il est cependant frappant de constater que le paradigme de la couche de codage n’a pas changé depuis l’origine, avec un codec dissymétrique où les décisions sont prises à l’encodage via un schéma hybride intégrant les étapes de prédiction, transformation, quantification et codage entropique. Il est aussi surprenant de constater la persistance de l’implantation dans les codeurs pour la phase d’optimisation débit-distorsion, d’un calcul de distorsion de type erreur quadratique moyenne, alors que l’on sait la corrélation pauvre entre les résultats de cette métrique et le jugement humain. |
||
|
||
Pendant le séminaire, après avoir rappelé les principes du standard de compression vidéo HEVC, je donnerai des exemples de mes travaux conduits au sein des équipes IVC-IRCCyN puis IPI-LS2N qui, du fait des recherche qui y sont conduites sur la modélisation du système visuel humain,ont offert et offrent encore un cadre collaboratif particulièrement propice aux travaux liés au codage vidéo perceptuel. |
Les
politiques émergentes de numérisation de contenus culturels, unies au
développement croissant des technologies pour la collecte, le
traitement, la visualisation et l’archivage de ressources, ouvrent une
ère nouvelle pour l’étude et la sauvegarde du patrimoine architectural.
L’introduction des technologies numériques dans les pratiques de
documentation, d’analyse et de diffusion du patrimoine culturel est
aujourd’hui un enjeu investissant non seulement la sphère des sciences
du numérique (analyse et traitement d’images, modélisation et
simulations 3D, systèmes d’informations, etc.) mais également les
sciences humaines et sociales (perception et fondements sémiologiques
de la communication, formalisation des connaissances
pluridisciplinaires, renouvellement des méthodologies en architecture,
archéologie et conservation). Ce contexte fortement interdisciplinaire est en train de faire émerger des parcours d’hybridation de connaissances permettant d’aborder la conception de nouveaux systèmes de représentation, véritables outils d’investigation et de visualisation scientifique pour l’analyse de l’état de conservation des édifices historiques, l’étude des transformations du bâti, la classification des formes, la gestion des ressources documentaires, la restitution d’hypothèses archéologiques, etc.). |
![]() |
Au-delà des nouveaux enjeux de connaissance stimulés par la sophistication des moyens d’observation et d’analyse, ce domaine en pleine effervescence, offre au monde culturel des possibilités nouvelles d’échange, de création, d’éducation et de partage des connaissances permettant d’élargir considérablement l’accès à la culture et au patrimoine. |