2020
Conception d’un système embarqué temps-réels pécialisé pour le nouveau codec vidéo VVC
Par Amira Mehri (ENIM, Monastir, Tunisie - DALI/LIRMM) le 2020-10-08
-
Une collaboration entre Video Coding Experts Group (VCEG) et Moving Picture Experts Group (MPEG) a amenené à la fondation de l'équipe Joint Video Experts Team (JVET) qui tente de développer un nouveau codec vidéo répondant aux récentes exigences du monde de la vidéo. En Avril 2018, cette équipe a réussi à lancer la première version VVC Test Model (VTM1) du nouveau codec H.266 Versatile Video Coding (VVC). Ce codec polyvalent est caractérisé par une meilleure gestion des définitions d'images importantes (2K ,4K ,8K et 16K). En compression, ce nouveau standard réduit la taille des vidéos de moitié par rapport au standard H.265 High Efficiency Video Coding (HEVC) pour une qualité équivalente. En plus, le format H.266 est adapté aux vidéos en HDR, ainsi qu'aux vidéos filmées à 360 degrés. Il permet également de supporter des fréquences de rafraîchissement variables (technologie VRR) jusqu'à 120 Hz, des formats panoramiques ou encore les canaux auxiliaires pour transmettre des données.
-
Dans notre travail, nous avons comparé les performances du codec VVC avec ceux de HEVC et de Benchmark Set (BMS). Ce dernier étant un logiciel secondaire ayant d'avantage d'outils d'encodage que le VVC. Afin de réaliser cette comparaison, nous avons effectué un test de profilage montrant l'efficacité de compression de chaque codec vidéo, de la consommation d'énergie et de mémoire exigée lors de l'exécution de ces codecs sur une station HP Xeon i7. Pour appliquer ce profilage, nous avons exploré des séquences vidéo de tests avec une résolution de 2K et 8 bits de profondeur de couleurs. D'une part, pour ́evaluer les performances d'un encodeur, nous avons ainsi utilisé des outils basés sur le critère Bjontegaard, s'appuyant sur la courbe débit/distorsion, couramment utilisés en compression d'images. Nous avons obtenu des courbes qui représentent l'évolution de la qualité, évaluée par le PSNR en décibels (dB), en fonction du débit, évalué en bits/s. Le critère Bjontegaard fournit une évaluation du gain en qualité à débit constant, ainsi que le gain en débit, pour une qualité donnée. D'autre part, pour mesurer la consommation d'énergie et de mémoire d'un encodeur et d'un décodeur, nous avons utilisé l'outil de profilage Intel Performance Counter Monitor (Intel PCM). Cet outil est facile à prendre en main pour afficher les différentes informations d'une application en cours d'exécution telle que : le nombre d'instructions exécutées, les erreurs au niveau des mémoires cache, la température et la consommation d'énergie par coeur, le débit utilisé en mémoire, l'énergie consommée par les coeurs du processeur, ... etc. Lors de l'utilisation de cet outil, nous nous sommes focalisés sur les informations de consommation d'énergie et de mémoire pour chaque codec vidéo.
-
Le standard VVC demande une vitesse de calcul importante de part sa complexité algorithmique. Cependant, lorsque la phase d'encodage vidéo débute, l'intensité arithmétique croît alors que le taux de parallélisation diminue. Egalement, les systèmes d'exploitation embarqués ont un rôle important dans les performances d'un système embarqué, vu que sa gestion des tâches, des processus et des appels systèmes a un impact très important sur la rapidité de traitement, la consommation d'énergie et la surface de la puce. Dans ce contexte, notre futur travail réside, en premier lieu, à l'optimisation du décodeur de VVC, en limitant les dépendances de données. En deuxième lieu, nous envisageons d'utiliser un nouveau système d'exploitation embarqué compatible avec notre application de décodage vidéo.
Analyse des visages humains et interprétation des mouvements humains à l'aide d'approches géométriques et d'apprentissage automatique
Par Rim Slama (Hennalux, Belgique) le 2020-05-19
- Résumé : Un des sujets de recherche représentant un grand défi au cours des dernières décennies est le développement de systèmes intelligents dédiés à la compréhension du comportement humain. En effet, c'est essentiel d'identifier et de comprendre le comportement des humains pour que les machines soient capables d'interagir, d'assister et d'aider l'être humain que ce soit dans sa vie quotidienne ou dans de nombreuses autres applications. Afin de représenter la forme du visage humain et la pose du corps humain, nous utilisons certaines notions de la géométrie Riemannienne. Cette dernière, munie des outils de calcul appropriés permet d'analyser et de résoudre les problèmes liés à ce sujet. Nous utilisons également l'information spatio-temporelle des trajectoires dans l'espace de Grassmann. Pour la tâche de classification et l'analyse des données, nous avons proposé l'utilisation de ces représentations combinées à des techniques d'apprentissage automatique et d'apprentissage en profondeur. Les approches proposées impliquant différents canaux de données 2D ou 3D sont évaluées dans plusieurs applications liées à l'homme telle que la reconnaissance faciale, la reconnaissance d'expression, la reconnaissance d'action, la reconnaissance des gestes et la fouille de données.
Arithmétique pour le chiffrement homomorphe
Par Zucca Vincent (Université de Leuven, Belgique) le 2020-03-30
- Résumé : Le chiffrement complètement homomorphe est une primitive cryptographique permettant de manipuler des données chiffrées sans avoir connaissance de la clé de déchiffrement. Depuis la première construction de Gentry en 2009, bon nombres de schémas, bien plus efficaces, ont vu le jour permettant aujourd'hui d'utiliser ce type de chiffrement en pratique. Dans un soucis d'efficacité, ceux-ci combinent différentes représentations de nombres et techniques arithmétiques qui ne sont malheureusement pas toujours directement compatibles avec les opérations à effectuer. Dans cet exposé, nous présenterons le schéma de Fan et Vercauteren (FV) ainsi que sa version la plus efficace utilisant la représentation RNS actuellement implémenté dans les bibliothèques de référence. Nous présenterons également une application du chiffrement homomorphe à la classification de données privées utilisant des techniques d'apprentissage automatisé en mettant l'accent sur les méthodes permettant d'effectuer les calculs requis par cette application de manière efficace en homomorphe.
Making Parallel Applications Communication-Aware: From Models to Implementations
Par Lambert Thomas (Inria Rennes) le 2020-03-23
-
Abstract : Parallel applications like scientific applications and MapReduce applications transfer data between tasks, subsequent processes, nodes, etc. These data transfers (communications) have a significant impact on the performance of parallel applications. Moreover, replication, which is usually used to exploit parallelism and improve resilience in parallel applications, can be utilized to optimize communication. In this talk, I will demonstrate the importance of communication-awareness using three widely used applications including: MapReduce and stream data applications, container provisioning and dense matrix-matrix multiplication. More precisely, I will show how to characterize and model the communication patterns of parallel applications and use these models to build and implement algorithmic solutions that can help to improve the performance of parallel applications
-
Bio : Thomas Lambert received a master degree from ENS of Lyon, and a PhD degree from the University of Bordeaux in 2017. He is currently a post-doctoral researcher at Inria Rennes in the STACK team. His main interests in research are scheduling aspects of problems linked to High-Performance Computing and Big Data applications, in particular issues related to replication of data in parallel computing.
Conduire la transition du HPC au HPDA (High Performance Data Analytics)
Par Chemchem Amine (Université de Reims) le 2020-03-23
- Exposé dans lequel je vais vous présenter quelques définitions de l'intelligence artificielle et de l'analyse de données, ainsi que quelques travaux et articles scientifiques que j'ai pu publier dernièrement. Je montrerai l'importance du HPC dans le domaine du big data et le passage du HPC vers le HPDA.
Second order optimization methods for the solution of large scale nonlinear noisy problems
Par Riccietti Elisa (IRIT, Toulouse) le 2020-03-16
- A 9h45. In this talk I will present new second order optimization methods to solve large scale nonlinear problems affected by noise. We distinguish two particular classes of noisy problems depending on the source of the noise. The first class is that of ill-posed least-squares problems with noise on the data. We propose new methods combining trust-region schemes and regularization in order to handle such problems. The second class is that of large scale problems with an expensive objective function, such as those arising in machine learning. We propose to exploit approximations of the objective function of dynamic accuracy to reduce the computational cost of the solution. We design two types of new second order methods (subsampled and multilevel) that are able to deal with the noise introduced by these approximations.
Rattraper les cycles perdus avec la récupération d'instructions élastique
Par Perais Arthur (Microsoft, Raleigh, NC, USA) le 2020-03-12
- Abstract: La prédiction des branchements et la récupération des instructions depuis le cache de données n'ont pas besoin d'être effectuée en tandem. Lorsque l'étage de récupération bloque, par exemple à cause d'un miss, le prédicteur de branchements peut continuer à générer des prédictions. Ces prédictions peuvent être utilisées pour différentes optimisations, notamment le prefetch d'instructions. Cependant, cette approche cause un étirement du pipeline et donc une réduction en performance significative pour certains codes difficiles à prédire. Pour remédier à cette limitation, nous proposons la récupération d'instructions élastique, un mécanisme permettant de cacher le coût de l'étirement du pipeline lors d'un vidage de pipeline. Nous présentons deux implémentations, pour un gain maximum en performance allant de 3.7% à 5.2%.