2008


Simulation abstraite : une analyse statique de modèles Simulink

Par Chapoutot Alexandre (Université Paris 6 - LIP6) le 2008-12-04


Vers des supports exécutifs capables d'exploiter les machines multicœurs hétérogènes

Par Augonnet Cédric (INRIA Bordeaux - Runtime) le 2008-11-27


Méthodologie de Prototypage rapide des MPSoC sur des plateformes reconfigurables

Par Senouci Benaoumeur (Université de Perpignan - DALI) le 2008-11-20


Résoudre et Certifier la solution d'un système linéaire

Par Nguyen Hong Diep (ENS-Lyon - LIP) le 2008-11-13


Accélération de temps de simulation

Par Bouache Mourad (Université de Perpignan - DALI et Université de Boumerdès, Algérie) le 2008-10-23

La complexité croissante des processeurs, due en particulier à la multiplication des ressources (multi-coeurs), rend la compréhension de leur comportement et l'estimation de leur performance extrêmement difficile. Les architectes ont jusqu'ici mis en oeuvre les nouveaux mécanismes qu'ils ont proposé au moyen de simulateurs monolithiques tels que SimpleScalar . Au sein de ces simulateurs, constitués d'un programme unique regroupant toutes les unités du processeur, y compris sa hiérarchie mémoire, il est malaisé de focaliser son attention sur une unité, soit pour en étudier le rendement, soit pour le comparer à celui d'une unité de remplacement basée sur un algorithme qu'on conjecture plus performant. Le développement d'un nouveau simulateur est un investissement conséquent en temps à cause d'un long processus de modélisation, de débogage et de validation. Les simulateurs monolithiques sont des solutions de moins en moins adaptées au développement d'architectures de plus en plus complexes. L'adoption d'environnements de simulation modulaires devient donc une nécessité, mais de tels environnements ne peuvent être exploités correctement sans y a jouter une méthodologie de conception basée sur un protocole de communication intermodules. Le passage aux environnements de simulation modulaires induit un ralentissement de la simulation par rapport aux simulateurs monolithiques. La vitesse de simulation est un facteur critique car elle bride l'étendue des solutions qui peuvent être évaluées par les architectes de processeur. Dans un premier temps, nous présenterons l'environnement de simulation UNISIM et son mécanisme de communication inter-module. Nous présenterons aussi un simulateur générique de processeur à exécution dans le désordre que nous avons développé à partir d'UNISIM. Nous présenterons ensuite notre proposition d'extension du protocole de communication permettant le développement de modules vectorisés, orientés vers la duplication des ressources. Des résultats préléminaires montrent que la simulation d'un vecteur de n unités est nettement plus rapide que celle de n modules représentant autant d'unités individuelles.


Formal methods for rare failures of long processes

Par Daumas Marc (Université de Perpignan - DALI) le 2008-09-30

It is widely admitted that industrial processes contain flaws and they are allowed to fail. We describe a theory suitable for extremely rare failures of very long processes. This theory can be applied to hybrid systems modeling, for example an aircraft or a nuclear power plant on one side and its software on the other side. We are using PVS and a previously published formal theory on random variables as such formal developments force explicit statement of all hypotheses and prevent incorrect uses of theorems. Under the hypothesis that first order errors dominate, accumulated errors are sums of independent discrete and continuous variables. We derive a simple formula based on Lévy's and Markov's inequalities that can be applied to any sequence of independent and symmetric random variables that admit second and fourth order moments, such as variables uniformly distributed over [-ulp/2,ulp/2]. We bound the probability that the accumulated errors were never above a given threshold. Quick highest order instantiation after almost a billion operations in single precision with a probability of failure below one against almost a billion shows about a fourth of the bits are significant where worst case analysis considers that no significant bit remains. Future developments will use Doob's original inequality that follows a proof path very different form Doob-Kolmogorov inequality used in former developments.


Analyse statique de systèmes hybrides discrets-continus

Par Bouissou Olivier (CEA-LIST) le 2008-09-18