Accueil 1972 - 2005

Rapport d'activité

Jean Sallantin, Novembre 2005

LIRMM
Laboratoire d'Informatique, de Robotique et de Micro-Électronique de Montpellier
161, rue Ada, 34392 Montpellier Cedex 5, France

couriel Cette adresse email est protégée contre les robots des spammeurs, vous devez activer Javascript pour la voir.


Ma recherche porte sur la rationalité dans l’activité de découverte scientifique conduite par des personnes assistées de machines capables d’apprendre.

Dans l’étude de la découverte scientifique, la pluridisciplinarité est une obligation d’ordre expérimental. Mais plus encore, elle est une nécessité d’ordre théorique, car, la logique et les mathématiques sont les seuls langages à même de dévoiler les théories qui expliqueront le pourquoi du progrès scientifique. L’expérimentation m’a conduit à travailler principalement en géophysique, biologie moléculaire, robotique et microélectronique et en droit. La théorisation me fait travailler avec des philosophes et des mathématiciens.

Ce rapport d’activité est organisé en trois parties. Une première partie résume les points forts de mes travaux entre 1974 et 2005. Dans la seconde partie, je dresse le bilan de mes travaux. La troisième partie décrit les perspectives des recherches en cours.

 

Sommaire

Le passé : les grandes lignes de recherche

Mes travaux de première thèse (1,19,20,21) portaient sur une extension de la théorie de l'information généralisée de Kampé de Fériet à la logique Quantique. Une fois recruté au CNRS, j’ai cherché à appliquer les outils et méthodes mathématiques employés en Physique Quantique à la représentation des connaissances dans d’autres sciences que la Physique Quantique (51). J’ai repris en cela la démarche de Satosi Watanabe qui avait conçu un formalisme “ Propensity Theory ”, en correspondance avec la Logique Quantique. Dans ce formalisme, les transformations de Karhunen Loeve, qui sont appliquées pour comprimer des signaux et des images, étaient prouvées comme étant celles qui fournissent les compressions optimales du signal. J’ai transféré des formalismes mathématiques et des modes opératoires de la physique quantique, pour les utiliser pour résoudre des problèmes de reconnaissance de formes. J’ai ainsi conçu une méthode d'apprentissage supervisée à partir d'exemples, qui reprenait les principes de représentation par des algèbres d'opérateurs pratiqués en mécanique quantique (53,55). Je l'ai expérimentée avec succès en Reconnaissance de Formes : d'abord pour la reconnaissance des malformations cardiaques sur les images pulmonaires (52,54), puis pour la prédiction de tremblements de terre (22).

Dans mon travail de thèse d’Etat (2) j’ai proposé un formalisme permettant de confronter les formalismes des logiques classiques et non classiques (modales ou flou et quantique).

Sommaire

De 1979 à 1985 :

Treillis ortho modulaires et semi modulaires en apprentissage

En cette période de guerre froide, la prévision sismique faisait partie des quelques sujets de coopération scientifique entre les USA et l’Union Soviétique. Le CNRS via l’IPG Paris collaborait avec l’Académie Soviétique. J’ai participé à un projet pluri-disciplinaire sur la prévision sismique regroupant géophysiciens, informaticiens et mathématiciens. L’intuition du responsable de la collaboration Keilis Borok était basée sur le constat suivant “ les tremblements de terre ont créé les reliefs montagneux ”. Le postulat de l’étude était d’utiliser les propriétés géomorphologiques des zones montagneuses présentant des fracturations pour prédire des zones à un risque sismique. J’ai participé aux études sur le Caucase, les Alpes et le Pamir. Le problème à résoudre était le suivant : disposant pour apprendre de la description des séismes historiques, l’objectif était de prédire d’autres zones candidates. Comme les séismes historiques sont peu nombreux, une bonne méthode de prédiction devait non seulement bien prédire mais aussi rétro-prédire, c’est-à-dire, être capable d’expliquer les raisons d'un échec de prédiction. Cette rétro-prédiction devait permettre de tirer parti de cet échec de manière à reprendre la formulation du problème afin d’améliorer la capacité prédictive. Dans notre amicale compétition entre informaticiens franco-russes, le jeu consistait de créer la méthode d’apprentissage qui prédisait correctement en effectuant l’apprentissage avec le moins de séismes historiques ordonnés dans le temps. Ma méthode par sous-espace vectoriel avait été battue par une méthode Cora reprise des travaux de Bongard et mise au point par les chercheurs de l’équipe animé par le grand mathématicien russe Gelfand. Je me suis inspiré du formalisme de cette dernière méthode pour faire une méthode appelée CALM : Contester pour Apprendre en Logique Modale qui a gagné à l'époque le challenge. (29,30, 60)

Cette recherche m'a fait apprécier l’efficacité d’une combinaison pluridisciplinaire associant les mathématiques, l’informatique et un domaine de science expérimentale ici la géophysique. J’ai énormément appris en travaillant avec les mathématiciens russes de l’équipe de Gelfand et les informaticiens issus de l’équipe de Bongard.

Birkhoff a inventé les treillis pour formaliser la mécanique quantique, nous avons formalisé nos méthodes en fonctions de leurs propriétés algébriques de treillis modulaires : ortho-modulaires (les sous-espaces vectoriels utilisés en mécanique quantique), semi-modulaires (Cora CALM). La propriété majeure des formalismes quantiques est la correspondance de Galois. J’ai appris depuis gràce à notre collaboration CATIA avec le département Topologie, Géométrie et Algèbre de Montpellier II comment cette propriété sert à établir une sémantique formelle à ces méthodes.

Mais les représentations par sous-espaces vectoriels ne sont pas adaptées à une description qualitative des exemples, ces observations théoriques m’ont mené vers les logiques majoritaires qui forment un treillis modulaire,(2). Ces dernières présentent également une résistance au bruit comme l'a démontré John Von Neuman. Ce dernier se servait des logiques majoritaires pour gérer une redondance du code lui permettant de réussir à calculer avec les premiers ordinateurs malgré les lampes qui grillaient.

La propriété de modularité traite les exemples comme des vecteurs qui s’additionnent. Elle permet ainsi de superposer des exemples donnant un sens à la notion de dimension. La mesure de la dimension d’un sous-espace est formellement définie comme étant une mesure (pro-mesure pour Bourbaki) donnée par la dimension de l’espace engendré par une famille d’exemples. La propriété de distributivité fait disparaître cette notion d’approximation. En effet, se donner la distributivité, revient à supposer que les exemples sont a priori indépendants, ils engendrent alors un treillis dont la dimension est le nombre des exemples. Il faut bien admettre que la complétude d’une connaissance produite par des exemples indépendants est invérifiable en pratique. On retrouve ce problème de l’indépendance des exemples quand on cherche à estimer la convergence en moyenne de l’induction bayesienne.

L’utilisation de la modularité permet de calculer en tenant compte des erreurs et des incomplétudes des données. Mais comme ce choix fait perdre la notion classique d'implication, il n’a pas été retenu dans les travaux dominants de l’intelligence artificielle qui fondent la justesse des raisonnements dans des logiques distributives. Les logiques modulaires utilisent pour prédire des méthodes proches de la régression linéaire. Chaque descripteur est prédit et rétro-prédit à partir de paquets de règles. La décision se fait par un vote majoritaire tenant compte, pour chaque descripteur, des prédictions correctes de sa valeur, contestables de sa valeur et également de l’absence de prédiction de sa valeur. Les succès prédictifs de ces méthodes de reconnaissance de formes impliquait un approfondissement des formalismes mathématiques justifiant ces résultats. Ce travail de formalisation a été l’objet de ma thèse d’état.(2)

Sommaire

Mise en évidence de la nécessité de nouveaux formalismes

Dans ma période parisienne à Paris VI (groupe Claude François Picard), (7, 23, 27, 51, 53, 55, 56) j’avais examiné différents problèmes posés par les formalisations logiques de la représentation des connaissances. Par exemple avec Thierry Van der Pyl, nous avions pu montrer que l'induction bayésienne ne convergeait pas en moyenne. Elle converge en moyenne seulement dans le cas d'une indépendance conditionnelle effective des tests. Cette hypothèse d’indépendance n’est pas acceptable d’un point de vue épistémologique car nous avons montré que l’indépendance conditionnelle des tests est une propriété algébrique qui ne peut pas être approchée à la limite par des dépendances conditionnelles entre tests.

On recense bien d'autres situations dans lesquelles un raisonnement logique sur des connaissances approximatives conduit à mener une critique épistémologique sur les théories axiomatiques qui ont été choisies comme fondement des calculs. Après avoir démontré formellement l’incohérence épistémologique des méthodes proposées des collègues, je me suis rendu compte (58) que je faisais la même erreur épistémologique. Dans les formalismes de ma thèse d'état, la convergence des suites d’induction n’était pas approximable car ces formalismes produisaient des résultats dépendants de l’ordre des opérations (absence de confluence des calculs).

Avec Thierry Van der Pyl, (24, 25, 28, 57, 59), nous avons d’abord suspecté le choix des mesures d’information servant à estimer les valeurs des résultats. Nous avons imaginé d’autres mesures d’information constituées comme des dimensions de Hausdorff. Pour ces dernières, nous avons montré la convergence du processus d’induction sur les nombres P-adiques. Très récemment en 2003 des travaux en théorie de l’information ont confirmé le lien qui existe entre les informations généralisées et les modèles algébriques. J’ai enfin une piste pour exploiter pratiquement ce résultat.

Je voyais à l’époque plutôt dans ces résultats négatifs une remise en cause de toute la ligne de recherche en apprentissage (3 8, 37, 39) justifiant la représentation de théories avec des logiques mêmes exotiques. A cette époque, je ne trouvais pas, sur les étagères mathématiques, les outils dont j’avais besoin. Depuis, 2000, j’ai repris en collaboration avec un travail de formalisation avec l’équipe de Daniel Guin, Géométrie Topologie et Algèbre qui s’appuie sur les formalisations des logiques et du calcul en géométrie algébrique. Une bonne compréhension des concepts de bases de la théorie des catégories permet d’appréhender la construction des représentations des connaissances.

A l’instar de Satosi Watanabe, j’ai choisi d’aborder le problème de la construction interactive de théorie par un travail d’expérimentation de la démarche scientifique qui, pour ne pas devenir dépendant d’un domaine scientifique, est marqué par un changement périodique de domaine scientifique d’expérimentation.

Ma démarche à long terme s’est dégagée :

  1. Approfondissement conceptuel et formel du domaine de la formation de théories scientifiques.
  2. Face à un problème de formalisation posé dans un domaine scientifique, il s’agit de déterminer comment l’interaction avec les scientifiques du domaine permet de formuler des théories axiomatiques lors d’une suite d’inductions et d’abductions.
  3. Dans cette théorie, (1)la correction des prédictions calculées doit pouvoir être estimée et (2) les erreurs expliquées doivent être source des révisions de la théorie.

Ma démarche scientifique s’est aussi précisée : il s’agit de mener en parallèle :

  1. Une démarche interdisciplinaire: Expérimenter la formation de théories dans divers domaines scientifiques.
  2. Un transfert scientifique loyal : Chaque expérimentation devra être menée jusqu’à la publication de résultats scientifiques dans les revues du domaine scientifique.
  3. Une conceptualisation en correspondance avec une formalisation du problème

Je suis ainsi entré dans une démarche pluri-disciplinaire, qui est très coûteuse en temps, en travail d’ingénierie informatique pour parvenir à produire et tester de nouvelles méthodes dans une discipline.

Sommaire

De 1985 à 2000 :

Je suis venu à Montpellier pour y constituer un groupement Scientifique pluridisciplinaire le GS DIARL qui a été le berceau du développement à Montpellier de l’informatique et de ses applications en biologie, chimie et santé avec la participation de Sanofi et de Framatome. Je m’en suis occupé comme directeur de 85 à 90. Il a ouvert la route aux GDR nationaux info génome et Chimie qui ont élargi ces actions à un niveau national auxquels j’ai participé.

La constitution du LIRMM a rapproché Robotique et Microélectronique de l’Informatique. Depuis 1992, je me suis intéressé à la conception de machines intelligentes depuis les circuits reconfigurables et la partition matérielle logicielle jusqu’au comportement d’une machine, sa rationalité et sa supervision par un opérateur pour parvenir enfin aux systèmes socialement organisés associant homme et machine.

J’ai conservé la même ligne de conduite: « outils généraux pour des problèmes généraux ». Cependant les expérimentations sont devenus de plus en plus diversifiées et de plus en plus lourdes avec un double effet.

  • Confirmation de la généricité de démarche
  • Nécessité de passer de démonstrateurs à des prototypes suffisamment robustes pour être mis à la disposition des équipes avec qui nous collaborons.

Cette seconde conséquence, m’a conduit à faire financer la fabrication de démonstrateurs dans des collaborations avec des industriels EURIWARE, BNP-PARIBAS, AREVA. J’ai également appris des rudiments sur le métier qui consiste à collaborer avec des industriels afin de leur permettre de tirer profit des résultats de recherche fondamentale.

Sommaire

Apprentissage avec des treillis modulaires

Ma recherche a porté sur les méthodes d’apprentissage s’appuyant sur des treillis modulaires. De manière systématique, je suis allé jusqu’à la publication de résultats scientifiques dans le domaine de l'application. Chaque application dégageait une relation particulière entre l’apprentissage et la construction interactive d’un modèle publiable dans le domaine. Citons par exemple, l'analyse des spectres RMN en chimie, le classement des Abbayes Cisterciennes. La dernière application d'un successeur de CALM est publiée en 1999 en archéologie. Une étude menée avec Henry Soldano en collaboration avec le BRGM, l'IPG, le CEA et l'équipe moscovite a servi à publier une carte du risque sismique dans les Alpes. Le logiciel d'apprentissage de cette application était écrit en APL il m'a valu un prix scientifique de l’AFCET. Le résultat théorique le plus important que nous avons obtenu porte sur les treillis modulaires, il montre que seules les fonctions symétriques sont fortement apprenables, les démonstrations dans un sens et dans l’autre ont été trouvées par (Boucheron 90, Jappy & Nock 96) (73, 79). Il y a en ce moment un regain d’intérêt pour les treillis et matroïdes dont nous comptons profiter. Les méthodes d’apprentissage fondées sur des treillis modulaires ont eu des résultats marquants dans les domaines scientifiques suivants.

>Sommaire

Annotation des séquences génétiques

J’ai abordé en 1980, la recherche de motifs dans l'analyse des séquences génétiques. Ce problème est maintenant connu sous le nom d’ “ annotation des séquences biologiques ”, il s’agit de faire des outils pour assister le biologiste à examiner la masse des documents et des séquences requises pour interpréter une séquence biologique. Le principe biologique (théorie du bricolage), qui fonde notre démarche, est de rechercher les structures stables et régulières que l’évolution a combinées entre elles pour produire les protéines et leurs assemblages (qui nous constituent). Il s’agit de fournir au biologiste les moyens de déterminer des régularités sur la description des séquences et de leurs interactions primaires (motif), secondaires (hélice, feuillet), tertiaire (contact). Ces travaux de recherche appliquée m’ont valu le prix Mannesman Kiensle (89). Les résultats théoriques les plus avancés ont été réalisés dans les thèses de Jérôme Gracy et d’Engelbert Mephu Nguifo.

En France, le domaine de l'analyse des séquences est l’objet de deux regards : (1) pour les biologistes, la bio-informatique est essentiellement un service informatique pour la biologie, (2) pour beaucoup d’informaticiens, la biologie moléculaire est un simple domaine d'application. (3) De mon point de vue, elle est le domaine d’une réflexion théorique sur le traitement de l’information par les systèmes vivants : elle réclamerait un vaste programme de recherche sur une biologie des calculs ! Programme que l’on retrouve maintenant dans les préoccupations des instituts de la complexité.

En 83, j’ai créé à l’Institut Curie l’Atelier de Bio-Informatique (ABI) qui fût la première structure de recherche établie en France sur l’analyse des séquences. Je suis arrivé en 85 à Montpellier avec la mission de développer un groupement scientifique sur l'analyse des séquences génétiques et j’avais l’intention de monter une recherche en Science et Technologie de l’Information sur une reprise des principes de traitement de l’information de la biologie moléculaire (2). J’ai organisé à Montpellier IABIOMED qui fût le premier congrès mondial sur le sujet. J’avais organisé à l’institut Curie les premiers “ points de Curie ” rencontres pluri-disciplinaires nationales confrontant les deux premières visions.

En 1992, j’ai été nommé Chargé de Mission à mi-temps au ministère de la recherche. Faute de temps, j’ai temporairement mis en veille mes recherches sur les séquences génétiques et j’ai déporté mon intérêt sur des problèmes intéressant directement mes collègues roboticiens et micro-électroniciens du LIRMM (méthodologie de test des robots, codesign et agent intelligent). J’ai transféré sur ces problèmes les méthodes et les outils qui avaient fait leurs preuves en analyse des séquences génétiques.

Les études de Jérôme Gracy ont rapidement montré les limites d’une gestion de l’information littérale (littéraire) sur les séquences, il fallait rajouter des informations sur les phénomènes physiques, chimiques et biologiques, sur leur repliement secondaire, tertiaire et quaternaire. Et plus encore, il fallait prendre en compte leur stabilité dynamique et traiter les séquences comme agitées par des processus dynamiques. Il m’a semblé inutile de perdre mon temps à raffiner des méthodes de recherche de motifs ne prenant pas en charge une description suffisamment complète des séquences. Il m’a semblé plus utile de déporter mon activité sur l’analyse de nouvelles séquences celles des suites de calculs guidant le comportement de robots autonomes influencés par leur environnement.

Cette migration vers les robots est venue très naturellement de l’étude faite avec Eric Lemoine sur l’utilisation des architectures reconfigurables pour détecter les motifs des séquences génétiques. En effet, pour gagner un ordre 3 sur le temps de détection d’un motif, il fallait placer, de manière compacte sur les FPGA de la carte DEC Perl, les contraintes logiques servant à détecter les motifs. Les propriétés de modularité des méthodes d’apprentissage ont pris alors leur pleine puissance.

Sommaire

Approfondissement conceptuels : le phi-calcul

Dans les travaux théoriques, on distingue les travaux conceptuels servant à dégager les concepts et les travaux de sémantique formelle servant à les définir. Depuis 1985, le travail de conceptualisation s’est fait en collaboration avec Jean Jacques Szczéciniarz, professeur de philosophie Paris 7. Il est épistémologue et un mathématicien très actif en géométrie (40, 41, 42). J’ai poursuivi avec lui depuis 1985 un travail de réflexion sur la construction de théories en sciences. Nous avons animé conjointement comme directeurs d'étude au collège international de philosophie un séminaire sciences et philosophie qui finalement s'est centré sur philosophie et calcul. Nous avons, en 1991, proposé une conceptualisation appelée théorie semi empirique de la construction interactive de théories. Nous avons animé une recherche pluridisciplinaire sur le concept de preuve en science. Il a donné lieu à un livre La preuve à la lumière de l’IA. (XX)Ce livre a été publié en 1999 aux PUF. Une version en italien va être publié par les éditions GIUFFRE en septembre 2005 Nous avons, à cette occasion, rédigé, une postface qui fait le bilan des travaux conceptuels que nous avons menés.

Sommaire

Approfondissements formels et opératoires

Les premiers travaux formels (62,63, 65, 71), menés par Joël Quinqueton et moi-même ont dégagé des directions de recherches qui étaient au départ ancrées dans une problématique de type reconnaissance de formes. Ces travaux ont progressivement évolué vers des problématiques de représentation des connaissances (72, 73, 75, 76)

Sommaire

Apprentissage à partir d’objets structurés et correspondance de Galois

Les travaux de thèse d’Engelbert Mephu et Michel Liquière ont apporté deux innovations majeures : l’apprentissage à partir d’objets structurés et l’utilisation de treillis de Galois. Ces deux chercheurs ont depuis de remarquables dans ces directions. La progression de leurs recherches dans ce domaine est dans de bonnes mains.. (82 83, 108, 115) La structure du treillis de Galois possède une représentation géométrique avec des propriétés de symétrie et d'invariance. On trouve dans la construction de la correspondance de Galois à partir d'un treillis, deux ordres partiels : des exemples sont des objets structurés ordonnés par inclusion et les propriétés sont ordonnés par implications. On procède à ces deux opérations :

  1. la propositionnalisation : la recherche d'une description propositionnelle des exemples conservant la classification par inclusion.
  2. la prototypicalisation : la recherche de prototype regroupant les exemples pour une propositionalisation donnée.
Sommaire

Formaliser la supervision de système capable d’apprendre

Les agents rationnels sont des systèmes ayant une autonomie de perception et d’action et qui restent contrôlables par règles. Les principes de contrôle sont dialectiques car ils gèrent un compromis entre une sécurité de fonctionnement et une liberté qui leur est impartie (7,8,9, 39,40,75,77,78,81, 88). Reprenons de façon rapide la description de la construction de connaissances.

  1. Il y a au départ un expert qui veut construire interactivement avec le système, une connaissance sur son domaine. Pour cela, il va établir un ensemble de termes hiérarchisés qui servent à décrire des catégories d’exemples qui vont servir lors de l’apprentissage de l’agent rationnel.
  2. L’instructeur impose en outre des contraintes a priori portant sur les termes et que doivent respecter les exemples.
  3. Le processus de passage de cette vision pragmatique à une vision cognitive du savoir passe par une description propositionnelle des cas proposés par l’instructeur.
  4. L’apprentissage fait se correspondre les ensembles de descriptions propositionnelles des exemples et une description en intension de la catégorie d’exemples. Il engendre simultanément une base de prototypes suffisants pour séparer les exemples et un certain nombre de termes qui décrivent les exemples de manière propositionnelle de sorte qu’il retrouve la structure d'ordre autrement dit le treillis des partitions d’exemples. La représentation cognitive des connaissances apprises procède ainsi à la construction de contraintes apprises qui s’appliquent sur des exemples selon une logique paraconsistante.
  5. Un exemple nouveau fourni par l’instructeur peut provoquer une contradiction et l’agent rationnel présente l’ensemble des contraintes violées.
  6. D’où le retour à l’instructeur qui constate la source de la contradiction sur les exemples, de sa pertinence . Il va alors revoir l’ensemble des termes, modifier les contraintes source de contradictions malheureuses qu’il a posées, modifier les exemples et demander à l’AR de rétablir sa cohérence en réapprenant.
Sommaire

Bruit et apprenabilité

Nos méthodes d’apprentissage construisent des expressions vérifiant une logique majoritaire. Ce qui veut dire que les règles apprises sont invariantes par symétrie et que les règles vérifient une opération externe d’additivité : plus un exemple vérifie de règles plus il est correct. Cette méthode d’apprentissage a été montrée par Stephane Boucheron et Richard. Nock comme nécessaire et suffisante pour les méthodes d’apprentissage fortement apprenables, c’est-à-dire capables d’apprendre en présence de bruit (76 79).

Sommaire

Réalisation matérielle d’Agents rationnels

La conception d’agents rationnels implique de dominer les différents temps de réponse d’un calcul s’exerçant à différents niveaux. Nous avons examiné à différentes échelles la conception de ces machines. L’ensemble de ces études ont été réalisées dans des projets menés en collaboration.

  1. La programmation de la carte physique avec les machines reconfigurables.
  2. La conception conjointe de système matériel/logiciel.
  3. La machine ayant une autonomie dans un environnement.
  4. La supervision par un opérateur humain d’une machine autonome.
  5. La supervision par un opérateur humain de la production d’un jeu coopératif réalisé par un ensemble de machines autonomes.
  6. La supervision par une institution d’un ensemble d’opérateurs humains assistés par des machines autonomes.
  7. L’impact sur la culture et la société des nouvelles technologies de l’information et des communications.

Ces niveaux se composent :

  1. . Les niveaux (1), (2 )et (3) servent à définir des robots autonomes réactifs.
  2. prise en compte des ressources de calcul par les processus ,
  3. prise en compte de l’adaptation et de l’évolution des calculs,
  4. prise en compte du comportement du calcul, de l’environnement du calcul.
  5. Les niveaux (4) et (5 ) servent à définir un agent rationnel
  6. (4) prise en compte de l’activité de supervision par l’utilisateur d’un calculateur,
  7. (5) prise en compte d’un jeu entre calculateurs.
  8. Les niveaux (6) et (7) servent à définir le jeu des institutions :
  9. (6) Réglementation d’un jeu institutionnel via les agents rationnels assistant les opérateurs,
  10. (7) Prise en compte de l’influence des calculs sur les équilibres socio-culturels d’une société.

Présentons les différentes études menées sur les niveaux de supervision des calculs.

Sommaire

Les Architectures Dynamiquement Reconfigurables

Nous avons aussi utilisé une architecture à base de FPGA pour rechercher rapidement des motifs dans les séquences génétiques. Le principe est de modifier l'architecture physique d'une carte afin d’y introduire un treillis de règles apprises organisé de telle manière qu'une recherche de motif se fasse en une seule instruction. Sur la Carte PERL de Jean Vuillemin, nous avons pu faire en 100 s ce qui demandait 10000s sans architectures reconfigurables sur la recherche de motifs dans les séquences à partir de régularités apprises. Ce travail fait partie de la thèse d'Eric Lemoine. Il a été soutenu par le PRC architecture nouvelle des machines ANM.

Sommaire

Conception incrémentale d’architectures conjointes matérielle/logicielle

Les conceptions interactives ont étendu les principes des architectures à base de FPGA au test d'architecture mixte matérielle/logicielle. Ce projet a été réalisé avec les micro-électroniciens du LIRMM dans le cadre d'une CTI France telecom, le projet “ co-design ”. Le travail s'est appuyé sur le travail d'Eric Lemoine sur les architectures reconfigurables. et sa suite a été réalisé par Laurent Maillet Contoz. Nous avons défini une problématique de conception conjointe de système mixte matériel/logiciel. La partition du système en composants logiciels et matériels est testée sur une plate forme de test à base de FPGA. Le système Wombat gère les différentes tentatives et il enregistre les traces des essais. Nous avons examiné la faisabilité d'agents dont le but est de compléter des données expérimentales pour invalider des conjectures.

Sommaire

Méthodologie de test de l’autonomie des agents

Un robot autonome a un comportement influencé par son environnement. Dans certains environnements, le robot peut échapper au contrôle de son superviseur. La DGA nous a proposé de travailler à concevoir une nouvelle méthodologie de test de l'autonomie de robot. Ce travail réalisé par Luc Yriarte nous a conduit à programmer dans une architecture multi-agents un robot et son simulateur pour être capable de comparer un fonctionnement effectif et un fonctionnement simulé Ainsi nous avons pu faire évoluer la modélisation. Cette étude va être reprise en 2005 dans le cadre du projet “ Humanoïde autonome ”.

Sommaire

Serveurs d'informations

Dans notre convention de collaboration avec la société Euriware, notre objectif est de concevoir et d’expérimenter des serveurs intelligents en prenant mieux en compte l’interaction avec les données et les utilisateurs. Un agent rationnel peut être vu demain comme une machine qui nous aide à dominer une information compliquée comme celle qui est à notre disposition sur le Web. David Merceron a étudié l'utilisation de l'apprentissage et des contraintes pour accélérer les serveurs d'information. Emmanuel Castro travaille sur la détection d’ambiguïtés par l’utilisation d’un médiateur à base de contrainte. Jean Michel Rodriguez dans son travail de thèse a repris ce problème selon une démarche nouvelle. Il s'agit de gérer les différentes tâches de conception interactive de documents du serveur pour en faciliter l’adaptation et la révision.

L'analyse des séquences génétiques est notre domaine privilégié pour intégrer. nous avons pu y intégrer des études de types (1), (2), (4) dans un serveur Bio-Lirmm-assistant Le système Minos réalisé par Hugues Ripoche expérimentait les principes à la base de la construction interactive de l’interprétation des données. Ce système s'appuyait sur les outils réalisés par Jérôme Gracy sur l'analyse structurale des protéines par apprentissage. Il utilisait les méthodes d'alignement multiple avec point d'ancrage de Jérôme Gracy. Il se servait également des méthodes d'apprentissage de type treillis de Galois d’Engelbert Mephu pour construire dynamiquement un système de navigation dans les séquences. Ces études ont été financées par le GREG. La collaboration avec Isabelle Mougenot, (ingénieur Euriware) a produit deux articles acceptés en 1999, un en 2000 et une participation à un workshop 2001. Isabelle Mougenot est maintenant maître de conférence en Info/Bio et travaille avec nous dans le projet IST Oriel.

Sommaire

Transactions électroniques

Un marché est un système complexe où interagissent de nombreux vendeurs et acheteurs. La dynamique du marché dépend fortement du fonctionnement des vendeurs et des acheteurs. Mathieu Latourrette a utilisé les théories de l’apprentissage et la théorie des jeux pour montrer sur des modèles de marchés simples qu’il était possible de conserver la place de marché dans une situation de guerre des prix.Une retombée intéressante de ce travail d’assister un utilisateur à définir ses préférences. Une demande de brevet européen a été déposée par France Telecom et le CNRS sur ce point. Mathieu Lattourrette a fait un produit industriel sur ce principe.

Sommaire

Construction interactive de savoir

La découverte scientifique implique les niveaux d’interaction 4, 5, 6. Nous abordons maintenant ces niveaux et leurs intrications dans la construction interactive de théories.


Trois méthodologies interfèrent. Un apprentissage social est fondé sur le comportement d’un groupe de scientifiques. L’apprentissage supervisé a été illustré précédemment. Illustrons l’apprentissage social, sur une expérimentation en Droit. A un senior juriste confirmé sont confiés deux étudiants de DEA, les juniors, pour trois mois. Ils vont devoir théoriser un domaine du droit des contrats. Ils disposent d’outils d’apprentissage et d’un propagateur de contraintes. Pour y parvenir, ils produisent un premier modèle accepté par le senior. Ils produisent alors des contrats paradoxaux car vérifiant la théorie et parfaitement stupides à leurs yeux. Le senior, troublé par les contradictions de la théorie qu’il a approuvée, participe activement à la correction. L’expérience fut reproduite sur une dizaine d’année par une quarantaine de juniors. Elle montre que le processus d’apprentissage social converge en une dizaine de cycles.

Ce processus est expérimenté cette année avec 11 élèves de l’école nationale de la magistrature. L’objectif est de faire un système permettant aux juges d’examiner quel est leur biais quand ils attribuent une peine à un délit (O18 ) (Conf135). En retombée de ces études il a été construit un outil de construction interactive des ontologies sera expérimenté cet été sur les contrats de convention de collaboration du CNRS

 

Présentons les expérimentations en cours avec le CREA et la société NORMIND sur la modélisation interactive d’organisations. Le problème posé est l’apprentissage collectif d’un calcul noethérien et confluent. Il s’agit de trouver une règle cachée qui est apprenable, quelque soit le biais initial figuré par une suite de carte. Les chercheurs se regroupent librement en groupe de travail qui partagent leur expérience (apprentissage social) et qui publient la loi qu’ils découvrent. Ces groupe de travail sont organisés en une communauté scientifique. Dans une communauté scientifique, les groupes de travail cherchent à augmenter leur crédit. Ils s’imitent, se réfutent en proposant un contre exemple et ils publient. (conf131) (Conf 133). L’expérience consiste à examiner les stratégies des joueurs et leurs impacts sur la convergence du processus. Une plateforme expérimentale est en cours de réalisation. Six expériences ont été menées avec le CREA (stage de DEA, publications acceptées.)

Sommaire

Construction interactive de théories

Quelques prolégomènes, ils représentent l’objectif et la façon dont pour le moment nous le visons : « introduire dans le formalisme même, le domaine expérimenté et l’expérimentation ».

  1. Les connaissances empiriques et théoriques sont toutes deux décrites dans un système formel.
  2. La connaissance théorique est décrite dans un système formel logiquement consistant.
  3. La connaissance théorique est produite par abduction à partir de connaissance empirique (nous re-précisons le concept d’abduction).
  4. Les termes théoriques donnent la définition de termes empiriques qui sont utilisés pour faire des inférences dans la connaissance empirique.

Théorie veut dire : possibilité matérielle de développement grâce à la construction d’une base qui génère, à cause d’un certain type de concentration de son unité et de la diversité théorique, des théorèmes d’une portée donnée. La théorie est une base pour une inférence donc elle est liée au franchissement d’un niveau, d’une couche supérieure qui permet de remplir le domaine de la visée. On admet l’existence de règles de formation et de règles de vérification pour des propositions scientifiques. Il est important de considérer que la signification d’une proposition lui vient des règles de vérification.

Cette remarque a plusieurs sens elle-même. On pourrait y voir une règle carnapienne, mais elle possède une signification plus opératoire et une portée un peu différente. Elle reste une marque d'un formalisme en formation ou formalisme de l’accord. Car les règles sont produites par extraction à partir des données qui sont fournies. Les exemples dans le cours de leur production et de leur enchaînement mettent à jour les règles qui les contraignent et qui nous montrent ainsi les raisons de leur présence dans le cadre qui les reçoit ainsi que de leur enchaînement.

Ceci a pour conséquence de faire de la théorie de la preuve ainsi proposée l'établissement des conditions de propagation d'accords en cours de formation. C'est dans ce cadre qu'il faut comprendre que les études se développent dans le sens d'une exploration des relations entre différents types de conflits et de transactions. Et donc, que les études se soient orientées du côté du Droit.

Avec Germana Nobrega, nous avons étudié les aspects inductifs et abductifs et le jeu social engagé dans la construction d’un savoir. Nous avons dégagé les comportements élémentaires et les principes de leur assemblage dans la construction interactive de théories scientifiques. Nous avons examiné comment de ces comportements vont émerger par catégorisation et dissociation les niveaux symboliques et logiques servant à la construction d’une signification.

Mes publications dans ce domaine apportent des éléments de formalisation sur la construction de savoir.

  1. Retenir pour réagir ” (98) Cet article approfondit le point de vue développé par Newell dans son livre ``Unified Theory of Cognition. Il tient compte des positions de Grize sur la logique et le langage pour proposer un début de formalisation de l'intention et du jugement pour des agents rationnels.
  2. Ce que peut apprendre une machine (13)Cet article présente de manière conceptuelle le cadre de l'apprentissage par machine. Il introduit le besoin d'interaction pour dégager du sens dans le fatras d'information qu'une machine peut apprendre.
  3. “ Cadre probatoire ” (15)Cet article définit des cadres “ probatoires ” pour formaliser la relation entre une logique des normes et des comportements. Il expose les différences entre les cadres empiriques et analytiques en utilisant les relations d'accessibilité entre mondes.
  4. “ Les agents intelligents : (3 chapitre 1) ” Ce chapitre de mon livre positionne les concepts du calcul philosophique face à ceux de la logique. Il montre en particulier comment le travail de Jules Vuillemin sur les systèmes philosophiques de la tradition permet leur confrontation. Il s'en sert pour expliquer des résultats de Osherson et Martin sur les limites de l'apprentissage par Machine.
  5. “ Les rationalités des agents ”(118) Cet article présente dans un même cadre conceptuel les théories de Popper, Peirce et Simon. Un exemple explique comment concevoir des agents rationnels capables de rationalité délibérée.
  6. “ Que peut-on faire avec des agents rationnels? ” Cette conférence invitée propose un cadre appelé cube d'Aristote pour concevoir de manière unifiée les actes de discours, les intentions et les jugements d'un agent rationnel.
  7. “ Les dimensions en informatique ” Cette conférence invitée a eu lieu à la maison des sciences de l'homme dans un séminaire sur le raisonnement géométrique. J'ai exposé comment les notions d'ontologie et d'adjonction reprenaient en informatique les concepts géométriques de dimension. (MSH Série Document de travail Dimension 2,3,4 juin 1997)
  8. “ Le temps, la pensée et le calcul : une stratification des calculs pour fonder une ontologie ” (49)Cet article de la revue “ Epistémologiques ” est une rédaction de la conférence invitée donnée à Nanterre au colloque en l'honneur de Jacques Merleau Ponty. J'y donne les bases conceptuelles de la méthodologie du PHI-CALCUL et je la confronte à l'approche de Newell.
  9. “ La preuve à la lumière (?) de l'I.A. ” Cet article écrit avec Jean Jacques Szczéciniarz expose une synthèse sur le concept de preuve, il introduit les contributions des auteurs du livre publié au PUF en 2000
  10. Postface du livre IA pour la traduction italienne. Cette postface écrite avec Jean Jacques Szczéciniarz se fixe pour objectifs d'abord de présenter l'état des travaux sur la preuve au vu de la réalisation des travaux que nous avions entrepris et ensuite de transmettre au lecteur une description des directions que ces travaux empruntent maintenant. (022)
  11. « Modalité par agents rationnels » rédigé avec Jean Jacques Szczeciniarz, nous construisons des modalités donnant aux agents rationnels la capacité de localiser ces ambiguïtés et de permettre la révision de leur savoir. (R51)
  12. « Agents rationnels ». Cinq articles décrivent leur conceptualisation, formalisation et expérimentation. (020) (021) (Conf :131 132 133) . Une formalisation catégorielle permet de raisonner sur les morphismes entre ensembles sans avoir à préciser les objets de chaque ensemble. Donnons l’idée d’une sémantique formelle à la résolution de problèmes par agent rationnel. Posons que le langage est une catégorie dont les objets sont les énoncés et dont les flèches sont les règles de récriture de ces énoncés. Une question Q est un foncteur qui transforme le langage en un langage servant à formuler des problèmes. Une réponse R est un foncteur qui transforme le langage en un langage servant à formuler des solutions. Une recherche scientifique compose ces foncteurs pour déterminer des solutions aux problèmes et localiser les erreurs. Une démarche cartésienne consiste à poser que la solution d’un problème correspond à celle que l’on obtiendrait en décomposant un problème en un ensemble de sous problèmes ayant des solutions et puis en composant la réponse à partir des solutions données en réponse aux sous problèmes. L’idée est de poser comme un problème universel la production d’un cadre cartésien de résolution de problèmes. Ensuite, en emboîtant les cadres cartésiens construire une cognition rationnelle. Comme la traduction d’une perception en un langage notionnel (ontologie) qui se conceptualise en une Théorie qui se logifie en calculs confluents et noethériens. Les violations des diagrammes commutatifs localisent les paradoxes et contradictions qui forcent la révision des théories. On obtient ainsi un système qui a une cognition rationnelle suffisante pour servir de greffier à un groupe de travail.
Sommaire

Thèses encadrées depuis 1995

  1. Eric Lemoine, (2001 consultant chez I2 en Californie) “ Une architecture reconfigurable dynamique ; application à la recherche de séquences génétiques dans les bases de données ” UM II, juillet 1995
  2. Hugues Ripoche, (ingénieur de recherche CNRS) “ Un environnement logiciel pour la construction interactive de l'interprétation d'un ensemble de données ” UM II, décembre 1995
  3. Laurent Maillet-Contoz, (chef de projet ST Thomson) “Conception d’un environnement d’aide à la conception incrémentale  : application au prototypage d’architecture mixte Matériel logiciel” UM II nov 1997
  4. Luc Yriarte, (ingénieur PALM) “ Modélisation et validation de robots autonomes : une méthodologie , des outils. ” UM II oct.1997
  5. François Régis Montclar, (ingénieur EDF) “ Résolution coopérative de problème : Elico et son application à la supervision de réseaux électriques ”. UM II Mars 1998.
  6. Jean Michel Rodriguez, (ingénieur IBM) “ adaptation interactive de documents dans le contexte des transactions électroniques ” UM II 14 juin 1999
  7. Mathieu Latourrette, (CTI France telecom et créateur d’entreprise ) “ `apprentissage et rationalité dans le contexte de transactions économiques ” soutenue en septembre 2001 (ingénieur et créateur d’une start-up)
  8. Germana Menezes da Nobrega , (Professeur université catholique de Brasilia) “ conception interactive aspect conceptuel et formel application à l’enseignement à distance décembre 2002 co-Direction Stefano CERRI
  9. Philippe Malbos (Maitre de conf en mathématiques LYON) “ Homologies de la réécriture” soutenance décembre 2003 co-direction Daniel GUIN ACI CATIA & Projets Méthodes algébriques pour la supervision de Systèmes Complexes
  10. Yves Guiraud (ATER) “ Modèles algébriques les systèmes de réécriture d’ordre supérieur” soutenue en juin 2004 co-direction Daniel GUIN. ACI CATIA & Projets Méthodes algébriques pour la supervision de Systèmes Complexes
Sommaire

Bilan de mes orientations de recherche.

Les chercheurs sont producteurs et transmetteurs de connaissances difficilement appropriables, aussi ils doivent :

  1. Observer et Interpréter théoriquement (expertiser, évaluer, alerter, s'investir via le détachement dans des associations ou des industries).
  2. Chercher et Enseigner (travail individuel et en équipe, de production de nouvelles connaissances, invention de nouveaux enseignements, encadrement de stage ou de thèse, opération de médiatisation des savoirs),
  3. Initier et Administrer des projets (rédiger et/ou répondre aux appels d'offre, animer la communauté, organiser des congrès, diriger des équipes ou des services, mener des actions de valorisation et de transfert.

Mon activité de recherche de trente ans s’est répartie sur ces trois axes de manière uniforme. Signalons les points les plus saillants.

Mon activité administrative pluridisciplinaire et de recherche finalisée a été forte entre les années 80 et 94 : création de laboratoire ABI Curie puis GS DIALR développant l’Infogénome sur Montpellier, Montage des projets infogénomes nationaux, Chargé de Mission au ministère de la recherche 91 94. Depuis 1996 je travaille à mener des activités de valorisation et de transfert. Depuis 2000, j’ai été très impliqué dans des projets européens et des collaborations industrielles. Il en est sorti 2 brevets, 3 dépôts de logiciels et deux start-up à fort potentiel.

Mon activité d’enseignement pluridisciplinaire s’est cantonnée à lancer des enseignements nouveaux. Dans notre école doctorale, j’ai participé au lancement d’un cours d’épistémologie des sciences, donné par DanielParrochia sur l’histoire de la pensée algorithmique il a été un grand succès. En symétrie, j’ai donné un cours d’introduction au calcul en DEA de philosophie. Sinon je participe au DEA d’informatique dans le domaine de l’apprentissage et en DEA de Droit dans le domaine de la modélisation en Droit. Et nous lançons avec Daniel GUIN dans l’école doctorale des cours d’outils catégoriels pour l’informatique. Par expérience, il faut au moins trois ans pour franchir les barrières culturelles s’opposant à une bonne importation d’outils de méthodes nouvelles dans un domaine.

Afin de préparer un retour vers des travaux plus formels sur la rationalité après une période fort animée par les projets européens, j’ai entrepris de faire le point sur les orientations prises par mon travail et les perspectives ouvertes. Cette réflexion a été menée avec Jean Jacques Szczéciniarz à l’occasion d’une postface qui nous a été demandée lors de la traduction en Italien du livre publié au PUF la preuve à la lumière de l’IA.

Sommaire

Les formalismes

Dans un bilan sur l'orientation de mon travail, il faut retenir l'accent mis sur la construction de théories dans le domaine du Droit qui devient ce qu'il a été à des titres divers dans l'histoire de la philosophie, le domaine à partir duquel et dans lequel établir des constructions de savoir. Il sert de plus à identifier sur le plan de la construction épistémologique Droit et Sciences comment l'épistémologie est la mise en œuvre d'explicitations normatives à partir desquelles des théories sont jugées. De manière très profonde, en informatique comme en Droit, le code dit ce qui doit être et non ce qui est.

Les théories dans un processus qui suppose la prise en compte de contradiction. D’où l’introduction d’une logique paraconsistante pour raisonner de manière monotone même en présence de contradiction. Curieusement, c’est seulement en 2004 que je me suis rendu compte que le propagateur de contraintes que nous avons réalisé et que nous utilisions depuis 5 ans se formalise parfaitement en logique paraconsistante. Puis en 2005, j’ai trouvé que l’on travaillant en fait avec une logique paraconsistante, déontique et annulable. En prime, cette logique étant monotone est apprenable au sens de la théorie d’Angluin.

Dans le monde de la découverte informatique, nombre de systèmes ont simulé des découvertes importantes enregistrées dans l’histoire des sciences. (Eurisko, Bacon (Langley and al.1987), Boole (Ledesma et al. 1997). Ces systèmes ont fourni une base pour une théorie normative de la découverte scientifique. Ajoutons que ces productions ont elles-mêmes extrait des processus de découverte, qu’elles ont reconstitués et, dans la plupart des cas, il s’agissait de reproduire plutôt un processus de construction d’une théorie qui est advenu.

Les théories scientifiques apparaissent rarement au hasard (vu l’extension de l’espace de recherche). C'est pourquoi nous avons proposé l’usage de la notion — dans un sens spécifique— de rationalité : exploiter du mieux possible d’un espace de recherche limité à des proportions manipulables. Cette rationalité, en ce sens, est toujours issue de la théorie une fois produite, même si la production s’est aussi déroulée selon une forme de rationalité.

Nous avons donc identifié « système de formation et de construction de théories » et « démonstrateur de théories ». Dans le contexte de la découverte scientifique (entendu en ce sens), un système qui ne tient pas compte de l’interaction avec ses usagers rencontre des limites concernant sa capacité à exhiber des résultats qui suivent l’évolution d’un système en action. En effet, la découverte scientifique requiert de questionner son environnement : soit directement par une expérience, soit indirectement en faisant appel à un instructeur. L’interaction est un moyen pour le système de preuve de déterminer ses frontières, sa bordure, ses limites et de sonder son instructeur.

Le traitement informatique de la preuve est à comprendre comme réalisant des essais d'autoproduction de la preuve dans une certaine formalisation du contexte. La preuve possède ainsi trois dimensions_:

  1. Formelle, comme mise en œuvre de procédures de démonstrations assurées, moyennant des ressources de calcul non bornées, de prouver n’importe quel théorème.
  2. Cognitive, comme ensemble de procédures de démonstrations compréhensibles, applicables à des théorèmes complexes, mais liées à la facilité avec laquelle on peut se convaincre de leur bien-fondé.
  3. Pragmatique. “Assistant de preuve” dans un environnement intégrant des fonctions plus larges privilégiant l’interaction homme-machine.
Sommaire

Les démarches expérimentales

Les épistémologies contemporaines ont étudié les normes, ruptures et rationalité scientifique. On peut retenir de ces études une grille d’analyse de la progression des découvertes scientifiques.

La découverte scientifique vient d’une rupture face aux modèles scientifiques standards vivant sur la base d’idées anciennes. Les idées nouvelles subissent un criblage impitoyable, elles s’éliminent progressivement par l’impossibilité d’être reproduites, d’être formalisées, de se transformer en techniques efficaces, et par inutilité en pratique.

Quand on observe dans différentes disciplines la progression d’une recherche ayant donné lieu à une découverte scientifique majeure, on remarque que cette dernière a nécessité environ trente ans de travaux. Les étapes de la découverte se caractérisent comme étant le produit d’un état conceptuel et d’une réalisation.

Les étapes sont les suivantes. Les découvertes scientifiques partent d’une « idée associée à un démonstrateur », elles passent par une « théorie formalisée associée à des expérimentations » pour aboutir à des « formalismes associés à des résultats largement diffusés. » La bonne théorisation de l’idée initiale, celle qui la rend claire, n’arrive qu’à mi-parcours au bout d’environ 15 ans. Cette clarification conceptuelle et formelle est toujours associée à la conjonction d’une simplification des pratiques et d’une extension des usages.

Ainsi, la démarche de découverte conjugue toujours des approfondissements théoriques et pratiques. On trouve ainsi en informatique des exemples bien connus de découvertes dont l’idée sanctionnée par un premier démonstrateur date de trente ans : la souris, Internet, les langages à objets. Elles ont un impact visible provenant du développement des technologies de l’information dans notre société.

L’observation précédente est empirique, elle se place dans une théorie de la découverte scientifique qui est encore à faire. Dans l’étude de la découverte scientifique, la pluridisciplinarité est une obligation d’ordre expérimental. Mais plus encore, elle est une nécessité d’ordre théorique, car, la logique et les mathématiques sont les seuls langages à même de dévoiler les théories qui expliquent le pourquoi du progrès scientifique.

Cette loi empirique appliquée à trois domaines de mon activité de recherche m’indique où faire porter mes efforts.

  • Mes idées sur l’apprentissage, publiées de 80, sont celles qui sont présentes au coeur des techniques d’apprentissage fondées sur les treillis qui sont maintenant très utilisées en fouilles de données. (Elles ont été largement reprises par la communauté mes anciens doctorants sont maintenant les leaders du domaine ). Mais elles sont très pratiques et au cœur de nos succès dans les finalisations industrielles.
  • Nos avancées sur les agents intelligents justifient de faire un effort de rupture avec une formalisation en des agents rationnels en logique épistémique. La recherche d’une formalisation correcte de la rationalité est l’objet de notre collaboration avec l’équipe Géométrie Topologie et Algèbre du Département de Mathématique ACI CATIA et avec le CREA dans le cadre de l’institut de la complexité de Paris

Le bilan de mes 34 ans d’activité revient à identifier les idées que j’ai amenées à une maturité théorique et puis à une maturité d’usage.

  • Les techniques d’apprentissage par treillis de Galois ont la maturité d'un transfert . Ariana pharma en a trouvé la valeur d'usage dans le domaine du criblage de molécules. Nos partenaires industrielles en découvrent d'autres usages dans le domaine d ela gestion du risque, de la gestion de portefeuille de contrats (accords de licence en cours avec le CNRS)
  • La notion d’agent rationnel n’a pas encore atteint sa maturité théorique et expérimentale. les projets en cours portent principalement sur cette étape
    • projet sherpa
    • projet méthode algébrique pour la supervision de systèmes complexes
  • Le système d'aide à la découverte est en fin de phase 1 et entre en phase 2
    • eleusis+nobel
    • Oriel ODS

 

 

table de progression de mes idées sur l'apprentissage : des idées à la maturité d'un transfert
 1975-1985 1985-1995 1995-2005
Idée & démonstrateur *apprentissage et treillis modulaire * agent_rationnel *Apprentissage et architecture reconfigurable *Raisonnement_juridique Logique de la découverte scientifique
Théorie & expérimentation apprentissage et treillis modulaires semi modulaires orthomodulaires Apprentissage par treillis de Galois Agent Rationnel
C Application & transfert Prévision sismique Génomique Apprentissage interactif par treillis de Galois Raisonnement juridique

 

Sommaire

Direction de thèses en cours

Ces travaux sont menés avec des doctorants et des post doctorants

  1. Emmanuel Castro (cifre EURIWARE) “ levée d'ambiguités dans les serveurs d'information. ” co-direction Stefano CERRI prévue juin 2004
  2. Christopher Dartnell (cifre EURIWARE) “ Apprentissage supervisé application au jeu d’eleusis » 2007
  3. Mathias Paulin « système interactif d’aide à la découverte scientifique (DGA/CNRS) “ 2007
Sommaire

Direction de recherche post doctorales en cours

  1. Patrice Duroux, « Ontology description system » Projet IST ORIEL Il s’agit de concevoir un langage fondé sur les ontologies pour fusionner des ontologies de domaines.
Sommaire

Collaborations contractuelles

Les collaborations contractuelles marquées d’une *soutiennent un postdoc, Celle marquée d’un ** soutiennent une thèse. Toutes ces collaborations sont prises pour permettre une expérimentation de notre problématique ;

  1. **Metis et Thémis : supervision des transactions dans le contexte du commerce électronique .CTI FRANCE TELECOM CNET 97 achevé en oct 2001 (brevet en cours et création d’entreprise)
  2. **Fi-calcul: BNP PARIBAS modélisation interactive de situations économiques OCT 2001 Mars 2003
  3. Apprentissage d’anticipation Areva Juin 2002 Juin 2003
  4. * SMART EC et MK BEEM projets IST 1999 10589 1999 – 10130 achevés en juin et dec 2002
  5. * Modèles algébriques pour la supervision des systèmes complexes : projet DGA/CNRS de collaboration avec le département de Mathématiques 2003 – 2005
  6. * Oriel : projet IST annotation des séquences génétiques 2000 - 2005
Sommaire

Le futur : ingénierie des systèmes complexes

Sommaire

Rationalité, apprentissage et contrainte : aide à la découverte scientifique

Participants principaux – Christian Bessière, C.R. CNRS, Frédéric Koriche MdC U.M.2, Michel Liquière MdC U.M.2, Jean Sallantin, DR CNRS.

Contexte –Depuis 2000, nous travaillons à l’apprentissage interactif de réseaux de contraintes par des machines. Quatre thèses sont en cours. L’idée est de coupler fortement les techniques d’apprentissage par treillis de Galois et l’utilisation de réseau de contraintes. L’utilisateur se trouve ainsi entre de superviser un système qui s’autoprogramme. Ce système fait des erreurs quand elle applique les théories qu’elle a apprises. Ces erreurs signalent ses biais d’apprentissage et l’imprécision de la formulation du problème. La progression du système vient de la révision de la formulation du problème, et de l’apport de nouveaux exemples.

Objectif – Produire une machine que l’on ne programme plus mais qui s’instruit en interagissant avec des tuteurs humains. Méthodes

Sommaire

Apprentissage interactif

Les exemples sont décrits par des graphes.

  • L’apprentissage extrait des sous-graphes présents dans les exemples permettant de conserver la classification des exemples
  • La traduction des sous-graphes en contraintes se fera dans une logique paraconsistante, defaisable, déontique et linéaire
Sommaire

Logique du raisonnement

Nous utilisons couramment une logique paraconsistante déontique, annulable, annotable pour formuler le raisonnement d’un agent rationnel sur la connaissance apprise.

  • Paraconsistante pour raisonner en présence de contradictions
  • Déontique pour tenir compte des normes imposées par les instructeurs
  • Annulable (défeasible) pour gérer des hiérarchies de normes
  • Annotable pour tenir compte du poids des faits

Nous allons compléter cette panoplie par la logique linéaire qui nous semble pleinement adaptée pour gérer l’annotation. Comme les faits sont des sous-graphes et que les exemples sont décrits par des morphismes de sous graphes nous devons gérer l’appariement structurel des sous-graphes sur les exemples en consommant des ressources de pattern matching.

  • Linéaire pour gérer la couverture des exemples par des faits.
Sommaire

Réseaux de contrainte

Le réseau de contraintes est le langage logique de programmation.

  • Une action est définie comme devant satisfaire les réseaux de contraintes.
  • Une incohérence est identifiée par un sous-réseau inconsistant
  • Une interaction avec l’opérateur est une question pour lever une incohérence.
Sommaire

Aide à la découverte

L’aide à la découverte est une stratégie collective de résolution de problèmes fondée sur la détection d’erreurs pour des théories formulées par des réseaux de contraintes. Nous produisons une annotation via une extension de la théorie d’Angluin (learning from different teachers 2003

  • Les théories sont publiées et récompensées
  • Les réfutations sont publiées et récompensées et elles annulent la théorie réfutée quand le réfutateur réfute en utilisant une théorie.
  • Le chercheur dont les théories réfutent le mieux reçoit un prix.
Sommaire

Méthodes algébriques pour la supervision de systèmes complexes

Participants principaux – Dominique Luzeaux, DGA, Daniel Guin Prof U.M.2 Michel Liquière MdC U.M.2, Jean Sallantin, DR CNRS, Jean Jacques SZCeciniarz Prof Paris VII

Contexte –Cette recherche transdisciplinaire (mathématique et philosophique) est celle d’une sémantique formelle pour la rationalité et l’apprentissage. Elle est réalisée avec le Laboratoire de Géométrie, Topologie et Algèbre CNRS & Université Montpellier II,(UMR 5030). Quatre thèses, deux en mathématiques, deux en informatique et un premier modèle algébrique opérationnel pour les systèmes multi-agents. Depuis 2003 un séminaire de formation doctorale sur les modèles catégoriels pour l’informatique est en place dans l’école doctorale. Il va être étendu au niveau national. Objectif – Sémantique formelle pour la rationalité et l’apprentissage Méthodes

Sommaire

Les preuves dans l’Ethique de Spinoza

L’Ethique de Spinoza est une théorie moniste (pas de dualité corps/esprit) de l’être qui tout à fait adaptée à la formalisation de la rationalité machine car pour lui « l’esprit est l’idée du corps » et « la conscience est l’idée de l’esprit ». Comme cette théorie est écrite à la manière de la géométrie, elle est appropriée comme point d’ancrage philosophique aux travaux formels sur la rationalité. Nous préparons une rencontre sur ce sujet en 2006

Sommaire

Formalisation catégorielle du phi-calcul

Notre objectif est de donner une formalisation catégorielle du phi-calcul lui conférant le statut de catégorie cartésienne et fermée. Il serait alors un modèle de calcul pour le langage de programmation introduit dans la section précédente. Un rapport sur le sujet est en cours.

Sommaire

Humanoïde apprenant

Participants principaux – Christian Bessière, C.R. CNRS, Tiberiu Stratulat, MdC U.M.2, Jean Sallantin, DR CNRS

Sommaire

Contexte

Les humanoïdes actuels ont été conçus, au mieux, comme des équipements mécatroniques intégrant composants électro-mécaniques et commande de bas-niveau (asservissement en position et en force pour l’essentiel). La communauté cherche aujourd’hui à rendre « intelligents », ou plus raisonnablement, autonomes ces équipements : c’est en particulier l’objectif principal du laboratoire commun AIST-CNRS JRL avec lequel nous collaborons. Sur le plan pratique, nos travaux se dérouleront d’ailleurs d’abord à l’aide du simulateur d’HRP2, puis, une fois notre approche validée, sur Sherpa.

Sommaire

Objectif

Réaliser un cadre permettant à Sherpa d’apprendre à marcher et à suivre son instructeur. Le protocole proposé pour entraîner le robot serait le suivant :

Phase d'entraînement

 : (i) Sherpa se déplace encadré et piloté par son instructeur. Lors de cet entraînement, l'instructeur permet à Sherpa de produire des exemples positifs de fonctionnement ; (ii) Sherpa fait évoluer un réseau de contraintes (Ë apprentissage incrémental) exprimant ce qu'il a appris des exemples.

Phase de repos

 : (iii) Sherpa vérifie la cohérence globale de la connaissance venant d'être en la confrontant aux connaissances déjà intégrées. Sherpa rejoue contre un simulateur ce qu'il vient d'apprendre de manière à localiser une contradiction et à lui associer un contre-exemple, c'est-à-dire un comportement prenant à défaut le réseau de contrainte appris, (comportement correct pour le réseau appris en entraînement et incorrect pour le réseau appris en phase de repos en jouant avec le simulateur.)

Phase de débriefing

 : (iv) Sherpa réalise devant son instructeur le comportement lui semblant aberrant. C'est en examinant la nature des contre-exemples produits que l'instructeur peut corriger des erreurs de conception, concevoir le plan de la progression du robot, se convaincre que le robot a suffisamment de conscience de soi pour être autonome.

Sommaire

Méthodes

Pour qu’il puisse accéder à une certaine autonomie, nous devons donner à Sherpa les moyens de prendre des décisions d’actions formulées par des commandes abstraites dans un environnement partiellement connu :
  1. Interpréter les actions formulées par des commandes abstraites sous forme de buts.
  2. Raisonner sur les buts.
  3. Construire des plans d’action permettant d’atteindre les buts.
  4. Contrôler la cohérence des plans d’action et identifier les causes d’un échec ou d’une erreur observée.
  5. Apprendre à résoudre les incohérences afin d’identifier de nouvelles solutions et d’améliorer ainsi l’autonomie du robot.

Remarque : une large partie de ces travaux sera réalisée d’abord sur le simulateur HRP2.

Les principes de résolution de problème associés sont (i) décomposition du problème en tâches ayant des solutions connues, puis calcul d’une solution particulière à partir de celles-ci, et (ii) si la solution présente des incohérences, interrogation des humains, puis apprentissage à partir de cette interaction pour résoudre des problèmes similaires. Ces travaux seront structurés en trois modules. Le premier module concernera l’adaptabilité qui permet d’agir dans un environnement partiellement connu. Ceci repose sur un environnement de simulation pour tester et qualifier le niveau d’autonomie de la mobilité, de l’interaction et la communication de l’humanoïde dans son environnement. Un test est un problème du type « Suis moi avec le paquet ! » composé à partir de tâches de perception et de planification réalisables par le robot dans le simulateur. Les instructeurs peuvent faire varier l’environnement d’entraînement du robot. L’enchaînement de ces tâches est contraint par plusieurs ensembles de règles ou normes, apprises ou formulées par les instructeurs fixant des obligations, interdictions, conseils et avertissements sur son comportement.

  • Normes de sécurité : éviter que le robot ne heurte un obstacle, ne tombe, ne blesse quelqu’un
  • Normes de bonne pratique : éviter que le robot ne brise un objet qu’il porte
  • Normes de bonne conduite : éviter que le comportement du robot soit mal interprété par l’homme
  • Normes comportementales : habitudes apprises des expériences passées par le robot lors de son entraînement

Lors de l’entraînement, le robot a été instruit pour réaliser une tâche. Le test consiste à localiser les transgressions des normes caractérisant des incohérences lors de l’accomplissement de la tâche. L’instructeur adapte la résolution du problème en modifiant les règles du comportement, en les faisant apprendre par le robot.

Le deuxième module vise l’apprentissage interactif pour la planification afin de tirer des expériences à partir des événements rencontrés et apprendre de ces dernières. Ce module concerne le noyau cognitif de Sherpa. Le principe fondamental est de représenter les connaissances structurelles de l’environnement et les commandes permettant d’interpréter l’action sur l’environnement en termes de réseaux de contraintes, en suivant le canevas suivant :

  1. Une tâche est définie comme devant satisfaire un réseau de contraintes.
  2. Un plan est défini comme une solution a une composition des réseaux de contraintes attachés aux tâches.
  3. Une incohérence est identifiée par un sous-réseau inconsistant qui provient de l’assemblage des tâches.
  4. Une interaction avec l’opérateur est une question posée par le robot pour tenter de lever une incohérence.

L’apprentissage interactif est ici la construction assistée par un opérateur des réseaux de contraintes attachés aux tâches et aux normes contraignant le comportement du robot. Dans ce contexte, on reprend ici les résultats d’études menées au laboratoire sur la construction automatique du réseau de contrainte attachée à une tâche, la détection d’incohérences dans les plans d’actions et identification de sous-réseaux inconsistants, l’apprentissage interactif de plans d’actions et l’apprentissage par renforcement et apprentissage

Le troisième module vise l’autonomie, pour comprendre des commandes abstraites, reconnaître son environnement et planifier son comportement. L’autonomie de Sherpa sera fondée sur un langage de haut niveau d’abstraction permettant au robot de communiquer avec ses instructeurs. Le langage à retenir pour le projet doit permettre de définir des hiérarchies de types, des termes et des relations typées, des variables et des égalités et inégalités entre types et entre variables, et enfin des axiomes sur la formulation d’énoncés. Les réseaux de contraintes produits par le module 2 seront formulés dans ce langage par des types exprimant des conditions à vérifier par une action « poser le paquet » ou par une perception « le visiteur » ou par une tâche « suivre le visiteur en portant son paquet ». Une instance de ce langage a été implémentée sous la forme d’un logiciel Intègre réalisé par Normind, une start-up du LIRMM, et sera mise à notre disposition pour le projet.

Sommaire

Consortium Lakatos

Sommaire

Participants

– Euriware, Ariana Pharma, CNRS

Sommaire

Contexte

– Ariana et Euriware travaillent depuis plus de trois ans avec nous sur l’exploitation d’outils et de méthodes que nous développons.

Sommaire

Objectif

–Partager les expériences sur l’utilisation de nos outils dans le domaine de la découverte scientifique de théories en interaction avec des machines apprenantes. Lancer de nouvelles applications. Accord des participants pour une mise en place en 2005

Sommaire

Méthode

– Mise en place d’un jeu de licences croisées sur la base du logiciel libre pour les membres du consortium permettant à chacun :

  1. De rester propriétaire de ses développements.
  2. De le mettre à la disposition de la communauté scientifique à fin de recherche.
  3. De permettre aux industriels de sortir et de rentrer librement.
  4. De financer un ingénieur pour maintenir le fond de logiciels partagés.
  5. De faire financer demain le consortium en y introduisant de nouveaux industriels.