page d'accueilliste des sujets liste des groupes liste des encadrants

TER DE MASTER 1 en - année 2020-21

login mdp

56 sujets proposés
a.laurent_2
a.laurent_n
b.grenet_1bis
b.grenet_1
c.nebut
d.delahaye_1
d.delahaye_2
e.guerrini_1
e.bourreau_1
e.bourreau_2
e.bourreau_n
gioan_1
gioan_2
h.bouziane_n
k.todorov_1
k.todorov_2
k.todorov_3
lafourca_plus
m.huchard_1
m.huchard_2
m.lafourcade_1
m.lafourcade_2
m.lafourcade_3
m.lafourcade_4
m.lafourcade_m
m.lafourcade_n
n.hlad_1
n.faraj_1
n.faraj_2
n.faraj_3
n.faraj_4
P.Puteaux_2
P.Puteaux_3
P.Puteau_1
p.pompidor_1
p.pompidor_2
poncelet_1
poncelet_2
poncelet_3
prince_1
prince_intrus
retore_1
r.giroudeau_1
r.giroudeau_2
r.giroudeau_3
rodriguez_1
rodriguez_2
rodriguez_3
seriai_1
seriai_2
seriai_3
ulliana_1
ulliana_2
ulliana_3
w.puech_1
w.puech_2

1. Bot de gestion de connaissances   
Identifiant : mathieu.lafourcade_n_2020-21 • Encadrant(s) : mathieu.lafourcade@lirmm.fr, prince@lirmm.fr

Résumé : On souhaite développer un bot (Skype, ou autre) avec lequel l'utilisateur entreprendrait des pseudo conversations dans le but de consolider (augmenter et corriger) une base de connaissances (en l'occurrence, la base RezoJDM).

Exemple de dialogue :

Bot: est-ce qu'un hot-dog contient de la moutarde '
User: oui, la plupart du temps
Bot: est-ce qu'un hot-dog contient des oignons grillés '
User: oui c'est possible, surtout aux US
Bot: merci pour ces informations
User: un hot-dog c'est de la malbouffe
Bot: Ah' Ok, je vais retenir cela.

Le bot en question doit être capable de poser des questions de façon intelligible et d'avoir un grande tolérance et capacité d'interprétation de ce que répond l'utilisateur. Le dialogue engagé doit être cohérent - on peut changer de sujet, mais on ne saute pas sans arrêt du coq à l'âne). Enfin, le bot doit être capable de répondre des question de type "pourquoi", par exemple :
User: Pourquoi un tigre est dangereux '
Bot: un tigre est dangereux car un tigre est un animal sauvage et un animal sauvage est dangereux.

Prérequis : aucun
Liens :
bot skype - https://dev.skype.com/
rezoJDM - http://www.jeuxdemots.org/jdm-about.php
exemple d'interaction - http://www.jeuxdemots.org/rezo-ask.php'text=1

Lien : - • Dernière mise à jour : 2021-11-05 09:36:55

2. Chemins spécifiques pour la classification dans les réseaux de neurones profonds   
MTQ
Identifiant : poncelet_1_2020-21 • Encadrant(s) : pascal.poncelet@lirmm.fr

Résumé : Contexte :
Avec de plus en plus de donnés disponibles, des améliorations récentes apportées par le deep learning, les performances obtenues par les nouveaux systèmes d'apprentissage automatique pour la classification d'image, l'analyse des sentiments, la compréhension de la parole etc. ... sont véritablement impressionnantes. Les librairies très efficaces comme Keras, TensorFlow etc. permettent en seulement quelques lignes de code de créer un réseau complexe composé de structures non linéaire imbriquées. Cependant, à cause de ces structures, ces modèles d'apprentissage automatique s'appliquent à la manière d'une boîte noire : aucune information n'est fournie sur ce qui les a conduits à atteindre leurs prédications.

Objectifs : L'objectif est ici de mieux comprendre comment s'exécute un modèle. Il s'agit de repérer des signatures d'activation en fonction des données d'entrée pour répondre aux questions du type :
- Si le jeu d'apprentissage ne contient que des 1 et des 3 quels sont les neurones qui sont activés et comment ? que se passe-t-il si le modèle est appliqué sur un 2 ?
- Existe-t-il des signatures caractéristiques de certaines données ?
- A partir de quand (quelle couche ?) le modèle change de comportement pour reconnaître une valeur ?

Prérequis :
• Langage de programmation (Python)
• Programmation Web (Javascript)
• Curiosité

Nombre d'étudiants : 3 à 4
Détail du sujet : www.lirmm.fr/~poncelet/M1_signatures_2020_2021.pdf

Lien : http://www.lirmm.fr/~poncelet/M1_signatures_2020_2021.pdfDernière mise à jour : 2020-11-11 14:44:50

3. Réseaux profonds : ouvrir la boîte noire !   
Identifiant : poncelet_2_2020-21 • Encadrant(s) : pascal.poncelet@lirmm.fr

Résumé : Contexte :
Avec de plus en plus de donnés disponibles, des améliorations récentes apportées par lÂ’apprentissage profond (deep learning), les performances obtenues par les nouveaux systèmes d'apprentissage automatique pour la classification d'image, l'analyse des sentiments, la compréhension de la parole etc. ... sont véritablement impressionnantes. Les librairies très efficaces comme Keras, TensorFlow etc. permettent en seulement quelques lignes de code de créer un réseau complexe composé de structures non linéaire imbriquées. Cependant, à cause de ces structures, ces modèles d'apprentissage automatique s'appliquent à la manière d'une boîte noire : aucune information n'est fournie sur ce qui les a conduits à atteindre leurs prédications.
Il est cependant possible dÂ’ouvrir ces boîtes noires pour voir ce quÂ’elles font et ainsi essayer de mieux comprendre leur fonctionnement.

Objectifs : Dans le cadre de ce projet de TER, nous nous situons dans de la classification dÂ’images à lÂ’aide dÂ’un réseau profond. LÂ’objectif est dans ce cadre dÂ’offrir une application web qui offrent différentes fonctionnalités pour « ouvrir ce réseau » et visualiser ce qui ce quÂ’il se passe réellement à lÂ’intérieur et ainsi de pouvoir répondre à des questions du type : comment est effectué le processus dÂ’apprentissage ? quelle est la partie de lÂ’image qui a permis de classer ? à quel moment ou quel niveau la classification se fait-elle réellement ?

Prérequis :
• Langage de programmation (Python)
• Programmation Web (Javascript)
• Curiosité

Nombre d'étudiants : 3 à 4

Encadrant : Pascal Poncelet (contact : Pascal.Poncelet@lirmm.fr)

Détail du sujet : www.lirmm.fr/~poncelet/M1_intermediate_2020_2021.pdf

Lien : http://www.lirmm.fr/~poncelet/M1_intermediate_2020_2021.pdfDernière mise à jour : 2020-11-11 14:45:48

4. Chasse aux triangles dans JeuxDeMots
Identifiant : anne.laurent_n_2020-21 • Encadrant(s) : anne.laurent@lirmm.fr, mathieu.lafourcade@lirmm.fr

Résumé : JeuxDeMots est un jeu sérieux (' Game With A Purpose ' - GWAP : jeu avec un but) qui vise à construire un réseau lexico-sémantique (un graphe avec 12 million de noeuds et 780 millions de relations). Les agents d'inférence de JeuxDeMots constituent globalement une intelligence artificielle qui opère sur cer grand volume de connaissances (de sens commun mais également expertes à plusieurs domaines) de façon à inférer de nouvelles relations.

Dans ce cadre, nous souhaitons retrouver dans le réseau les triangles permettant de fournir des exemples pour être capable par la suite de fournir des éléments d'explication pour certaines relations. Il s'agit donc de créer une combinaison entre un système à apprentissage par des exemples et un système d'inférence.

Par exemple, il est ainsi possible de déduire que "voiture" a pour conséquence "mort" à partir de "voiture" ayant pour conséquence "accident" qui a pour conséquence "mort" (1 côté du triangle). Où à l'inverse de produire l'explication de "peste" à conséquence "mort", en exhibant "peste" estun "maladie mortelle" et "maladie mortelle" conséquence "mort" (2 côtés du triangle).

Le travail attendu consiste à :
- prendre en main la base JeuxDeMots sous sa forme ' bases de données NoSQL en graphes ' et le langage de requête Cypher ;
- Elaborer les requêtes Cypher permettant de retrouver les triangles dans le graphe JeuxDeMots ;
- Tester et optimiser le passage des requêtes sur un serveur.

Si le temps le permet :
- Proposer des extensions pour recommander des portions du graphe où un triangle aurait dû exister (ce qui permettra d'enrichir le graphe).

** Pas de prérequis
(co enc ? castelltort@lirmm.fr)

Lien : https://cloud.lirmm.fr/index.php/s/kWV55XDJcHLtcgYDernière mise à jour : 2020-11-11 14:47:09

5. Parallélisation sur la grille d'un algo d'apprentissage de relations sémantiques
Identifiant : hinde.bouziane_n_2020-21 • Encadrant(s) : hinde.bouziane@lirmm.fr, mathieu.lafourcade@lirmm.fr

Résumé : Nous disposons d'un algorithme d'apprentissage de relations sémantiques basé sur les relations existantes dans le réseau lexical JeuxDeMots. De façon simplifiée, cette approche consiste lors de l'apprentissage à croiser les attributs du premier noeud avec ceux du second noeud et d'associer à chaque couple la relation sémantique présente dans le réseau entre les deux noeuds.

La table générée est de grande taille, de l'ordre de plusieurs centaines de millions de lignes.

L'idée est de distribuer cette table sur la grille, d'envoyer la même requête et ensuite de fusionner les résultats. Le temps global de traitement est donc le temps de la plus longue requête suivi du temps nécessaire pour la fusion. Il est donc impératif de distribuer de la façon la plus homogènes les lignes de la table de départ dans les tables sur la grille.

L'objet de ce TER est donc d'écrire et d'implémenter un algo sur la grille un algorithme effectuant l'apprentissage avec une distribution homogène des résultats. Un second algo, dit d'exploitation (qui met en oeuvre la fusion) sera également spécifié et implémenté.

Les données et les calculs seront à déployer sur une grille expérimentale Grid5000. La programmation se fera en utilisant une bibliothèque ou un framework pour le calcul parallèle distribué, comme MPI (Message Passing Interface), Hadoop, RPC (Remote Procedure Call) ou autre disponible sur Grid5000.

Les références :

* https://www.grid5000.fr/
* https://static.googleusercontent.com/media/research.google.com/fr//archive/mapreduce-osdi04.pdf
* http:www.jeuxdemots.org

Lien : - • Dernière mise à jour : 2020-11-11 14:49:52

6. Extraction de relations sémantiques dans wikipedia   
AME
Identifiant : mathieu.lafourcade_1_2020-21 • Encadrant(s) : mathieu.lafourcade@lirmm.fr

Résumé : L'informatisation des professions de santé et le développement du dossier médical personnalisé (DMP) entraîne une progression rapide du volume d'information médicale numérique. Les systèmes informatiques médicaux permettent de stocker de l'information (dossier médical, résultats d'examens complémentaires, images et comptes rendus radiologiques par exemple), d'y accéder en vue d'améliorer la prise en charge des patients, de découvrir de nouvelles informations ou de fournir une aide à la décision pour l'amélioration de la qualité des soins. Or, cette information est souvent consultée de façon individuelle et manuelle alors que le format numérique permettrait une analyse informatisée. L'information à exploiter est en grande partie sous forme textuelle et il s'agit alors de pouvoir extraire de façon automatique des données sémantiques. Le besoin de convertir toute cette information sous forme structurée est donc un enjeu majeur. Pour réaliser cette tâche il est nécessaire d'avoir une base de connaissance de spécialité structurée et dynamique (apprentissage permanent).

Pour ce sujet de TER, il s'agira de travailler sur l'extraction de relations sémantiques (synonymie, hyperonymie, causatif, caractéristique..) à partir d'articles médicaux issus de l'encyclopédie Wikipedia et du site sur les maladies rares Orphanet. Cette extraction aura pour but de consolider un réseau lexico-sémantique de spécialité inclus dans le réseau de connaissance générale JeuxDeMots. Il faudra utiliser les ressources et travaux de recherches à votre disposition afin d'élaborer des algorithmes pertinents. Le travail sera composé des tâches suivantes:

* état de l'art sur l'extraction de relations sémantiques à partir de textes non structurés.
* récupérer les pages wikipédia (voire d'autres sites comme orphanet).
* proposer un algorithme d'extraction de relations.
* création d'une base de données susceptible d'être intégrée au réseau.

Le langage de programmation utilisé sera au choix des étudiants.

PS IMPORTANT : Si les étudiants le désirent, sujet peut éventuellement être abordé via un autre domaine, par exemple, la "gastronomie", "aéronautique", etc.

Lien : - • Dernière mise à jour : 2020-11-11 14:52:56

7. Résolution des coréférences pronominales
Identifiant : mathieu.lafourcade_2_2020-21 • Encadrant(s) : mathieu.lafourcade@lirmm.fr

Résumé : La résolution des coréférences se positionne comme un enjeu important du domaine du TALN. Il s'agit du phénomène dans lequel deux (ou plusieurs) syntagmes nominaux (noms propres, pronoms, etc) peuvent être interprétés comme faisant référence à la même entité dans le monde du discours (personne, date, lieu, événement..).

Exemple :
" Le chien est tombé dans le puits. Il a aboyé toute la nuit "
Une lecture raisonnable de la phrase est que le pronom "il" et "chien" font référence à la même entité. Les termes "chien" et "puits" s'accordent en genre et en nombre avec le pronom "il", en vue d'une automatisation, il seront tous deux considérés comme candidats potentiels à la résolution du pronom "il". Il convient pour les différencier, de disposer de l'information que des deux candidats seul un chien est capable d'aboyer.

Pour ce sujet de TER, il s'agira, à partir des textes de Wikipédia, de repérer puis de tenter de résoudre les coréférences pronominales (trouver la référence des pronoms 'je', 'tu', etc. à des noms de personnes, des objets, ...), dans un premier temps grâce à des heuristiques se basant sur une analyse syntaxique de la phrase analysée (heuristiques qu'il faudra proposer puis évaluer). Une base de connaissance (notamment JeuxDeMots) pourra par la suite être utilisée afin d'affiner les stratégies proposées.

Le travail sera composé des tâches suivantes :

* Dresser un état de l'art sur la résolution des coréférences pronominales
* Acquérir des textes à partir de l'API Wikipédia
* Proposer un ou plusieurs algorithmes de résolution
* Évaluer l'approche proposée

Mots-clés : Intelligence artificielle, traitement automatique du langage naturel, résolution de coréférences
(co encadrant : cedric.lopez@emvista.com)

Lien : http://www.lirmm.fr/~lafourcade/corefTER2018.pdfDernière mise à jour : 2020-11-11 14:53:11

8. Jeu d'annotation de textes pour la désambiguisation lexicale   
Identifiant : mathieu.lafourcade_4_2020-21 • Encadrant(s) : mathieu.lafourcade@lirmm.fr

Résumé : Il s'agit de modéliser, spécifier et implémenter (mysql/php) un jeu en ligne permettant de produire un corpus de phrases/textes annotés sémantiquement. Chaque terme ambigu (avocat, frégate, livre, etc.) sera associé avec une ou plusieurs gloses permettant d'identifier le sens correct (avocat > fruit, frégate > oiseau, livre > poids, etc.).
Le jeu collectera l'ensemble des réponses des joueurs et distribuera des points en fonction de l'adéquation de celles-ci. Trois niveaux de jeu sont à prévoir :

* débutant : les mots à annoter sont mis en évidence dans le texte et chacun est associé à un ensemble de gloses possibles (+ autres en entrée libre s'il en manque) ;
* confirmé : les mots à annoter sont mis en évidence, mais aucune proposition de glose n'est faite ;
* expert : les mots ne sont pas mis en évidence et doivent être trouvés par le joueur.

Les joueurs de niveau expert peuvent proposer de nouveaux textes. Les fonctionnalités seront définies de façon à rendre le jeu addictif tout en s'assurant une bonne qualité des données.
Vous vous renseignerez sur les Jeux Sérieux et les GWAP, en particulier : Wordrobe, Phrase Detective, ...

prérequis : base de données, web/php

à lire :
* J. Chamberlain, K. Fort, U. Kruschwitz, M. Lafourcade and M. Poesio (2013) Using Games to Create Language Resources: Successes and Limitations of the Approach. Theory and Applications of Natural Language Processing. Gurevych, Iryna; Kim, Jungi (Eds.), Springer, ISBN 978-3-642-35084-9, 2013, 42 p.

* M. Lafourcade, A. Joubert (2012) Enrichissement de la longue traîne d'un réseau lexical grâce à un outil d'évaluation. In proc of 11es journées internationales d'analyse statistique des données textuelles (JADT2012), Liège, Belgique, 13-15 juin 2012.

prérequis : PHP, très bonne maîtrise du français

Lien : http://jeuxdemots.orgDernière mise à jour : 2020-11-11 14:54:02

9. Analyse et implémentation du étiqueteur morpho-syntaxique du français   
Identifiant : mathieu.lafourcade_3_2020-21 • Encadrant(s) : mathieu.lafourcade@lirmm.fr

Résumé : Le sujet de TER propose d'implementer un étiqueteur
morpho-syntaxique pour le français. Il s'agit d'un outil qui va
associer aux mots d'un texte, les patties du discours. Par exemple
pour la phrase :

le petit chat mange de la viande

on souhaite obtenir

det: adj: nom: pre: det: nom:

Il faudra analyser le problème (sur le français uniquement), et
concevoir un tel analyseur exploitant les données du projet
JeuxDeMots.

liens :
http://www.jeuxdemots.org/jdm-about.php
https://nlp.stanford.edu/software/tagger.shtml
https://en.wikipedia.org/wiki/Part-of-speech_tagging
https://fr.wikipedia.org/wiki/%C3%89tiquetage_morpho-syntaxique

à lire :

https://www.researchgate.net/publication/46419814_Exploitation_d'une_ressource_lexicale_pour_la_construction_d'un_etiqueteur_morphosyntaxique_etat-de-l'art_du_francais

https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&ved=2ahUKEwjroc-dquznAhXmx4UKHRroBFkQFjABegQIBBAB&url=https%3A%2F%2Fwww.aclweb.org%2Fanthology%2FF14-2008.pdf&usg=AOvVaw2VCFX3vKYvQii6vovbTpTx

Lien : - • Dernière mise à jour : 2020-11-11 14:55:11

10. Autour de la résolution du Vertex-Cover   
Identifiant : rodolphe.giroudeau_1_2020-21 • Encadrant(s) : rodolphe.giroudeau@lirmm.fr

Résumé : Nous considérons le problème classique du Vertex-Cover. Ce problème a été largement étudié du point de vue de la complexité, de l'approximation et des méthodes exactes. Dans cet TER, le but est d'étudier le Vertex-Cover sous plusieurs approches proposées ci-après.
Relaxation d'un programme linéaire en nombres entiers, Algoritme primal-dual, Décomposition sous forme d'un arbre borné, Kernelization, Recherche d'un couplage maximum, Couverture par des cliques maximales, Parcours en profondeur ....

Compétences souhaitées : un goût pour l'algorithmique, programmation

Lien : - • Dernière mise à jour : 2020-11-11 14:56:50

11. Stratégie de résolution pour le problème de la recherche d'un flot maximum   
Identifiant : rodolphe.giroudeau_2_2020-21 • Encadrant(s) : rodolphe.giroudeau@lirmm.fr

Résumé : Le problème de la recherche du flot maximum est un problème d'optimisation combinatoire étudié depuis longtemps. Plusieurs méthodes existent pour résoudre ce problème ; algorithmes polynomiaux efficaces, résolution en utilisant la programmation linéaire en nombres entiers, la programmation par contraintes. Le stage consiste à comparer ces trois méthodes du point de vue du temps de calcul.

Programmation, algorithmique, CPLEX, programmation par contraintes

Lien : - • Dernière mise à jour : 2020-11-11 14:57:09

12. Extraction de connaissances pour le domaine du fact-checking
Identifiant : konstantin.todorov_2_2020-21 • Encadrant(s) : konstantin.todorov@lirmm.fr, andon.tchechmedjiev@mines-ales.fr

Résumé : Les fausses nouvelles (fake news) sont devenues un problème de plus en
plus important, tant du point de vue de la société que de celui de la
recherche. Le LIRMM et le LGI2P, en collaboration avec 2 équipes
allemandes, a construit et mis à disposition la base de connaissances
ClaimsKG (https://data.gesis.org/claimskg/site/#about) qui recueillit
les informations et méta-données provenant d'un grand nombre de sites
journalistiques de fact checking (e.g. Snopes, Politifact). Le sujet de
TER consiste en l'extraction de connaissances (e.g. véracité des claims,
leurs auteurs, entités et événement liés) à partir du texte des
articles publiés sur des sites de fact-checking en utilisant des
méthodes de transfert learning et machine learning.

prérequis : Python

Lien : https://docs.google.com/document/d/1JEvp7zl17z3_BrXTr0rp1G39cDkROjZvV2yXd995v2I/edit#Dernière mise à jour : 2020-11-11 16:13:33

13. Réconciliation des assertions pour la vérification automatique de faits (fact checking)
Identifiant : konstantin.todorov_3_2020-21 • Encadrant(s) : konstantin.todorov@lirmm.fr

Résumé : Les fausses nouvelles (fake news) sont devenues un problème de plus en
plus important, tant du point de vue de la société que de celui de la
recherche. L'objectif de ce TER est de proposer et mettre en oeuvre une
approche automatique de mise en correspondance d'assertions publiés de
manière indépendantes dans des sites de fact-checking différents (tels
que Snopes ou Politifact) et ainsi interconnecter les bases de
connaissances issues de ces sites. Le travail commencera par une phase
d'analyse statistique des données collectées avant d'élaborer une
méthode originale de résolution de coréférences.

Mots clés : linked data, analyse de données, traitement automatique de
langues, web sémantique, graphes de connaissance, fake news, machine
learning, embeddings,

Lien : https://docs.google.com/document/d/1wnJ5VitslOhUYW_4Yvd5dTy4Lx4g1DuZ5huQwljRZ6Q/edit#Dernière mise à jour : 2020-11-11 16:13:51

14. Amélioration de la recherche d'information sur les fausses informations
Identifiant : konstantin.todorov_1_2020-21 • Encadrant(s) : konstantin.todorov@lirmm.fr, andon.tchechmedjiev@mines-ales.fr

Résumé : Les fausses nouvelles (fake news) sont devenues un problème de plus en
plus important, tant du point de vue de la société que de celui de la
recherche. Le LIRMM et le LGI2P (Ecole des Mines d'Alès), en
collaboration avec 2 équipes allemandes, a construit et mis à
disposition la base de connaissance ClaimsKG qui recueillit les
informations et méta-données provenant d'un grand nombre de sites
journalistiques de fact checking. Le sujet de TER consiste en
l'enrichissement de cette base de connaissances avec des nouvelles
données, l'extraction automatique et la structuration des topics des
données et l'amélioration de 2 applications web pour faire de la
recherche sur ces données et leur statistiques.

prérequis : Python

Lien : https://docs.google.com/document/d/1fPFLQra6AORY1ovQCgxHzOoihEMmTnrVVewP3izfvwc/edit#Dernière mise à jour : 2020-11-11 16:14:38

15. Evaluation automatique d'hôtels via l'analyse des avis de leurs clientèles   
Identifiant : pierre.pompidor_1_2020-21 • Encadrant(s) : pierre.pompidor@lirmm.fr, mathieu.lafourcade@lirmm.fr

Résumé : Création d'une application d'analyse d'avis (sur des hôtels) sous architecture MEAN
Ce projet se concentre sur les thématiques suivantes :
* Extraction de connaissances / text mining :
il faudra faire une recherche sur la polarisation de texte et notamment l'analyse des
formes négatives et des intensifieurs (adjectifs, adverbes) ;
* Architecture logicielle pour les applications web ;
* Et un peu de visualisation de connaissances.

Spécifications fonctionnelles :
Le but de cette application est d'analyser automatiquement (et sans doute plus ou moins approximativement via l'analyse de polarités) des avis textuels sur des hôtels pour ensuite "colorer" (en rouge, orange, vert,...) les différents descripteurs des ontologies représentant ces différents hôtels (par exemple : accueil, chambre, matelas, rangements, climatisation, salle de bain, buffet, boissons, ...) Un utilisateur pourra avoir trois profils (rôles) :

* Un profil d'administrateur ;
* Un profil d'émetteur d'avis ;
* Un profil de gérant d'hôtel.
Le profil d'administrateur permet :
* D'instancier une ontologie générale prédéfinie en une ontologie spécifique à un hôtel
* D'accepter ou non les avis émis (on considérera que l'application reçoit en continu de chaque hôtel la liste des réservations ce qui permettrait de filtrer les faux avis).
Le profil d'émetteur d'avis permet :
* D'émettre un avis sous la forme d'un texte (limité en nombre de caractères) ;
un émetteur d'avis doit obligatoirement indiquer son nom/prénom et la date de séjour dans l'hôtel ce qui permettrait la vérification de la validité de son avis.
Le profil de gérant d'hôtel permet :
* De visualiser l'ontologie colorée de son hôtel.
Ce profil est conditionné à la création d'un compte (l'identifiant de l'utilisateur est son adresse email).

Spécifications organisationnelles et techniques :
Calibrage : 4 étudiants max
Technologies : Architecture MEAN (MongoDB + Node.js + Angular)
(Il est possible que d'autres technologies soient utilisées pour l'analyse linguistique)
Pré-requis : avoir suivi l'UE "Présentation des données du web "
(Avoir suivi une UE de texte n'est pas obligatoire mais peut être intéressant)

Lien : http://www.lirmm.fr/~pompidor/TER/sujet_TER_M1_AIGLE_DECOL_Pierre_Pompidor_2.pdfDernière mise à jour : 2020-11-11 16:15:22

16. Comment va votre hôtel bis ? Assistant de recherche d'hôtels   
Identifiant : pierre.pompidor_2_2020-21 • Encadrant(s) : pierre.pompidor@lirmm.fr, mathieu.lafourcade@lirmm.fr

Résumé : Création d'une application d'analyse d'avis (sur des hôtels) sous architecture MEAN
Ce projet se concentre sur les thématiques suivantes :
* Extraction de connaissances / text mining :
il faudra faire une recherche sur la polarisation de texte et notamment l'analyse des
formes négatives et des intensifieurs (adjectifs, adverbes) ;
* Architecture logicielle pour les applications web ;
* Et un peu de visualisation de connaissances.

Création d'un moteur de recherche sur des annonces de locations (Airbnb, gites...).

Lien : - • Dernière mise à jour : 2020-11-11 16:16:09

17. Un compilateur certifié pour le λ-calcul   
GPL
Identifiant : david.delahaye_1_2020-21 • Encadrant(s) : david.delahaye@lirmm.fr

Résumé : L'objectif de ce TER est d'écrire un compilateur pour le λ-calcul pur (sans types) vers la CAM (' Categorical Abstract Machine '), qui est une machine abstraite pour l'implémentation des langages de programmation fonctionnels avec liaison statique des variables, c'est-à-dire des langages basés sur le λ-calcul. On démontrera ensuite que ce compilateur est correct, c'est-à-dire qu'une (β)-réduction dans le λ-calcul correspond à une réduction de la CAM avec le même résultat. Pour faire la preuve de correction, on mécanisera la preuve en utilisant l'outil d'aide à la preuve Coq.

* Prérequis :

- Aucun prérequis en programmation fonctionnelle n'est nécessaire, mais il faudra avoir un goût prononcé pour le paradigme fonctionnel de manière générale ;

- Aucun prérequis en Coq n'est nécessaire. Une petite formation Coq sera faite pendant le TER. Être en train de suivre l'UE HMIN229 pourra être un plus.

Lien : http://www.lirmm.fr/~delahaye/docs/cam.pdfDernière mise à jour : 2020-11-11 22:25:05

18. MAVIS - Musée Anthropologique Virtuel du Sud
Identifiant : rodriguez_1_2020-21 • Encadrant(s) : nancy.rodriguez@lirmm.fr

Résumé : LÂ’objectif de MAVIS est de créer un musée virtuel permettant aux visiteurs du monde entier de connaître la vie des habitants de la région de Corinto ? à lÂ’époque des objets de la collection, cÂ’est-à-dire entre 500 avant J.C. et 1500 de notre ère. Une métaphore de montagne (colline, berge, sommet, vallée) a été choisie pour présenter les objets dans leurs divers contextes : habitat, cultures, tissus, poterie, rituels funéraires. Mais le musée virtuel permet aussi une participation de la communauté actuelle, leur donnant de la visibilité et ouvrant une voie de communication de leurs connaissances au plus grand nombre. Les visiteurs du musée seront donc accompagnés par des guides virtuels, donnant leur « point de vue » sur la signification, usage et fonction de chaque objet. Le but de ce projet est donc de construire lÂ’environnement 3D permettant dÂ’accueillir les différentes ressources disponibles dans MAVIS. Plusieurs éléments sont à considérer lors de lÂ’implémentation du script : la modélisation de lÂ’environnement, la définition des vues permettant de donner accès aux informations importantes, la manière dÂ’arranger ces vues dans lÂ’ordre de la visite, les indices nécessaires à la navigation et les possibilités dÂ’interaction avec les objets.

Pre-requis :
● Avoir des connaissances en Unity serait un plus
● Bon niveau d'anglais
● Avoir une bonne aptitude au travail en équipe, être a lÂ’écoute des utilisateurs finaux
● Respecter les clauses de confidentialité

Lien : http://www.lirmm.fr/~rodrigue/TER2020.htmlDernière mise à jour : 2020-11-12 09:12:19

19. Visite virtuelle de la centrale thermique dÂ’Aramon   
Identifiant : rodriguez_2_2020-21 • Encadrant(s) : nancy.rodriguez@lirmm.fr

Résumé : La centrale thermique dÂ’Aramon (Gard) a arrêté ses activités et est en train d'être démantelée. Une reconstruction ainsi qu'une visite virtuelle du site permettrait d'une part, d'utiliser ces ressources à des fins pédagogiques pour des nombreuses filières telles que les BTS Maintenance des Systèmes, Environnement nucléaire, Contrôle industriel et régulation automatique, Métiers de la chimie, Pilotage des Procédés et Métiers de lÂ’eau, et d'une autre part de garder la mémoire du patrimoine industriel de la région.
Le but de ce projet est donc de réaliser un démonstrateur de visite virtuelle de la centrale.
Une première version de la modélisation de lÂ’environnement, réalisée par un projet de TER de lÂ’année dernière sous Unity, est disponible. Le but de ce projet est de mettre à jour cette modélisation ainsi quÂ’ajouter des fonctionnalités nouvelles, en collaboration avec EDF et le Campus des Métiers et des Qualifications. Parmi les fonctionnalités envisagées : création dÂ’un TP virtuel ciblant une des machines disponibles, créer une galerie virtuelle de lÂ’histoire de la centrale sur site, Â…

Pre-requis :
● Avoir des connaissances en Unity serait un plus
● Avoir une bonne aptitude à la rédaction en français et à la lecture en anglais scientifique
● Avoir une bonne aptitude au travail en équipe, être a lÂ’écoute des utilisateurs finaux
● Respecter les clauses de confidentialité

Lien : http://www.lirmm.fr/~rodrigue/TER2020.htmlDernière mise à jour : 2020-11-12 09:13:09

20. Jeu de mots associatif multilingue (Android)   
NYT
Identifiant : mathieu.lafourcade_m_2020-21 • Encadrant(s) : mathieu.lafourcade@lirmm.fr

Résumé : L'objet de ce projet est de réaliser un jeu en ligne (web) similaire à JeuxDeMots (jeuxdemots.org) mais tout en étant à la fois simplifié et multilingue. Le joueur décide de jouer avec un certain nombre de langues (mettons Français, Anglais, Arabe) et pour un terme proposé par le système pourra faire des proposition dans n'importe lesquelles des langues choisies. Une attention particulière sera portée sur la possibilité de passer d'un mode de saisie à l'autre (écrire de l'Arabe, puis du Chinois, revenir au Français, etc. durant une partie) et sur l'ergonomie, gameplay global du jeu.

prérequis : programmation Andoid et/ou web, PHP, javascript, bonne maîtrise du français et d'une autre langue

Lien : - • Dernière mise à jour : 2020-11-12 09:15:29

21. Y -a-t-il un intrus ?
Identifiant : prince_intrus_2020-21 • Encadrant(s) : prince@lirmm.fr, mathieu.lafourcade@lirmm.fr

Résumé : Sujet : Y -a-t-il un intrus ?
Encadrants : Mathieu Lafourcade, Violaine Prince

Le réseau lexical Jeux de Mots (JDM) (www.jeuxdemots.org et articles ici) est une ressource lexicale importante sous forme d'un gigantesque graphe, dont les sommets sont des termes de la langue, ou des concepts, et dont les arrêtes sont des relations sémantiques (qui apportent du sens), taxinomiques (qui servent à la classification) ou thématiques (qui indiquent que les sommets reliés relèvent d'un thème).

Aujourd'hui, le réseau a atteint une taille et un degré de maturité tels qu'ils permettent de réaliser des raisonnements et donc d'aider à la construction d'applications relevant de la représentation des connaissances et de l'intelligence artificielle.

L'idée proposée dans ce TER consiste à faciliter le raisonnement par le biais de la généralisation (induction expérimentale) et de la révision (abduction). Les notions considérées sont développées dans (Prince, 1998).

Pour cela, il faut 'créer un jeu' dans lequel on fournit au système un certain nombre de termes, appelés des 'faits'. En appariant ces termes avec JDM, le système doit pouvoir savoir si ces termes 'se ressemblent', sur quoi se fonde cette ressemblance (quelle relation en commun), et donc créer une classe de termes (généralisation), qui aura pour caractéristique la relation commune, si celle-ci n'existe pas encore. Cette classe permettra ensuite le raisonnement déductif abstrait et générique et donc plus au niveau conceptuel qu'au niveau terminologique.
Il peut arriver que certains termes ne puissent faire partie de la classe, auquel cas ce seront des 'intrus', et l'idée est de les mettre en avant, afin de les faire entrer dans un nouveau processus de généralisation.

Le jeu 'y-a't-il un intrus' sera un très bon moyen de pré-classifier des termes, de détecter des exceptions et des polysémies (multiplicité de sens). En substance, un terme a des chances d'être polysémique si on s'aperçoit qu'on peut le considérer comme une instance possible de plusieurs classes différentes. L'avantage de ce procédé est qu'il explicitera le socle de chacun des sens, puisqu'il s'agira de la (ou les) propriété(s) permettant de définir une classe.

Le TER consistera à :

* se familiariser avec le réseau JDM (http://www.jeuxdemots.org/diko.php);
* adapter et mettre en oeuvre des algorithmes proposés dans (Prince, 1998) ;
* réaliser une interface de jeu pour permettre à des utilisateurs de jouer à 'y -a-t-il un intrus ?' de façon à alimenter le réseau.

Lien : - • Dernière mise à jour : 2020-11-12 09:17:37

22. Compraison de méthodes exactes pour la résolution du problème du stable de taille maximum.
Identifiant : rodolphe.giroudeau_3_2020-21 • Encadrant(s) : rodolphe.giroudeau@lirmm.fr

Résumé : Dans ce stage on souhaite comparer, via une série de tests sur des instances générées aléatoirement et des instances de graphes connues, deux méthodes exactes : la programmation linéaire en nombres entiers et l'utilisation de la programmation dynamique lors d'une décomposition arborescence

** Des prérequis si nécessaires ; compétences en programmation et en optimisation combinatoire

** Une url vers la présentation détaillée de votre sujet. : prendre contact avec le responsable pour plus d'explications.

Lien : - • Dernière mise à jour : 2021-03-15 10:50:13

23. Génération automatique de contrepoints à la manière de Jean-Sébastien Bach   
JR
Identifiant : prince_1_2020-21 • Encadrant(s) : prince@lirmm.fr

Résumé : La musique est un art que l'on peut qualifier de scientifique par sa construction, du fait de l'organisation décidée par le compositeur (et correspondant ou pas au style d'écriture de son époque) de l'enchaînement des rythmes et des notes. Certains compositeurs comme Jean-Sébastien Bach ou Johann Sebastian Bach en allemand (1685-1750), compositeur et multi-instrumentiste allemand de l'époque baroque, ont poussé cette conception de la musique à un point que l'on considère toujours aujourd'hui comme sortant de l'ordinaire. J. S. Bach a même créé à la fin de sa vie un recueil de musiques basé sur le développement de plusieurs manières différentes d'une même ligne mélodique [3], afin de théoriser à la manière d'un dictionnaire la forme musicale dont il est un des plus grands précurseurs, l'écriture contrapuntique. [1]

"Le contrepoint est la forme d'écriture musicale la plus rigoureuse, la plus complexe, la plus difficile mais aussi la plus belle de toutes les formes d'écritures musicales. [...] La base du contrepoint, c'est le cantus firmus [(chant fixe, autour duquel tout s'ordonne et aussi appelé sujet dans le cas d'une fugue)], il s'agit d'une mélodie extrêmement simple mais régie par de très nombreuses règles. [...] Le contrepoint est un flot rythmique [et mélodique] à la régularité inaltérable et au débit ininterrompu." [2]

Un article a déjà été publié sur l'écriture en choral à la manière de Bach [4], un autre style d'écriture utilisé principalement dans les chants religieux. Pour l'occasion, une intelligence artificielle nommée DeepBach entraînée par un apprentissage préalable des cantates de J. S. Bach a été développée pour harmoniser automatiquement des thèmes musicaux dans ce style. Le but de ce sujet de TER est de développer des algorithmes optimisés afin de théoriser voire produire des mélodies et des musiques utilisant spécifiquement l'écriture contrapuntique de Jean-Sébastien Bach. Nous étudierons principalement ici la dimension mélodique et harmonique de cette écriture.

Références
[1] Le contrepoint rigoureux : https ://fr.wikipedia.org/wiki/Contrepoint_rigoureux.
[2] Alexandre Astier. Que ma joie demeure !, Avril 2012. Mise en scène : Jean-Christophe Hembert.
[3] Jean-Sébastien Bach. L'art de la fugue (die kunst der fuge), 1740-1750. Bibliothèque d'État de Berlin.
[4] Gaëtan Hadjeres, François Pachet, and Frank Nielsen. Deepbach : a steerable model for bach chorales generation. 2016-2017.

Lien : - • Dernière mise à jour : 2020-11-12 12:23:59

24. Extension dÂ’un plugIn pour faciliter la navigation et lÂ’accessibilité numérique des personnes mal-voyantes
Identifiant : eric.bourreau_1_2020-21 • Encadrant(s) : eric.bourreau@univ-montp2.fr

Résumé : Actuellement au LIRMM, un prototype de plugin navigateur est en cours de test pour faciliter l'accès aux pages web des personnes mal voyantes.
Le but du projet est d'étendre celui ci afin de prendre en compte les images et modifier la tendance chromatique ainsi que la luminosité (la luminance pour être précis) afin de faire respecter les normes WCGA 2 recommandées par le W3C.

Lien : http://www.lirmm.fr/~bourreau/TER/EWPA-M1.pdfDernière mise à jour : 2020-11-16 12:27:19

25. Histoire et Graphe en Avignon
Identifiant : eric.bourreau_n_2020-21 • Encadrant(s) : eric.bourreau@univ-montp2.fr

Résumé : Le but du projet et de fournir un outil (plugIn graphViz) permettant à une historienne de reconstituer la carte d'Avignon au temps des papes. Le sujet est autant informatique et combinatoire que culturel !

Lien : http://www.lirmm.fr/~bourreau/TER/histoire-et-graphe.pdfDernière mise à jour : 2020-11-16 12:30:59

26. Eye-tracking pour lÂ’étude de cartes de dommages   
Identifiant : rodriguez_3_2020-21 • Encadrant(s) : nancy.rodriguez@lirmm.fr

Résumé : Eye-tracking pour lÂ’étude de cartes de dommages
nancy.rodriguez@lirmm.fr, arnaud.salaberry@lirmm.fr, Thomas Candela (GRED), Mathieu Perroche (GRED)
Dans le contexte de la gestion des risques et des crises, une étude utilisateur comprenant 4 types de représentations des dommages ont été évalués. Cette étude intégrait lÂ’oculométrie (eye-tracking) pour suivre le regard des utilisateurs et obtenir ainsi des données objectives sur lÂ’exploration réalisée sur la carte. Le logiciel de l'eye-tracker nous donne des images sur les cartes où sont représentés toutes les trajectoires des regards et les zones visualisées (sous forme de heatmaps) pour l'ensemble d'utilisateurs. Nous avons également les données brutes provenant des enregistrements de lÂ’eye- tracker.

Le but de ce projet est de, à partir des données brutes de lÂ’eye-tracker, récréer les heatmaps et les trajectoires (statiques et animées) pour chaque utilisateur. La trajectoire est un élément important de la recherche visuelle et donc de lÂ’efficacité de la représentation. Un premier démonstrateur de lÂ’affichage de la trajectoire a déjà été effectué. Ce TER permettra d'aller plus loin dans l'ajout des fonctionnalités, dont une représentation 3D de la trajectoire.

Lien : - • Dernière mise à jour : 2020-11-17 16:14:44

27. Étude des réseaux antagonistes génératifs   
Identifiant : poncelet_3_2020-21 • Encadrant(s) : pascal.poncelet@lirmm.fr

Résumé : Contexte : Depuis l'article fondateur en 2014, les réseaux antagonistes génératifs (generative adversarial networks) en permettant de générer des images réalistes sont de plus en plus utilisés. Le principe général de ces approches est de disposer de deux réseaux qui sont mis en compétition. Le premier, appelé générateur, est un type de réseau de neurones convolutif qui vise à générer des données. Son adversaire, appelé discriminateur, est un réseau de neurones "déconvolutif" qui essaye de détecter si la donnée générée est réelle ou pas. Ainsi au cours du temps, via la rétropropagation, le générateur va tenter de générer des sorties de meilleure qualité alors que le discrimateur va détecter de mieux en mieux les fausses données.

Objectifs : Ce sujet de TER consiste à mieux comprendre le fonctionnement de ce type de réseau et à pouvoir les mettre en oeuvre pour mener différentes expérimentations. L'objectif de ces dernières est de mettre en évidence comment les réseaux convergent, quelles sont les évolutions dans les données pour pouvoir, via la rétropropagation, arriver au résultat final, etc.. Il sera, par exemple, possible également de regarder dans chaque couche du réseau comment les images évoluent et les éléments importants de ces images.

Prérequis :
* Langage de programmation (Python)
* Curiosité

Lien : - • Dernière mise à jour : 2020-11-26 09:30:12

28. Stylisation d'images à l'aide d'une triangulation
Identifiant : noura.faraj_1_2020-21 • Encadrant(s) : noura.faraj@lirmm.fr, william.puech@lirmm.fr

Résumé : L'objectif de générer automatiquement des images triangulées artistiques
en utilisant des informations extraite de l'image pour cela vous
proposerez une application interactive permettant de choisir le type de
caractéristiques à extraire de l'image, la résolution, le style, les
couleurs de la triangulation et de la modifier localement. Si le temps
le permet cette méthode sera appliquée pour styliser des vidéos.

Lien : http://www.lirmm.fr/~nfaraj/files/TER/TER_triangulation_images.pdfDernière mise à jour : 2020-11-17 18:34:19

29. Jeu d'arcade   
Identifiant : noura.faraj_2_2020-21 • Encadrant(s) : noura.faraj@lirmm.fr

Résumé : Ce projet a pour objectif de créer un jeu que vous pourrez mettre sur une borne d'arcade de jeux mise à disposition par le département informatique de la faculté des sciences. Le jeu pourra être réalisé à l'aide d'Unity, Qt 3D, Orgre

Le projet pourra recréer une démo jouable d'un jeu de stratégie orienté combat. Dans ce cas, deux équipes s'affronteront : une piloté par le joueur et une piloté par une IA. Chaque unité devra posséder une conscience propre. La gestion des déplacements pourra être effectuée par des algorithmes de recherche de type A*. Le rendu pourra être effectué en 2D. Une autre option sera de réaliser un simulateur de vol en avion dans un univers infini. Il faudra pour cela proposer des méthodes intuitives pour le contrôle des vitesses et des accélérations dans les trois directions. Il faudra gérer simultanément les défilements du décor, et les mises à jour du tableau de bord. Alternativement, vous pourrez réaliser un jeu de course de voiture en caméra subjective, dans le style du jeu 'stunt car racer ', en gérant les déplacements, vitesses et accélérations du véhicule. Une attention particulière devra être apportée à la gestion des collisions entre le véhicule et le décor. Vous pouvez également proposer un autre type de jeu.

** Des prérequis si nécessaires : c++

Lien : http://www.lirmm.fr/~nfaraj/files/TER/TER_jeu_arcade.pdfDernière mise à jour : 2020-12-04 18:01:11

30. Jeu d'arcade - Le retour BIS   
Identifiant : noura.faraj_3_2020-21 • Encadrant(s) : noura.faraj@lirmm.fr

Résumé : Ce projet a pour objectif de créer un jeu que vous pourrez mettre sur une borne d'arcade de jeux mise à disposition par le département informatique de la faculté des sciences. Le jeu pourra être réalisé à l'aide d'Unity, Qt 3D, Orgre'

Le projet pourra recréer une démo jouable d'un jeu de stratégie orienté combat. Dans ce cas, deux équipes s'affronteront : une piloté par le joueur et une piloté par une IA. Chaque unité devra posséder une conscience propre. La gestion des déplacements pourra être effectuée par des algorithmes de recherche de type A*. Le rendu pourra être effectué en 2D. Une autre option sera de réaliser un simulateur de vol en avion dans un univers infini. Il faudra pour cela proposer des méthodes intuitives pour le contrôle des vitesses et des accélérations dans les trois directions. Il faudra gérer simultanément les défilements du décor, et les mises à jour du tableau de bord. Alternativement, vous pourrez réaliser un jeu de course de voiture en caméra subjective, dans le style du jeu 'stunt car racer ', en gérant les déplacements, vitesses et accélérations du véhicule. Une attention particulière devra être apportée à la gestion des collisions entre le véhicule et le décor. Vous pouvez également proposer un autre type de jeu.

** Des prérequis si nécessaires :c++

Lien : http://www.lirmm.fr/~nfaraj/files/TER/TER_jeu_arcade.pdfDernière mise à jour : 2020-11-17 18:35:16

31. Test de simulateur temps réel 3D de fonds marins pour la robotique   
Identifiant : noura.faraj_4_2020-21 • Encadrant(s) : noura.faraj@lirmm.fr

Résumé : Le but de ce projet est de tester le simulateur gazebo
http://gazebosim.org/ testant sa dynamique et en mettant en place
différentes scènes et contenus (diversification des scénarios, ajout
d'objets 3D animés), ainsi que son aspect visuel. Les travaux
permettront de tester :
- la gestion d'une scène dynamique : animation d'animaux marins,
détection et évitement des collisions.
- l'interactivité : utilisation de structure d'accélération,
multi-résolution pour l'affichage et les collisions
- le rendu temps réel : rendu rapide aussi réaliste que possible d'un
environnement sous-marin (milieu aquatique)

Lien : https://seafile.lirmm.fr/f/a8a55d08c0ca4328b191/Dernière mise à jour : 2021-01-19 13:54:38

32. Du cahier des charges à la réalisation   
AIM
Identifiant : eric.bourreau_2_2020-21 • Encadrant(s) : eric.bourreau@univ-montp2.fr

Résumé : Votre objectif est de réaliser ce que font toutes les ESN (Entreprise de Service Numérique) : A partir dÂ’un cahier des charges clair et déjà défini, vous devez développer lÂ’application dans un délai précis et fournir un délivrable testé conforme à la spécification.
Le sujet sera la réalisation d'une plateforme client/serveur de gestion des stages de Master.

Lien : http://www.lirmm.fr/~bourreau/TER/stagev2.pdfDernière mise à jour : 2020-11-18 09:34:21

33. Théorie algorithmique des jeux   
Identifiant : gioan_1_2020-21 • Encadrant(s) : gioan@lirmm.fr

Résumé : La théorie algorithmique des jeux est un domaine relativement récent, à lÂ’interface de lÂ’informatique théorique et de lÂ’économie, avec de nombreuses applications, dont notamment lÂ’optimisation des transports routiers. Son concept phare, le prix de lÂ’anarchie, mesure à quel point un système où tous les joueurs agissent pour optimiser leurs intérêts, peut être éloigné dÂ’une situation optimale du point de vue global. [1]

Le premier but de ce TER est dÂ’étudier et de reformuler la preuve du célèbre théorème de Roughgarden-Tardos, qui affirme que le prix de lÂ’anarchie est toujours inférieur ou égal à 4/3 pour des fonctions de congestions linéaires. A noter quÂ’il nÂ’existe a priori pas de version francophone de cette preuve, mis à part un article de vulgarisation d’Étienne Ghys [2], où est expliquée la preuve de la version faible du théorème (≤2).

Le second but de ce TER est dÂ’étudier un mécanisme de coordination qui permet de minimiser le prix de lÂ’anarchie [3], en ajoutant judicieusement des taxes dans le réseau. La preuve du bon fonctionnement de ce mécanisme sera aussi détaillée.

Lien : - • Dernière mise à jour : 2020-11-18 16:48:38

34. Etudes préliminaires pour des décompositions de matroïdes orientés   
Identifiant : gioan_2_2020-21 • Encadrant(s) : gioan@lirmm.fr

Résumé : La théorie des matroïdes et matroïdes orientés généralise la théorie des graphes en tant qu'espaces de cycles, constitue une abstraction combinatoire de l'algèbre linéaire, et fournit un langage approprié pour les relations d'incidence et de convexité dans divers objets géométriques.

Le matroïde orienté associé à un ensemble de points code toutes ses relations de convexité par un volumineux ensemble de signes (n^4 signes pour n points en dimension 3). Afin de pouvoir utiliser pratiquement cette structure pour un grand nombre de points, il serait bon de la décomposer en petites parties elles-mêmes structurées entre elles, comme on le fait souvent pour des problèmes combinatoires algorithmiques.

La question est de comprendre comment détecter les structures locales utiles (d'une configuration de points qui évolue, ou d'une famille de configurations de points similaires), et comment interagissent les structures locales et globales.

Des variantes et applications du problème en termes de théorie des graphes peuvent également être abordées. En effet, les arêtes dÂ’un graphe peuvent être vues comme des points de lÂ’espace. Dans ce cas, on considère des points avec beaucoup de contraintes dÂ’alignement en grande dimension. CÂ’est un point de vue "opposé" au point de vue des modèles 3D où on considère des points avec peu ou pas dÂ’alignements (positions générale) en petite dimension. Ces deux points de vues sont des cas particuliers intéressants et complémentaires du problème général en termes de matroïdes orientés généraux.

Dans le cadre de ce TER M1, il sÂ’agira essentiellement dÂ’expérimentations théoriques et/ou pratiques pour définir et évaluer des décompositions de modèles 2D ou 3D, ou bien de graphes.
** Des prérequis si nécessaires ;
Compétences en combinatoire, algèbre linéaire, algorithmique et programmation. Une connaissance préalable des matroïdes orientés serait très appréciée.

** Une url vers la présentation détaillée de votre sujet.
http://www.lirmm.fr/~gioan/stages/sujet%20TER%20M1%20-%20Gioan%20-%20Etudes%20préliminaires%20pour%20des%20décompositions%20de%20matroïdes%20orientés.pdf

Lien : http://www.lirmm.fr/~gioan/stages/sujet%20TER%20M1%20-%20Gioan%20-%20Etudes%20préliminaires%20pour%20des%20décompositions%20de%20matroïdes%20orientés.pdfDernière mise à jour : 2020-11-18 16:49:39

35. Portage sur Internet de l’analyseur syntaxique et sémantique du français à large échelle GRAIL   
NB
Identifiant : retore_1_2020-21 • Encadrant(s) : christian.retore@lirmm.fr, richard.moot@lirmm.fr

Résumé : L'analyseur syntaxique et sémantique du français à large échelle GRAIL a
été développé par Richard Moot. La plateforme Grail analyse une ou
plusieurs phrases du français et produit automatiquement une formule
logiques représentant le sens de la phrase analysée --- en cas
d'ambiguïté Grail en produit plusieurs. La grammaire a été acquise sur
corpus annoté, les termes sémantiques associés aux mots sont soit
calculés automatiquement soit saisis manuellement. Chaque mot ayant de
nombreuses catégories possibles, seules sont analysées les N phrases
avec la séquence de catégories les plus probables pour chaque mot.
Certaines étapes du processus d'analyse font appel à du Deep Learning
mais les analyses proposées sont ensuite vérifiées et éventuellement
corrigées.

Cet analyseur du français Grail peut être librement installé (sous
licence GNU LGLPL) mais pour le moment il n'est pas disponible en ligne.

L'objet de ce TER est de porter Grail sur Internet afin qu'il soit
accessible en ligne et que l'utilisateur puisse entrer une phrase de
texte puis visualiser et télécharger le résultat de l'analyse.

Références :

** Grail Light https://github.com/RichardMoot/GrailLight

** Deep grail https://richardmoot.github.io/DeepGrail/

** Moot, R. (2017), The Grail theorem prover: Type theory for syntax and
semantics, Modern Perspectives in Type-Theoretic Semantics, 247-277
https://richardmoot.github.io

Lien : - • Dernière mise à jour : 2020-11-20 11:56:11

36. Création d'un comparateur de codes sources pour lignes de produits logiciels   
Identifiant : nicolas.hlad_1_2020-21 • Encadrant(s) : nicolas.hlad@lirmm.fr

Résumé : Les lignes de produits logiciels permettent de concevoir des familles de produits dans un domaine métier spécifiques. Ces produits partagent des caractéristiques et des implémentations communes, et se distinguent par des caractéristiques spécifiques. Leurs implémentations sont souvent réalisées à partir d'une architecture générique communes à l'ensemble des produits. C'est à l'aide d'annotations directement placé le code de cette architecture que les spécificités de chaque produit vont être conçu. Dans ce sujet, nous souhaitons réaliser un outil permettant d'évaluer l'implémentation de ces architectures. Pour cela, nous allons nous appuyer une approche existante, VITAL, qui proposent un ensemble de critères d'évaluation à présenter aux développeurs pour une ligne de produits. Toutefois, nous souhaitons aller plus loin en expérimentant des métriques basées sur ces critères afin de proposer un système de score, évaluant la qualité des implémentations. Nous proposons pour cela la conception d'un logiciel permettant l'application de métriques pour la comparaison de lignes de produits logiciels. L'objectif final étant la possibilité de comparait deux implémentations deux lignes différentes entre elles.

** Des prérequis si nécessaires ;
Avoir suivie le cours de HMIN102 sur les lignes de produits logiciels.

Lien : https://gitlab.info-ufr.univ-montp2.fr/p00000392668/SPL-comparator/blob/master/TER-Analyseur-Code-annotation.pdfDernière mise à jour : 2020-11-26 09:20:41

37. Reconnaissance dÂ’empreintes digitales sans contact   
Identifiant : Pauline.Puteau_1_2020-21 • Encadrant(s) : pauline.puteaux@lirmm.fr, iuliia.tkachenko@univ-lyon2.fr

Résumé : La biométrie désigne l'ensemble des procédés de reconnaissance, d'authentification et d'identification d'une personne par certaines de ses caractéristiques physiques ou comportementales. L'approche la plus communément répandue est la reconnaissance d'empreintes digitales.
En particulier, les extracteurs flous peuvent être utilisés pour assurer une authentification fiable et sûre des données biométriques. Ces extracteurs ont l'avantage d'être tolérants aux erreurs. En effet, si deux ensembles de données proches sont pris en entrée d'un extracteur flou, la même sortie est obtenue. Ainsi, cette propriété est très intéressante pour le traitement des données biométriques.

Dans ce sujet de TER, nous nous intéressons à la construction d'un système biométrique complet (enrôlement puis reconnaissance) basé sur l'utilisation des extracteurs flous.

Récemment des hackers ont réussi à extraire des empreintes digitales d'après une ou plusieurs photographies. Ainsi, dans le cadre de ce TER, nous sommes également intéressés par l'application de la méthode implémentée à des photographies d'empreintes digitales (à la place d'images acquises à l'aide d'un capteur). Cela permettrait notamment, dans un contexte sanitaire difficile comme c'est le cas aujourd'hui, de pouvoir réaliser une reconnaissance sans contact, et donc plus acceptable pour l'utilisateur.
Travail attendu :
- (Brève) étude bibliographique sur l'utilisation d'extracteurs flous en biométrie,
- Implémentation d'une méthode de l'état-de-l'art puis amélioration,
- Mise en place d'un système biométrique complet (enrôlement puis reconnaissance),
- Adaptation de cette méthode pour réaliser la reconnaissance sans contact (à partir de la photographie d'une empreinte digitale).
Pré-requis : Connaissances en traitement d'image.

Lien : https://seafile.lirmm.fr/f/71d6ceb24e7941bc8ea4/?dl=1Dernière mise à jour : 2020-11-27 11:26:49

38. A la recherche de points d'intérêt dans les images chiffrées
Identifiant : Pauline.Puteaux_2_2020-21 • Encadrant(s) : pauline.puteaux@lirmm.fr

Résumé : De nos jours, la sécurité des données visuelles joue un rôle important dans tous les domaines, en particulier lorsqu'un niveau élevé de confidentialité est exigé, comme par exemple pour des applications militaires ou médicales. Avec le développement des services informatiques en nuage, de plus en plus de données transitent sur les réseaux. D'après CISCO, les données multimédia représentent plus de 80% du volume de ces données. Cela introduit nécessairement de sérieux problèmes de sécurité où la confidentialité, l'authentification et l'intégrité sont constamment menacées par des activités illégales telles que le piratage, la production de contrefaçons, ou encore l'usage mal attentionné de ces données.


Le chiffrement recherchable permet le stockage sécurisé d'une base de données sur un serveur non fiable, tout en conservant les fonctionnalités de recherche et d'indexation de contenu. Avec le développement de l'informatique en nuage, l'efficacité du chiffrement recherchable est devenue cruciale. Ainsi, les méthodes utilisées doivent permettre d'assurer la sécurité des données stockées sans augmenter leur taille. De plus, le coût de calcul des opérations nécessaires à la recherche et l'indexation doit être faible. Si la plupart des méthodes existantes ont été développées pour la recherche de documents textuels, les méthodes de recherche d'images basées sur l'analyse du contenu sont particulièrement utiles dans de nombreuses applications.

En particulier, Hsu et al. ont proposé une méthode basée sur le chiffrement homomorphe où l'utilisation de la transformation de caractéristiques visuelles invariante à l'échelle (Scale-Invariant Feature Transform, SIFT) pour extraire les caractéristiques de l'image ne remet pas en cause la confidentialité de son contenu original. A partir de la méthode de chiffrement homomorphe décrite dans l'approche de Hsu et al., nous proposons de créer un réseau neuronal convolutif spécialisé dans lÂ’extraction des points d'intérêt dans le domaine chiffré. Ainsi, il sera rendu possible d'effectuer des analyses et des traitements (indexation, recherche de similarités) directement dans le domaine chiffré.

Travail attendu :

- - (Brève) étude bibliographique sur lÂ’extraction de caractéristiques dans les images chiffrées,

- - Implémentation dÂ’une méthode de la littérature existante,

- - A partir d'un système de chiffrement homomorphe spécifique : apprendre à un réseau neuronal convolutif à extraire des points d'intérêt dans le domaine chiffré, pour ensuite pouvoir effectuer des analyses (indexation, recherche de similarité) dans des images chiffrées.

Pré-requis : Connaissances en traitement d'images et en Python

Lien : https://seafile.lirmm.fr/f/806e03159d8648b4b711/?dl=1Dernière mise à jour : 2020-11-27 14:11:08

39. Partage d’images secrètes issues de réseaux sociaux pour la protection de la vie privée   
Identifiant : Pauline.Puteaux_3_2020-21 • Encadrant(s) : pauline.puteaux@lirmm.fr, william.puech@lirmm.fr

Résumé : Le développement des réseaux sociaux soulève de nombreuses questions relatives à la protection des images. En particulier, des conflits de protection de la vie privée pluripartite peuvent avoir lieu lors de la publication d'une photo par son propriétaire. En effet, les paramètres de confidentialité appliqués à cette image sont ceux de son propriétaire et les personnes y figurant n'interviennent pas dans le processus.

Les méthodes de partage d'image secrète (secret image sharing) peuvent être utilisées pour répondre à cette problématique. Inspirées des méthodes de partage de secret, elles permettent de partager une image entre n utilisateurs de façon sécurisée. Chaque utilisateur reçoit une information issue de ce partage sous la forme d'une image appelée partie (share). Cette partie est personnelle, unique et semble visuellement avoir été générée aléatoirement. L'image originale ne peut alors être reconstruite qu'après réunion d'au moins k de ces parties avec k <= n.

Dans le cadre de ce TER, nous proposons de mettre en place un système de partage hybride de photos issues de réseaux sociaux. La solution proposée devra permettre d'assurer le respect de la vie privée des utilisateurs.

Travail attendu : (Brève) étude bibliographique de partage d'images secrètes, puis développement d'une interface complète intégrant le système :

- Réception d'une photographie
- Détection des visages, et donc des zones à protéger
- Génération des n parties associées aux utilisateurs présents sur la photographie et de la partie publique
- Pour le décodage, deux scénarios possibles. Si k parties sont regroupées, l'image est parfaitement reconstruite (décodage complet). Si k' < k parties sont regroupées, seules des parties associées aux k' utilisateurs sont décodées et les n - k' autres restent protégées.

Pré-requis : Connaissances en traitement d'image et en développement d'interfaces.

Lien : https://seafile.lirmm.fr/f/6d3d0b98fe3a4471aa68/?dl=1Dernière mise à jour : 2020-11-27 14:22:14

40. Mappings avec interpretation   
Identifiant : ulliana_1_2020-21 • Encadrant(s) : ulliana@lirmm.fr, pierre.bisquer@inrae.fr, mugnier@lirmm.fr

Résumé : Ce TER vise l'étude d'un cadre pour l'intégration de données é base de connaissances. La notion de "mapping avec interprétation" sera au centre du projet. Un mapping est une spécification permettant reliant des données brutes avec le vocabulaire d'une base de connaissance. Lorsqu'on y ajoute une dimension dite "d'interpretation" le mapping peut, pour une même donnée brute, produire un résultat qui dépend des connaissances disponibles, c'est é dire, des informations contenues dans la base de connaissances. L'objectif du TER est proposer un langage simple de mappings et de réaliser une implémentation basée sur l'outil Graal. Une fois les mappings en place, les algorithmes de chaînage avant et chaînage arrière pour répondre à des requêtes (disponibles dans l'outil) seront adaptés aux mappings.

Groupe de 5 étudiants , divisé en deux sous-groupes 2 et 3

Lien : www.lirmm.fr/~ulliana

Lien : - • Dernière mise à jour : 2020-12-07 15:37:10

41. Des code trees adaptés à lÂ’unification en logique du premier ordre
Identifiant : david.delahaye_2_2020-21 • Encadrant(s) : david.delahaye@lirmm.fr, hinde.bouziane@lirmm.fr, julie.cailler@lirmm.fr

Résumé : Dans ce TER, nous allons nous intéresser aux techniques d'indexation des termes en logique du premier ordre, c'est-à-dire les techniques de conception et de mise en oeuvre de structures qui facilitent la recherche rapide d'un ensemble de termes candidats satisfaisant une certaine propriété à partir d'une grande collection de termes. Par exemple, on peut vouloir rechercher tous les termes qui s'unifient avec f(x) dans l'ensemble {f(a),g(a,x),f(b)}, ce qui nous retournera f(a) et f(b).

En particulier, nous nous pencherons sur les code trees, où la structure d'indexation est représentée par un programme (un code) que l'on va exécuter sur la requête (qui sera vue comme son argument effectif). Dans ce TER, nous souhaitons généraliser les code trees (essentiellement utilisés pour faire de la subsomption de clauses dans les outils de déduction automatique basés sur les clauses) de manière à pouvoir les utiliser pour faire de l'unification. Étant donné un terme t, le problème est donc de trouver tous les termes t' dans la structure d'indexation (la collection de termes) tels qu'il existe une substitution σ telle que tσ=t'σ.

** Des prérequis si nécessaires :
Avoir suivi un cours de logique de premier ordre.

Lien : http://www.lirmm.fr/~delahaye/docs/code-trees.pdfDernière mise à jour : 2020-12-03 18:16:03

42. Data'clear   
Identifiant : ulliana_2_2020-21 • Encadrant(s) : ulliana@lirmm.fr

Résumé : Data'clear est un projet en lien avec la science des données (Data Science). La difficulté de la gestion des données aujourd'hui est leur traitement et leur analyse pour permettre des interprétations. La création et la récupération de Datasets et de Database est courante et facile d'accès pour les entreprises (leur ventes, la fréquentation de leur magasin..) mais leur traitement et leur interprétation reste difficile et souvent couteux. Data'clear a pour but de créer une interface (web/logiciel) permettant `a une entreprise ou un particulier de faire de l'analyse sur un jeu de données (récupérer des éléments simple comme : la plus grande valeur d'un jeu de données, des graphiques ou des calculs...). Créer un 'pont' entre les données (Database/Datasets) et leur interprétation `a travers une interface pédagogique. En bref, Data'clear serait une solution logiciel ressemblant soit un ensemble de script léger permettant des analyses rapides ou une interface plus global prenant en entrée des données et permettant des analyses en sortie

Lien : - • Dernière mise à jour : 2020-12-07 15:33:59

43. Calcul distribué et tolérance aux fautes dans la multiplication de matrices   
Identifiant : eleonora.guerrini_1_2020-21 • Encadrant(s) : eleonora.guerrini@lirmm.fr

Résumé : Contexte : Calcul Distribué et tolérance aux fautes en algèbre linéaire
-Calcul distribué-
L'algèbre linéaire est un élément clé dans les algorithmes de machine learning ou processus de signal. Dans ces cas d'application on a besoin d'opérer sur des ensembles de données très grands et de pouvoir exécuter des tâches conséquentes rapidement. Cela se traduit, à l'âge des supercalculateurs, dans l'adoption de systèmes distribués, qui peuvent sensiblement réduire les temps de calcul. En général, un serveur central qui est chargé de la gestion des données et résultats de l'algorithme, délègue des calculs à des calculateurs qui sont des noeuds du réseau. Une fois le calcul exécuté, le noeud envoie le résultat au serveur qui collecte les données manipulées et exécute un algorithme plus léger pour envoyer le résultat final.
-Tolérance aux fautes et codes correcteurs d'erreurs-
Dans le cadre d'une délégation de calculs à un système que l'on ne connaît pas forcément, il est nécessaire de rendre l'algorithme "résistant aux fautes". Plus le réseau d'exécution est grand, plus il est important de sécuriser notre algorithme pour qu'il puisse gérer d'éventuelles données inexactes transmises par des noeuds. Les fautes peuvent être dues à des calculs mal faits par un noeud, à des erreurs de transmission où bien à des entités malintentionnées qui attaquent le système. Pour protéger les données contre les fautes et préserver l'intégrité du calcul, les concepteurs d'algorithmes se sont tournés vers les techniques de codes correcteurs d'erreurs. Un code correcteur d'erreur est une technique pour encoder un message qui est destiné à être transmis dans un canal éventuellement perturbé. Il est encodé avec de la redondance qui sert à récupérer le message même si des erreurs de transmission arrivent. Les techniques qui nous intéressent sont essentiellement combinatoires et algébriques.
-Ce travail de TER-
Dans ce TER nous allons étudier comment l'algorithme de multiplication classique de matrices peut être conçu pour être exécuté en réseau et être tolérant aux fautes.Pour cela les éléments de la matrice sont encodés comme l'on fait avec les codes correcteurs. Différents types d'encodages donnent de différents résultats de tolérance.
Des approches différentes sont présentes dans la littérature, mais des modifications peuvent être importantes pour des améliorations sur les temps d'exécution. Le but de se TER est de
-Se familiariser avec les algorithmes de multiplication matricielle tolérants aux fautes
-Fournir une ou deux implémentations et des tests
-Comparer des différentes méthodes d'encodage de matrices par rapport à la vitesse d'exécution et la tolérance aux fautes
-Proposer d'éventuelles modifications aux encodages qui pourraient améliorer les algorithmes existants, en profitant des deux approches algébriques ou combinatoires.

Lien : https://sites.google.com/site/eleonorahomepage/sujets-de-stageDernière mise à jour : 2020-12-08 19:57:01

44. Intelligence artificielle et gestion de débat   
Identifiant : marianne.huchard_1_2020-21 • Encadrant(s) : marianne.huchard@lirmm.fr, alain.gutierrez@lirmm.fr, mathieu.lafourcade@lirmm.fr

Résumé : Les outils d'intelligence artificielle peuvent permettre à des participants à un débat numérique portant sur un document, de superviser son indexation à partir des termes présents dans sa discussion et de participer à son analyse.

La plateforme AREN permet des débats privés ou publics entre des personnes distantes et intervenant de manière asynchrone. Enfin des outils d'intelligence artificielle développés aux LIRMM permettent aux participants au débat de superviser une indexation des propos tenus spécifique à ce débat. L'indexation permet de se repérer dans des débats.

L'analyse de concept formel (FCA) appliquée sur les éléments d'indexation permet de faire émerger les concepts nouveaux et/ou pertinents.

L'objet de ce TER est d'appliquer différents algorithmes de FCA sur les index des arguments des débats, et ce en lien avec la base de connaissances (JeuxDeMots - http://www.jeuxdemots.org/jdm-about.php) afin de déterminer quels types de relations sémantiques sont les plus pertinents à prendre en compte.

mots clés : treillis de Galois, FCA

encadrants : Jean Sallantin , Marianne Huchard , mathieu lafourcade , Alain Gutierrez , Michel Liquière

Lien : https://docs.google.com/document/d/1y6iwKJp6Tb74xgQWNjaaK0_nl5t2LEhMkqpTRVY9Q08/edit?usp=sharingDernière mise à jour : 2020-12-09 16:15:23

45. Chaîne d'extraction d'informations depuis le web - application au cancer de la prostate
Identifiant : anne.laurent_2_2020-21 • Encadrant(s) : anne.laurent@lirmm.fr, mathieu.lafourcade@lirmm.fr

Résumé : L'objet de ce TER est de concevoir et implémenter une chaîne de traitements permettant l'extraction d'informations et son analyse depuis des documents trouvé sur le web. L'application se fera sur le cancer de la prostate. Une base de connaissance (JeuxDeMots) pourra être utilisé comme support.

Les tâches suivantes devront être réalisées :
* créer un crawler parcourant le web (à partir de moteur de recherche connus comme Google ou Bing) et récupérant les documents potentiellement intéressants ;

* Analyser des documents :
** repérer le vocabulaire non encore connu, des termes composés nouveaux (nouveaux == non connus de la base de connaissances)
** identifier les relations sémantiques dans les textes
* inférer des informations en combinant les informations nouvelles et celles déjà connues

Lien : - • Dernière mise à jour : 2020-12-09 16:43:04

46. Approche Générique pour la Migration de la Partie Client (Front end) dÂ’Application Web : Application à la Migration de GWT vers Angular
Identifiant : seriai_1_2020-21 • Encadrant(s) : seriai@lirmm.fr, anas.shatnawi@berger-levrault.com

Résumé : Google Web Toolkit (GWT) est un ensemble d'outils logiciels développé par Google, permettant de créer et maintenir des applications web dynamiques mettant en oeuvre JavaScript, en utilisant le langage et les outils Java.
Par ailleurs, Angular est un cadriciel (framework) côté client, open source, basé sur TypeScript. Il est développé par Google et permet la création dÂ’applications Web et plus particulièrement de ce quÂ’on appelle
des « Single Page Applications » : des applications web accessibles via une page web unique qui permet de fluidifier lÂ’expérience utilisateur et dÂ’éviter les chargements de pages à chaque nouvelle action.
L'objectif de ce projet TER M1 est dÂ’implémenter une approche existante de migration de la partie front d'une application web développée en GWT vers Angular. Il est structuré en 4 étapes :

1) Réaliser une étude bibliographique liée à la problématique de migration dÂ’interfaces graphiques dÂ’applications logicielles et en particulier la migration de la partie Front des applications Web.
2) Implémenter l'approche existante (voir Refs. Bibliographique) de transformation d'un code source GWT vers un code source en Angular. Ceci inclut :
- Implémenter les métas-modèles GWT et Angular d'une application et analyser le code source en GWT pour pouvoir extraire le modèle de ce code source instance de ce méta-modèle et la génération du code source Angular à partir d'un modèle, instance du méta-modèle implémenté.
- Implémenter un modèle de correspondance entre les éléments des méta-modèles GWT et Angular et implémenter les procédures (algorithmes) de passage d'un modèle GWT vers un modèle Angular.
3) Implémenter une interface IHM Web (SasS : Software as Service) permettant de fournir les services de migration proposés.
4) Proposer quelques éléments de généralisation de l'approche proposée vers la transformation d'un code JSP ou ASP vers Angular.
** Des prérequis si nécessaires : aucun.

Lien : http://www.lirmm.fr/~seriai/uploads/Recherche/TER2_M1_2021.pdfDernière mise à jour : 2020-12-10 21:16:26

47. Techniques d'Apprentissage Automatique Appliquées Au Génie Logiciel : Application à la migration de Spring MVC vers Spring Microservices (JAVA)
Identifiant : seriai_2_2020-21 • Encadrant(s) : seriai@lirmm.fr, anas.shatnawi@berger-levrault.com

Résumé : Le style architectural Microservices connait aujourd'hui un engouement sans précédent en raison de ses caractéristiques intrinsèques. Une architecture à base de Microservices est composée d'un ensemble de services modulables, relativement indépendants, centrés autour d'objectifs métier différents, qui assurent une gestion décentralisée des données et qui prennent en compte les aspects liés à la (re)configuration pour s'adapter à des besoins et des contextes variables.

Par ailleurs, Spring est un Framework open source pour construire et définir l'infrastructure d'une application Java. Le Framework a une architecture de type MVC (Model-View-Controller) et ses composants servent pour développer des applications Web flexibles et faiblement couplées.

Par ailleurs, l'apprentissage automatique (machine learning) est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la 'capacité d'apprendre' à partir de données.

L'objectif de ce projet TER M1 est de réaliser une partie d'un outil qui permet d'implémenter une approche existante de migration d'un code source du style monolithique vers le style Microservices en s'appuyant, principalement, sur des techniques d'apprentissage automatique (Clustering, Génétique, Q-learning). Ce projet de TER M1 est structuré en 4 étapes :

1- Implémenter deux algorithmes existants proposés par l'équipe MaREL du laboratoire Lirmm qui permettent d'identifier des clusters de Microservices à partir de l'analyse du code source de la partie Backend d'une application web développée en Spring. Les deux algorithmes concernent un algorithme de clustering hiérarchique et un algorithme génétique multi-objectif.

2- Proposer une approche basée sur le Q-learning pour l'identification des MicroServices.

3- Implémenter quelques patrons de refactoring existants proposés par l'équipe MaREL pour pouvoir créer des Microservices à partir du code source d'une application monolithique.

4- Implémenter une interface IHM Web (SasS : Software as Service) pour pouvoir offrir à un architecte les deux services précédents (identifier des clusters de Microservices et la création des Microservices à partir de ces clusters).

** Des prérequis si nécessaires : aucun.

Lien : http://www.lirmm.fr/~seriai/uploads/Recherche/TER1Bis_M1_2021.pdfDernière mise à jour : 2020-12-10 21:24:05

48. Une Approche et un Outil pour la Construction d'une Ligne de Produits à Partir d'un Ensemble de Logiciels Similaires
Identifiant : seriai_3_2020-21 • Encadrant(s) : seriai@lirmm.fr, anas.shatnawi@berger-levrault.com

Résumé : Les lignes de produits logiciels (SPL), ou l'ingénierie de ligne de produits logiciels, font référence aux méthodes, outils et techniques de génie logiciel pour créer une collection de systèmes logiciels similaires à partir d'un ensemble partagé de composants. En d'autres termes, c'est un ensemble de systèmes logiciels qui partagent un ensemble commun de fonctionnalités répondant aux besoins spécifiques d'un segment de marché. Il existe, principalement, deux approches pour construire une ligne de produits. La première, appelée proactive, consiste à créer tous les artefacts de la ligne de produits avant de pouvoir l'exploiter. La deuxième, appelée extractive consiste à créer les artefacts de la ligne par l'analyse d'un ensemble de logiciels similaires déjà existants. Cette deuxième approche vise d'une part à réduire le coût de construction de la ligne et d'autre part à s'adapter à une situation fréquente liée au fait que les entreprises développent souvent des produits logiciels similaires en se basant sur la technique Copier-Coller- Modifier. Linux, ArgoUML et PhoneMedia sont des exemples de logiciels avec beaucoup de variantes déjà existantes.
Dans l'équipe MaREL (spécialisée en Génie logiciel) du laboratoire de recherche LIRMM, nous avons développé, en collaboration avec plusieurs entreprises telles que ISIA, Acelys, Thales, Berger Levrault une approche extractive pour la création de lignes de produits nommée ExtractiveSPL.

L'objectif de ce Projet de TER M1 est double. Il s'agit premièrement d'implémenter en JAVA l'approche déjà définie et dont les références sont ci-dessous. Deuxièmement, il s'agit de proposer une extension de cette approche.
Pour le premier objectif, les étapes sont :
- Analyse statique du code source des différents logiciels similaires pour extraire les informations nécessaires aux autres étapes du processus d'extraction. L'analyse statique peut se réaliser par utilisation de l'un des outils suivants : Java JDT, Spoon, Moose.
- Utilisation de l'outil FCA-explorer pour partitionner le code source en éléments communs et éléments variables.
- Implémenter la fonction de mesure de la qualité de l'implémentation des 'features'.
- Implémenter l'algorithme de clustering pour l'identification des features.
Pour le deuxième objectif, il s'agit de :

- Transformer le processus extractif en un processus incrémental : au lieu d'analyser tous les produits existants une seule fois, les analyser l'un après l'autre.
- Proposer un algorithme génétique pour l'identification des features.
** Des prérequis si nécessaires : aucun.

Lien : http://www.lirmm.fr/~seriai/uploads/Recherche/TER3_M1_2021.pdfDernière mise à jour : 2020-12-10 21:23:03

49. Étude de génération et résolution probabiliste de labyrinthes   
Identifiant : bruno.grenet_1_2020-21 • Encadrant(s) : bruno.grenet@lirmm.fr

Résumé : La création de labyrinthes peut être effectuée par différents processus
aléatoires. Les labyrinthes obtenus ont des propriétés différentes,
selon le processus. Le but de ce TER est d'étudier ces différences, de
plusieurs points de vue. D'une part, un objectif est de formaliser les
caractéristiques des labyrinthes en fonction des processus, en utilisant
la théorie des graphes. Les étudiant⋅e⋅s chercheront également à
développer de nouvelles façons de produire des labyrinthes et à les
évaluer. D'autre part, on cherchera à comprendre l'influence de la
structure du labyrinthe, induite par le processus de génération, sur le
comportement des différents algorithmes de résolution (Dijkstra, A*,
etc.). Si les labyrinthes habituels sont naturellement en 2D, on pourra
généraliser les questions (génération et résolution) à 3 ou n
dimensions. Enfin, l'étude pourra comporter un aspect important de
visualisation d'algorithmes, entre autres à des fins pédagogiques.

Lien : - • Dernière mise à jour : 2020-12-12 10:14:04

50. SSG_Playground   
Identifiant : clementine.nebut_2020-21 • Encadrant(s) : clementine.nebut@lirmm.fr, florian.gaune@soprasteria.com

Résumé : Le but est de développer une plateforme (SSG Playground) permettant d'organiser et d'animer des évènements tel que des after works, qui sera la base d'un écosystème complet.

Cette plateforme, sous la forme d'une application web intégrera en priorité ces points :
- Possibilité d'intégrer des sites / application web tierce (skribbl.io, ')
- Possibilité d'intégrer de futures applications web développés pour SSG Playground (mise en place d'une API et règles, permettant la liaison de futurs développements d'activité (UNO, Code Names, etc') à SSG Playground)
- Permettre de créer une série d'activité parmi un catalogue et de les ordonnancer afin d'organiser l'évènement.
- Gérer les invités aux évènements créés

Ce projet a pour axes principaux :
- La maintenabilité (primordial afin que l'application puisse être utilisée, corrigée et lui permettre des évolutions), porté également par la mise en place des bonnes pratiques de développement
- La modularité (permettant l'intégration d'application tierces)
- La documentation (facilitant les deux points précédents)
- L'agilité

Le projet, qui sera sous forme agile permettra d'appréhender les différentes réunions et cérémonies agiles ainsi que l'importance de la priorisation.

Le développement de ce projet sera assisté par des collaborateurs de Sopra Steria, anciens étudiants de l'université de Montpellier.

Si vous souhaitez en savoir plus, ou avoir le power point de présentation complet du sujet, vous pouvez contacter Florian Gaune par mail : florian.gaune@soprasteria.com

Prérequis :
Langage de programmation (Java)
L'envie d'apprendre et de participer

Lien : - • Dernière mise à jour : 2020-12-14 09:53:09

51. Visual Novel   
Identifiant : william.puech_1_2020-21 • Encadrant(s) : william.puech@lirmm.fr

Résumé : Résumé : Le projet consiste en un jeu mobile de type Visual Novel (jeu à histoire) en mode texte. Les dialogues du jeu seront arborescents et seront dépendants de deux facteurs : le choix du joueur et un paramètre aléatoire qui sélectionne une branche de lÂ’histoire parmi 3 ou 4 disponibles. Des mini-jeux seront disséminés tout au long du jeu afin de modifier la probabilité dÂ’apparition dÂ’une certaine branche de lÂ’histoire ou même dÂ’en déclencher une en particulier. Ces mini-jeux se présenteront sous différentes formes : quiz, snake, reproduire un dessin, par exemple.

Langage :
Partie jeu : C# (Unity 2D)
Partie application : Kotlin (Android Studio)

Lien : - • Dernière mise à jour : 2021-01-07 10:24:03

52. Étude de génération et résolution probabiliste de labyrinthes - le retour   
Identifiant : bruno.grenet_1bis_2020-21 • Encadrant(s) : bruno.grenet@lirmm.fr

Résumé : Résumé : La création de labyrinthes peut être effectuée par différents processus
aléatoires. Les labyrinthes obtenus ont des propriétés différentes,
selon le processus. Le but de ce TER est d'étudier ces différences, de
plusieurs points de vue. D'une part, un objectif est de formaliser les
caractéristiques des labyrinthes en fonction des processus, en utilisant
la théorie des graphes. Les étudiant⋅e⋅s chercheront également à
développer de nouvelles façons de produire des labyrinthes et à les
évaluer. D'autre part, on cherchera à comprendre l'influence de la
structure du labyrinthe, induite par le processus de génération, sur le
comportement des différents algorithmes de résolution (Dijkstra, A*,
etc.). Si les labyrinthes habituels sont naturellement en 2D, on pourra
généraliser les questions (génération et résolution) à 3 ou n
dimensions. Enfin, l'étude pourra comporter un aspect important de
visualisation d'algorithmes, entre autres à des fins pédagogiques.

Lien : - • Dernière mise à jour : 2021-01-07 12:16:52

53. polarité magnétique   
UwU
Identifiant : william.puech_2_2020-21 • Encadrant(s) : william.puech@lirmm.fr

Résumé : Un mix entre platformer et Beat'em Up (pensez à un vieux Metroid mais avec plus de combats) basé sur la polarité magnétique. Le personnage joueur est capable d'alterner librement entre + et -, et sa polarité actuelle influera sur comment il interagit avec l'environnement (impossible de passer une porte si vous avez la même polarité qu'elle, mais vous pouvez rebondir dessus pour rapidement changer de direction), les obstacles (vous pouvez passer au travers des lasers de même polarité que vous uniquement), les ennemis (les entités infligent plus de dégâts à ceux qui sont de polarité opposée, et subisse moins de dégâts de celle qui sont de même polarité)...

Lien : - • Dernière mise à jour : 2021-01-15 16:16:54

54. Réécriture de requêtes chemin en présence d'ontologie   
QY
Identifiant : ulliana_3_2020-21 • Encadrant(s) : ulliana@lirmm.fr, olivier.rodriguez@inria.fr

Résumé : L'objectif du TER est d'étudier et implémenter un système de réécriture de requêtes chemin prenant en compte des règles ontologies inspiré de celui proposé dans [1].

[1] https://www.ijcai.org/Proceedings/2017/0117.pdf

Lien : - • Dernière mise à jour : 2021-02-03 11:06:59

55. Sujet de A. Rouyer
Identifiant : marianne.huchard_2_2020-21 • Encadrant(s) : marianne.huchard@lirmm.fr

Résumé : Extraction de la variabilité de produits logiciels

Lien : - • Dernière mise à jour : 2021-03-17 18:49:14

56. technologie blockchain   
Identifiant : lafourca_plus_2020-21 • Encadrant(s) : mathieu.lafourcade@lirmm.fr

Résumé : Ce TER consistera en la réalisation de transactions entre plusieurs ordinateurs, et de montrer la solidité du réseau ainsi que la difficulté de falsifier une transaction. Nous ne sommes pour l'instant pas sûrs de la méthode de preuve de validation des blocs que nous utiliserons (preuve de travail, preuve d'enjeu...).

Pour réaliser ce projet, nous allons devoir mettre en place un réseau peer-to-peer et implémenter des algorithmes de hachage. Les transactions seront réalisées grâce à une clé publique (que l'on peut qualifier d'adresse) propre à chaque utilisateur. L'accès au "portefeuille" se fera grâce à une clé privée.
Le point principal sera de développer une structure en forme d'arbre de hachage (la "blockchain), qui permettra par l'analyse de celui-ci de prouver la validité des blocs contenants les transactions, et donc par ce fait de valider les transactions.

Lien : - • Dernière mise à jour : 2021-03-19 13:10:50


page d'accueilliste des sujets liste des groupes liste des encadrants

Mathieu Lafourcade, janvier 2018 (merci d'envoyer toute remarque ou question sur les TERs à mathieu.lafourcade avec comme sujet du mail "[TER_M1_2018] Question") - Merci à Mountaz qui est l'origine du contenu et du style de cette page.