page d'accueilliste des sujets liste des groupes liste des encadrants

TER DE MASTER 1 en - année 2023-24

login mdp

49 sujets proposés
a.paparrizou_1
a.laurent_1
a.laurent_2
b.rima_1
b.rima_2
boudet_1
croitoru_1
croitoru_2
croitoru_3
croitoru_4
croitoru_n2
e.bourreau_1
e.bourreau_2
e.bourreau_3
f.scharffe_1
l.abrouk_1
m.hartley_1
m.lafourcade_1
m.lafourcade_2bis
m.lafourcade_2
m.lafourcade_3
m.lafourcade_4
m.lafourcade_n1
m.skandalis_1
m.montassier_1
m.montassier_2
msioutis_1
NFMM_1
n.carmeli_1
n.faraj_1
n.faraj_2
n.faraj_3
n.faraj_4
n.faraj_5
p.giorgi_1
pompidor_1
pompidor_2
retore_1
r.moot_1
r.giroudeau_2
r.giroudeau_n
seriai_1
seriai_2
seriai_3
seriai_4
seriai_n
s.bessy_1
todorov_1
todorov_2

1. Application de création d'emplois du temps multi-collaborateurs
Identifiant : mickael.montassier_1_2023-24 • Encadrant(s) : mickael.montassier@lirmm.fr

Résumé : L'objectif de ce projet est la création d'une application web/mobile
permettant la création d'emplois du temps multi-collaborateurs.

Le contexte est le suivant : la mention de master informatique gère 5
parcours de master, 90 UE mutualisés. Chaque UE possède un certain
nombre de créneaux de CM et de TD informatisés (par exemple l'UE HAIXXXI
est composée de 8CM et 16 TD). Une UE est possiblement partagée par
plusieurs parcours. Une UE fait intervenir plusieurs collaborateurs (par
exemple, dans l'UE HAIXXXI, X fait 3 CM , Y fait 1 CM et 1 TD, Z fait 4
CM et 15 TD). Les contraintes réglementaires augmentant année après
année, il n'est plus possible d'avoir une semaine type qui se répète sur
12 semaines (un semestre est constitué de 12 à 14 semaines de cours). Un
outil devient nécessaire afin de créer les semainiers (edt semaine par
semaine) de l'ensemble des UE.

L'outil prendra en entrée un fichier de configuration, contenant la
liste de UE et pour chaque UE,
- le nombre de CM et TD,
- le responsable de l'UE,
- les collaborateurs et
- pour chaque collaborateur le nombre de CM et de TD ;
et possiblement la production de l'outil de l'année précédente...

Un super-utilisateur pourra modifier les nombres de CM et TD.
Le responsable de l'UE pourra modifier la liste de ses collaborateurs et
le nombre de CM et de TD de chaque collaborateur.

L'outil devra permettre lors d'une séance de travail de 4 heures en
présence de l'ensemble des responsables d'UE et des collaborateurs de
repartir l'ensemble des créneaux sur l'ensemble des semaines.

Chaque utilisateur pourra "poser" ses créneaux dans les différentes
semaines. Un créneau mutualisé apparaîtra dans les différents semainiers
mutualisés. Un créneau en conflit avec un créneau déjà posé ne pourra
pas être posé. L'ensemble des utilisateurs verra lors de cette séance
l'ensemble des semainiers (différentes vues possibles).

Une fois la réunion terminée, l'outil permettra de donner en sortie
différents éléments :
- les semainiers par parcours (pdf et autres formats à définir)
- le classeur EXCEL permettant la saisie des emplois du temps par le
service planning de la FDS.
- une archive pour import pour l'année suivante
- ...

Cet outil devrait supporter le passage à l'échelle : 200 parcours de
master, 3000 UE mutualisés.

** Des prérequis si nécessaires ;
Développement web et mobile

** Une url vers la présentation détaillée de votre sujet.
/dev/null
N'hésiter pas à prendre rdv pour plus de détails.

** NOUVEAU le profil/filière des étudiants que vous souhaitez :
GL, IASD

Lien : - • Dernière mise à jour : 2023-11-08 10:10:02

2. Extraction de relations sémantiques dans wikipedia
   
Stradivari
Identifiant : mathieu.lafourcade_1_2023-24 • Encadrant(s) : mathieu.lafourcade@lirmm.fr

Résumé : L'informatisation des professions de santé et le développement du dossier médical personnalisé (DMP) entraîne une progression rapide du volume d'information médicale numérique. Les systèmes informatiques médicaux permettent de stocker de l'information (dossier médical, résultats d'examens complémentaires, images et comptes rendus radiologiques par exemple), d'y accéder en vue d'améliorer la prise en charge des patients, de découvrir de nouvelles informations ou de fournir une aide à la décision pour l'amélioration de la qualité des soins. Or, cette information est souvent consultée de façon individuelle et manuelle alors que le format numérique permettrait une analyse informatisée. L'information à exploiter est en grande partie sous forme textuelle et il s'agit alors de pouvoir extraire de façon automatique des données sémantiques. Le besoin de convertir toute cette information sous forme structurée est donc un enjeu majeur. Pour réaliser cette tâche il est nécessaire d'avoir une base de connaissance de spécialité structurée et dynamique (apprentissage permanent).

Pour ce sujet de TER, il s'agira de travailler sur l'extraction de relations sémantiques (synonymie, hyperonymie, causatif, caractéristique..) à partir d'articles médicaux issus de l'encyclopédie Wikipedia et du site sur les maladies rares Orphanet. Cette extraction aura pour but de consolider un réseau lexico-sémantique de spécialité inclus dans le réseau de connaissance générale JeuxDeMots. Il faudra utiliser les ressources et travaux de recherches à votre disposition afin d'élaborer des algorithmes pertinents. Le travail sera composé des tâches suivantes:

* état de l'art sur l'extraction de relations sémantiques à partir de textes non structurés.
* récupérer les pages wikipédia (voire d'autres sites comme orphanet).
* proposer un algorithme d'extraction de relations.
* création d'une base de données susceptible d'être intégrée au réseau.

Le langage de programmation utilisé sera au choix des étudiants.

PS IMPORTANT : Si les étudiants le désirent, sujet peut éventuellement être abordé via un autre domaine, par exemple, la "gastronomie", "aéronautique", etc.

Lien : - • Dernière mise à jour : 2023-11-08 10:12:36

3. Chasse aux triangles dans JeuxDeMots
Identifiant : anne.laurent_1_2023-24 • Encadrant(s) : anne.laurent@lirmm.fr, mathieu.lafourcade@lirmm.fr

Résumé : JeuxDeMots est un jeu sérieux (' Game With A Purpose ' - GWAP : jeu avec un but) qui vise à construire un réseau lexico-sémantique (un graphe avec 12 million de noeuds et 780 millions de relations). Les agents d'inférence de JeuxDeMots constituent globalement une intelligence artificielle qui opère sur cer grand volume de connaissances (de sens commun mais également expertes à plusieurs domaines) de façon à inférer de nouvelles relations.

Dans ce cadre, nous souhaitons retrouver dans le réseau les triangles permettant de fournir des exemples pour être capable par la suite de fournir des éléments d'explication pour certaines relations. Il s'agit donc de créer une combinaison entre un système à apprentissage par des exemples et un système d'inférence.

Par exemple, il est ainsi possible de déduire que "voiture" a pour conséquence "mort" à partir de "voiture" ayant pour conséquence "accident" qui a pour conséquence "mort" (1 côté du triangle). Où à l'inverse de produire l'explication de "peste" à conséquence "mort", en exhibant "peste" estun "maladie mortelle" et "maladie mortelle" conséquence "mort" (2 côtés du triangle).

Le travail attendu consiste à :
- prendre en main la base JeuxDeMots sous sa forme ' bases de données NoSQL en graphes ' et le langage de requête Cypher ;
- Elaborer les requêtes Cypher permettant de retrouver les triangles dans le graphe JeuxDeMots ;
- Tester et optimiser le passage des requêtes sur un serveur.

Si le temps le permet :
- Proposer des extensions pour recommander des portions du graphe où un triangle aurait dû exister (ce qui permettra d'enrichir le graphe).

** Pas de prérequis
(co enc ' castelltort@lirmm.fr)

Lien : https://cloud.lirmm.fr/index.php/s/kWV55XDJcHLtcgYDernière mise à jour : 2023-11-08 10:13:20

4. Bot de gestion de connaissances
   
TechG
Identifiant : mathieu.lafourcade_2_2023-24 • Encadrant(s) : mathieu.lafourcade@lirmm.fr

Résumé : On souhaite développer un bot (Skype, ou autre) avec lequel l'utilisateur entreprendrait des pseudo conversations dans le but de consolider (augmenter et corriger) une base de connaissances (en l'occurrence, la base RezoJDM).

Exemple de dialogue :

Bot: est-ce qu'un hot-dog contient de la moutarde '
User: oui, la plupart du temps
Bot: est-ce qu'un hot-dog contient des oignons grillés '
User: oui c'est possible, surtout aux US
Bot: merci pour ces informations
User: un hot-dog c'est de la malbouffe
Bot: Ah' Ok, je vais retenir cela.

Le bot en question doit être capable de poser des questions de façon intelligible et d'avoir un grande tolérance et capacité d'interprétation de ce que répond l'utilisateur. Le dialogue engagé doit être cohérent - on peut changer de sujet, mais on ne saute pas sans arrêt du coq à l'âne). Enfin, le bot doit être capable de répondre des question de type "pourquoi", par exemple :
User: Pourquoi un tigre est dangereux '
Bot: un tigre est dangereux car un tigre est un animal sauvage et un animal sauvage est dangereux.

Prérequis : aucun
Liens :
bot skype - https://dev.skype.com/
rezoJDM - http://www.jeuxdemots.org/jdm-about.php
exemple d'interaction - http://www.jeuxdemots.org/rezo-ask.php'text=1

Lien : - • Dernière mise à jour : 2023-11-08 10:13:45

5. Y-a-t-il un intrus ?
Identifiant : mathieu.lafourcade_3_2023-24 • Encadrant(s) : mathieu.lafourcade@lirmm.fr

Résumé : Le réseau lexical Jeux de Mots (JDM) (www.jeuxdemots.org et articles ici) est une ressource lexicale importante sous forme d'un gigantesque graphe, dont les sommets sont des termes de la langue, ou des concepts, et dont les arrêtes sont des relations sémantiques (qui apportent du sens), taxinomiques (qui servent à la classification) ou thématiques (qui indiquent que les sommets reliés relèvent d'un thème).

Aujourd'hui, le réseau a atteint une taille et un degré de maturité tels qu'ils permettent de réaliser des raisonnements et donc d'aider à la construction d'applications relevant de la représentation des connaissances et de l'intelligence artificielle.

L'idée proposée dans ce TER consiste à faciliter le raisonnement par le biais de la généralisation (induction expérimentale) et de la révision (abduction). Les notions considérées sont développées dans (Prince, 1998).

Pour cela, il faut 'créer un jeu' dans lequel on fournit au système un certain nombre de termes, appelés des 'faits'. En appariant ces termes avec JDM, le système doit pouvoir savoir si ces termes 'se ressemblent', sur quoi se fonde cette ressemblance (quelle relation en commun), et donc créer une classe de termes (généralisation), qui aura pour caractéristique la relation commune, si celle-ci n'existe pas encore. Cette classe permettra ensuite le raisonnement déductif abstrait et générique et donc plus au niveau conceptuel qu'au niveau terminologique.
Il peut arriver que certains termes ne puissent faire partie de la classe, auquel cas ce seront des 'intrus', et l'idée est de les mettre en avant, afin de les faire entrer dans un nouveau processus de généralisation.

Le jeu 'y-a't-il un intrus' sera un très bon moyen de pré-classifier des termes, de détecter des exceptions et des polysémies (multiplicité de sens). En substance, un terme a des chances d'être polysémique si on s'aperçoit qu'on peut le considérer comme une instance possible de plusieurs classes différentes. L'avantage de ce procédé est qu'il explicitera le socle de chacun des sens, puisqu'il s'agira de la (ou les) propriété(s) permettant de définir une classe.

Le TER consistera à :

* se familiariser avec le réseau JDM (http://www.jeuxdemots.org/diko.php);
* adapter et mettre en oeuvre des algorithmes proposés dans (Prince, 1998) ;
* réaliser une interface de jeu pour permettre à des utilisateurs de jouer à 'y -a-t-il un intrus '' de façon à alimenter le réseau.

Lien : - • Dernière mise à jour : 2023-11-13 15:37:29

6. Découverte de patrons sémantiques
   
Semantic Explorers
Identifiant : mathieu.lafourcade_4_2023-24 • Encadrant(s) : mathieu.lafourcade@lirmm.fr

Résumé : Pour ce sujet de TER, il s'agira de travailler sur la découverte de patron sémantiques susceptible de porter une relations entre deux termes. On entreprendra conjointement l'extraction de relations sémantiques (synonymie, hyperonymie, causatif, caractéristique..) à partir d'articles médicaux issus de l'encyclopédie Wikipédia.

Par exemples :

    ** la phrase : "Chaque action est spécifiée par des préconditions qui doivent être satisfaites."
il faudra identifier " qui doivent être " comme 'r_carac' et avoir trouvé : préconditions r_carac satisfaites

    ** la phrase : "Un problème de planification classique est défini généralement comme un problème de recherche dans un graphe. "
il faudra identifier la patron "est défini généralement comme" comme la relation 'r_similar' ou 'r_isa'

L'approche sera d'utiliser une base de connaissances (JeuxDeMots) ou des relations entre termes sont déjà connues et de les confronter à ce qui peut être trouvé dans des textes. Le segment textuel (le futur patron) entre deux mots connus A et B pour entretenir une relation R (A R B), peut alors être associé au patron trouvé. Il faut répéter l'opération un grand nombre de fois sur des couples de termes différents. Le projet est en rapport avec les algorithmes d'apprentissage par renforcement. Les types morphologique (verbe, nom, adj, etc) sémantiques (animal, personne, objet, lieu etc.) des termes A et B aura également une influence sur le processus.

Cette extraction aura pour but de consolider le réseau de connaissance générale JeuxDeMots. Il faudra utiliser les ressources et travaux de recherches à votre disposition afin d'élaborer des algorithmes pertinents. Le travail sera composé des tâches suivantes:

* état de l'art sur l'extraction de relations sémantiques via des schémas à partir de textes non structurés ;
* état de l'art sur l'apprentissage par renforcement ;
* proposer un algorithme de découverte de schéma et d'extraction de relations, à partir d'un gros corpus (vous prendrez les sources de Wikipédia français ;
* utilisation et augmentation de la base de connaissance JeuxDeMots (http://www.jeuxdemots.org/jdm-about.php)

Le langage de programmation utilisé sera au choix des étudiants (mais bon, Java ou Python seraient bien :)

Lien : - • Dernière mise à jour : 2023-11-08 10:17:52

7. Histoire et Graphes en Avignon
Identifiant : eric.bourreau_1_2023-24 • Encadrant(s) : eric.bourreau@umontpellier.fr

Résumé : Une historienne a extrait de vieux parchemins de l'époque des papes en Avignon des relations spatiales entre différents bâtiments (plusieurs milliers). Le but est de reconstruire une carte de la ville à partir de ces infos.
Un premier prototype réalisé en java permet de l'assister dans la gestion de la cohérence de toutes ces relations lors de la construction de la carte.
Vous serez d'une part en charge d'améliorer l'outil et de l'intégrer dans GraphViz, et d'autres part consolider les données grâce à l'extraction d'incohérence en utilisant des solveurs développés au LIRMM.

Lien : https://seafile.lirmm.fr/f/bb78fbdfd3a242e88180/Dernière mise à jour : 2023-12-17 19:36:45

8. Karatsuba Quantique
Identifiant : eric.bourreau_2_2023-24 • Encadrant(s) : eric.bourreau@umontpellier.fr

Résumé : Les machines quantiques sont une réalité. Ce nouveau paradigme de calcul propose une nouvelle manière de faire des calculs. Cela s'accompagne en partie d'un renouvellement des algorithmes standards pour faire du calcul.
Après avoir repensé l'addition et la soustraction, nous allons désormais réaliser la multiplication et la division.

Lien : https://seafile.lirmm.fr/f/176521d728a84fe3a774/?dl=1Dernière mise à jour : 2023-12-17 19:37:26

9. Analyse de sentiment dans les dialogues de ChatGPT
   
Lovelace
Identifiant : croitoru_1_2023-24 • Encadrant(s) : croitoru@lirmm.fr, konstantin.todorov@lirmm.fr

Résumé : L'objectif de ce stage est d'étudier la performance des algorithmes existants de détection de sentiment sur le texte généré par ChatGPT. Nous allons créer un ensemble de dialogues où ChatGPT sera invité à écrire comme s'il était en colère, heureux, triste, etc. Ensuite, le texte produit par ChatGPT sera utilisé comme entrée pour différents algorithmes de détection de sentiment disponibles dans la littérature. Nous établirons ensuite un classement des algorithmes les plus fidèles par rapport à ChatGPT et étudierons comment ces résultats varient en fonction des émotions. Par exemple, nous pourrions découvrir qu'Algorithm A surpasse Algorithm B dans la détection de la colère mais pas dans la détection de la tristesse, etc.

(GL, IASD, ICo, Imagine)

Lien : - • Dernière mise à jour : 2023-11-16 13:11:10

10. Utilisation de ChatGPT pour interagir avec le robot QT
   
Macrosoft
Identifiant : croitoru_2_2023-24 • Encadrant(s) : croitoru@lirmm.fr

Résumé : L'objectif de ce stage est de programmer le robot QT (disponible à la location au Département d'informatique de la Faculté des sciences) pour qu'il puisse interagir avec l'API de ChatGPT afin de tenir des dialogues avec un être humain. Le projet se déroulera en deux étapes. Dans un premier temps, l'humain interagira avec le robot QT alimenté par ChatGPT à l'aide du clavier. Dans un second temps, un logiciel de reconnaissance vocale sera intégré à l'API QT afin de permettre au dialogue de se faire de manière naturelle par la voix. Les dialogues seront ensuite utilisés pour évaluer plusieurs scénarios visant à enseigner aux jeunes enfants (7-11 ans) ce qu'est l'intelligence artificielle et comment lui faire confiance.

Lien : - • Dernière mise à jour : 2023-11-16 13:15:26

11. Création de scènes en réalité virtuelle alimentées par ChatGPT
   
toraya
Identifiant : croitoru_3_2023-24 • Encadrant(s) : croitoru@lirmm.fr

Résumé : L'objectif de ce projet est de mettre en oeuvre différents environnements en réalité virtuelle. L'implémentation et les interactions ultérieures de l'utilisateur avec la scène doivent être compatibles avec le casque VR (Oculus, disponible à la location au Département d'informatique de la Faculté des sciences), donc un intérêt particulier devrait être porté à l'optimisation. Plusieurs types de modifications et d'évolutions de scènes pourraient être proposés à l'utilisateur. Celui-ci peut sélectionner différentes manipulations de scènes, et l'API ChatGPT génère le code pour mettre en oeuvre de telles scènes.

Lien : - • Dernière mise à jour : 2024-01-15 16:40:06

12. Jeu du Loup-garou avec ChatGPT
   
Gaido-Viguier-Milla
Identifiant : croitoru_4_2023-24 • Encadrant(s) : croitoru@lirmm.fr

Résumé : L'objectif de ce projet est d'utiliser plusieurs instances de ChatGPT qui interagissent les unes avec les autres afin de simuler une partie du jeu du Loup-garou. Un algorithme de dialogue prenant des tours pour n joueurs devrait être implémenté, permettant ainsi à chaque instance d'API de discuter de manière apparemment fluide.

Lien : - • Dernière mise à jour : 2023-11-16 13:19:08

13. jeu de manipulation d'une IA générative
   
jeuxjeuxjeux
Identifiant : pompidor_1_2023-24 • Encadrant(s) : pompidor@lirmm.fr

Résumé : TER M1 : jeu de manipulation d’une IA générative
Pierre Pompidor

Le but de ce TER est double :
• Créer un jeu - de type"civilisation" - en réseau dans lequel deux
tribus, faisant partie d’une même société, doivent se développer
économiquement, territorialement...
• Evaluer les possibiltés de manipulation d’une des IA générative
accessible via une API (ChatGPT, Bard...).

Dans ce jeu l’IA générative joue le rôle du Dieu auquel vont devoir
obéir chacune des deux tribus qui composent la société. A tour de rôle
une tribu va envoyer une requête à l’IA : la réponse de celle-ci sera
publiée aux deux tribus
(sans que celle impactée par la réponse de l'IA puisse voir comment le
message a été rédigé (*))
Chacune des tribus devra donc trouver le bon prompt qui va obliger la
tribu adverse à faire une action néfaste à son développement (dans le
périmètre des actions possibles, la définition de ces actions
constituant une des premières étapes du TER).

Le but n'est pas de demander à l'IA de donner directement un mauvais
conseil à la tribu adverse, mais de l'inciter à le faire de manière
indirecte, en étant "machiavélique", contrainte par exemple par le même
incipit positif "Quel bon conseil pourrait-tu donner à la tribu XXXXX au
sujet de ....".

Evidemment, si on demande littéralement à l'IA de donner un bon conseil,
elle va être horriblement positive et c'est tout ce que nous ne voulons
joueur (suspectant qu'une requête a incité l'IA à être directement trop
nocive) pourra demander à ce que cette requête soit révélée : si cela
était le cas, la tribu l'ayant ainsi mal formulée serait pénalisée, mais
dans le cas contraire, cela serait la tribu à l'origine de la
réclamation qui endosserait la pénalité (cette version du jeu
impliquerait sans doute qu'il y ait un arbitre des bonnes manières).

Les spécifications de ce TER sont, comme vous pouvez le voir, à affiner 😉


Techniquement, le jeu doit pouvoir se jou"""""er via deux navigateurs :


• Front-end : Javascript
• Back-end : JavaScript ou Python (voire une solution hybride)

Lien : - • Dernière mise à jour : 2023-11-17 10:11:09

14. Jeu multijoueurs en JavaScript : hive (ICO)
   
ORMM
Identifiant : pompidor_2_2023-24 • Encadrant(s) : pompidor@lirmm.fr

Résumé : Le projet ICO :
Jeu multijoueurs en JavaScript : hive
Pierre Pompidor

Le but du projet est de créer le jeu hive en JavaScript basé sur une
architecture client-serveur (avec Node.js du côté serveur).
Règle du jeu : https://www.regledujeu.fr/hive/
Fonctionnalité :
- gestion de plusieurs parties (salons)
- gestion des règles du jeu
- détection automatique de la victoire
Le développement d'une IA sera conditionné à la taille du groupe.
Ce jeu devra utiliser les bibliothèques D3.js et socket.io

Lien : - • Dernière mise à jour : 2023-11-17 10:12:21

15. Traduire les contraintes qualitatives en instances de problèmes de satisfaction de contraintes à domaine fini
   
ANC_2024
Identifiant : msioutis_1_2023-24 • Encadrant(s) : msioutis@lirmm.fr, bessiere@lirmm.fr

Résumé : Résumé : Le raisonnement spatial et temporel qualitatif (QSTR) est un
domaine d'étude majeur en IA, qui traite des concepts cognitifs
fondamentaux de l'espace et du temps d'une manière abstraite et proche
de l'humain, allant de l'informatique théorique et la logique aux
applications pratiques.

Dans le contexte du QSTR, le problème de représentation et de
raisonnement sur des informations spatiales ou temporelles
qualitatives peut être facilité par une variante à domaine infini du
problème de satisfaction de contraintes (CSP), pour lequel nous
utilisons le terme réseau de contraintes qualitatives (QCN) et qui est
défini de manière analogue. Cependant, il est également possible
d’aborder le problème susmentionné via un codage CSP à domaine fini en
suivant une approche issue de la littérature. Dans ce cas, les
contraintes d'un QCN deviennent les variables d'une instance CSP, et
les contraintes de cette instance sont définies par la table de
composition (faible) du calcul utilisé. Des cohérences de filtrage de
domaine spéciales doivent être utilisées pour correspondre à celles
utilisées dans un QCN.

Les principaux objectifs de ce projet sont :

(i) d'étendre un solveur CSP bien connu, par exemple Choco
(https://choco-solver.org/), avec la capacité de traduire n'importe
quel QCN donné en n'importe quel calcul en un codage CSP équivalent;

(ii) de concevoir et effectuer une évaluation expérimentale entre le
solveur CSP avec le codage CSP dérivé et un raisonneur QCN natif, en
rendant compte des résultats.

Prérequis : non
URL : https://seafile.lirmm.fr/f/32886e6a043b458e9259/?dl=1

Profil/filière : Algo, IA-SD

Lien : - • Dernière mise à jour : 2023-11-17 10:13:55

16. Intégration d'ensembles de données annotées de vérification des faits
   
Dandelion
Identifiant : todorov_1_2023-24 • Encadrant(s) : todorov@lirmm.fr

Résumé : Afin de faciliter la tâche de vérification automatique de fausses
nouvelles, nous avons besoin de ressources riches d’assertions et
d’articles annotés par leur véracité. Ce projet a pour but de relier
ClaimsKG [1] et FakeNewsNet [2], deux jeux de données contenant de tels
assertions et articles, bien établis dans la communauté. ClaimsKG un
graph de connaissance riche en métadonnées sur les assertions (claims)
venants des sites de fact-checking, tels que politifact.com et est
utilisé depuis quelques années comme base de références pour diverses
tâches de la campagne d'évaluation Check That ! de la conférence CLEF.
ClaimsKG est l'un des plus grands corpus publics d'affirmations
vérifiées contenant plus de 72 000 affirmations, qui s'accompagnent d'un
contexte structuré riche, en plus d'être multilingue, couvrant 6 langues
européennes et plus de 10 langues différentes au total. FakeNewsNet est
un référentiel de données autour du contenu d'actualité, du contexte
social et des informations spatio-temporelles pour l'étude des fausses
nouvelles sur les médias sociaux. Il contient actuellement deux jeux de
données avec (23K) articles de presse annotés par des sites de
vérification des faits, des engagements d'utilisateurs riches (691K
utilisateurs, 2M tweets, et 2B followers de réseau) de X (anciennement
Twitter).

Le TER a pour but de proposer et mettre en oeuvre une approche qui
peremt d'intégrer les deux ressources (ClaimsKG et FakeNewsNet) en
reliant les informations qu'elles contiennent dans le but de créer un
jeu de données large et diversifié d'affirmations (claims) et d’articles
pour l'analyse des fake news. Pour ce faire, nous nous appuierons sur
nos travaux antérieurs dans le domaine des graphes de connaissances et
de l'interconnexion des données et en particulier de l'interconnexion
des claims [3]. Le jeu de données intégré aboutira à un pool enrichi de
données multilingues vérifiées, ce qui permettra l'interopérabilité
entre les deux ressources pour différentes applications, telles que la
détection automatique de fake news.

Références:

[1] Tchechmedjiev, A., Fafalios, P., Boland, K., Gasquet, M., Zloch, M.,
Zapilko, B., ... & Todorov, K. (2019).
ClaimsKG: A knowledge graph of fact-checked claims. In The Semantic
Web–ISWC 2019.
[2] Shu, K., Mahudeswaran, D., Wang, S., Lee, D., & Liu, H. (2020).
Fakenewsnet: A data repository with news
content, social context, and spatiotemporal information for studying
fake news on social media. Big data, 8(3),
171-188.
[3] Maliaroudakis, E., Boland, K., Dietze, S., Todorov, K., Tzitzikas,
Y., & Fafalios, P. (2021, April). ClaimLinker:
Linking text to a knowledge graph of fact-checked claims. In Companion
Proceedings of the Web Conference 2021
(pp. 669-672).

Tous profils (ICo compris)

Lien : - • Dernière mise à jour : 2023-11-26 18:58:17

17. Observatoire statistique de fake news
   
3-SAT_2024
Identifiant : todorov_2_2023-24 • Encadrant(s) : todorov@lirmm.fr

Résumé : Les fausses nouvelles (fake news) sont devenues un problème de plus en
plus important, tant du point de vue de la société que de celui de la
recherche. Le Le LIRMM, en collaboration avec 2 équipes allemandes (L3S
Hannover et l’institut de sciences sociologiques GESIS à Cologne), a
construit et mise à disposition la base de connaissance ClaimsKG [1]
(https://github.com/claimskg) qui recueillit les informations et
méta-données provenant d’un grand nombre de sites journalistiques de
fact checking, tels que Politifact ou Snopes. ClaimsKG est un graphe de
connaissances d’assertions annotées et liées qui facilite la création de
requêtes structurées sur les assertions, leurs valeurs de vérité (True,
Mostly False, etc.), leurs auteurs, date de publication, etc. ClaimsKG
est généré par un pipeline entièrement automatisé qui collecte des
assertions et des métadonnées à partir des sites de fact-checking,
transforme les données en graphes de connaissances selon un modèle
établis, et annote les assertions avec des entités DBpedia (Wikipedia).

Un outil qui permet de visualiser les statistiques de cette base et
ainsi relever des tendances a été conçu par un groupe de TER il y a 3
ans (https://github.com/claimskg/claimskg-statistical-observatory) . Le
sujet de TER consiste en la mise à jour et enrichissement des
fonctionnalités de cet outil. Grâce à cet outil, nommé ClaimsKG
Statistical Observatory, l’utilisateur pourra suivre des tendances
comme, par exemple, sur quel sujet la plupart des fake news ont porté
pendant l’année 2022, quel est le politicien qui a dit plus de mensonges
autour des élections présidentielles aux Etats Unis, comment les
fake-news au sujet de l’avortement ont évolués durant les 10 dernières
années, quels sont les événements liés à leur peak, etc.

Prérequis:
Python
NodeJS (Javascript/Typescript) - formation possible en cours du projet

Références:
[1] Tchechmedjiev, A., Fafalios, P., Boland, K., Gasquet, M., ... &
Todorov, K. (2019). ClaimsKG: A Knowledge Graph of Fact-Checked Claims.
In International Semantic Web Conference (pp. 309-324). Springer.

Tous profils (ICo compris)

Lien : - • Dernière mise à jour : 2023-11-26 18:59:28

18. Génération automatique d'articles de Blog à partir d'enregistrement vidéos de conférences
   
NIAS_2024
Identifiant : francois.scharffe_1_2023-24 • Encadrant(s) : francois.scharffe@umontpellier.fr

Résumé : Le but de se projet est de développer un outil permettant de convertir une vidéo provenant de l'enregistrement d'une conférence en un post de blog contentant le texte de la présentation illustré par les transparents présentés par l'intervenant. L'outil final permettra de gérer finement le processus, depuis la récupération de la vidéo en fichier ou sur une plateforme en ligne, en passant par la convertion du texte, l'indication du nombre de locuteurs, le télechargement des transparents si un fichier est disponible. Une attention particulière sera portée au résultat final: la page générée sera en HTML ou Markdown, incluant des paragraphes correspondant aux poses de (ou des) l'intervenant. Les transparents seront insérés au bons endroits dans le texte correspondant au moment ou l'intervenant les présente.

Le projet utilisera des outils existant basés sur Whisper (voir par exemple https://github.com/Dicklesworthstone/bulk_transcribe_youtube_videos_from_playlist) et se focalisera sur le processus complet, depuis l'acquisition de la vidéo, jusqu'au rendu final pour l'utilisateur. Il faudra possiblement considérer utiliser des modèles de language (LLMs) pour découper le texte en paragraphes cohérents. L'outil final final sera une application serveur web et le rendu sera un conteneur Docker permettant de facilement deployer l'application sur un serveur hébergé (par exemple AWS).

Lien : - • Dernière mise à jour : 2023-11-30 14:22:49

19. Développement d'un problématique entreprise
   
loris.benaitier
Identifiant : mickael.montassier_2_2023-24 • Encadrant(s) : mickael.montassier@lirmm.fr

Résumé : Il s'agit de présenter une problématique entreprise dans un cadre plus
large : contexte, problématique de recherche, solution existante, étude
de mise en oeuvre.

Lien : - • Dernière mise à jour : 2023-11-26 19:14:22

20. Un cadre pour évaluer les capacités de raisonnement spatio-temporel des grands modèles de langue (LLMs)
Identifiant : maximos.skandalis_1_2023-24 • Encadrant(s) : maximos.skandalis@lirmm.fr, michael.sioutis@lirmm.fr, richard.moot@lirmm.fr

Résumé : Jusqu'à présent, les grands modèles de langue (LLMs) ont impressionné par leurs capacités globales de traitement du langage naturel en ce qui concerne les requêtes courantes. Cela soulève la question de savoir si ces modèles sont capables d'accomplir des tâches plus spécialisées, telles que le raisonnement sur des informations spatiales et temporelles (complexes). Inspirés par les efforts récents de la communauté sur le raisonnement spatio-temporel qualitatif (QSTR) concernant la question susmentionnée, et par nos propres expériences et échanges avec des collègues, nous proposons ce projet de développement d'un cadre pour évaluer les capacités de raisonnement spatio-temporel des LLM de manière automatisée.

Les tâches principales de ce projet sont les suivantes :
- Implémenter un pipeline pour poser des requêtes spatiales ou temporelles à un LLM, et ensuite encoder les réponses dans des réseaux de contraintes spatio-temporelles appropriés, qui peuvent être utilisés pour mesurer les incohérences/contradictions ;
- Concevoir et réaliser une évaluation expérimentale avec le pipeline mis en oeuvre, sur la base de certains modèles de requête, tels que le remplissage d'informations spatio-temporelles manquantes, la réparation d'incohérences, l'affirmation de cohérences, etc.

Pour le projet, certains outils peuvent être utilisés pour aider à mesurer les informations spatio-temporelles incohérentes/contradictoires. Plus précisément, ces outils se trouvent à l'adresse suivante : https://msioutis.gitlab.io/software et se rapportent aux langages de contraintes qualitatives de l'algèbre d'intervalles et du RCC8.

Plus de détails et de références peuvent être trouvés dans l'URL fournie.

Lien : https://seafile.lirmm.fr/f/7aacd6d43e544e23bf89/?dl=1Dernière mise à jour : 2023-11-27 10:20:55

21. Énumération efficace de décompositions arborescentes
   
SCHMITT
Identifiant : nofar.carmeli_1_2023-24 • Encadrant(s) : nofar.carmeli@inria.fr, mugnier@lirmm.fr

Résumé : De nombreux problèmes difficiles en IA et bases de données deviennent faciles sur des structures qui sont acycliques. Par exemple, on peut associer un graphe (ou un hypergraphe) à un réseau de contraintes ou une requête conjonctive : lorsque ce graphe est sans cycle, déterminer si le réseau de contraintes a une solution ou si la requête admet une réponse dans une base de données devient un problème facile (polynomial en temps).

La notion de largeur arborescente (treewidth en anglais) généralise la notion d'arbre : intuitivement, elle indique quelle est la proximité d'un graphe par rapport à un arbre. Elle repose sur la notion de décomposition arborescente (tree decomposition), qui associe à un graphe un arbre dont les sommets, appelés "sacs" (bags), regroupent des sommets du graphe. L'idée est qu'on peut alors résoudre le problème sur chacun des sacs puis combiner efficacement les solutions locales aux sacs pour obtenir une solution globale. Le paramètre important est donc la taille du plus gros sac, qu'on appelle largeur de la décomposition.

Cependant, trouver une décomposition de plus petite largeur est difficile. Dans ce sujet, on va s'intéresser à énumérer toutes les décompositions "intéressantes" de façon efficace, afin de pouvoir ensuite choisir la meilleure selon les critères de l’application visée.

L'objectif de ce travail est d'implémenter un algorithme très récent (2022) qui met en oeuvre des techniques fines et de l'expérimenter sur différents jeux de données. Il faudra auparavant se familiariser avec les décompositions arborescentes et comprendre un article de recherche, ce qui fait partie du sujet.

Mots-clés : Algorithmique fine, implémentation, C++, expérimentations
Parcours : Algo, IASD

Lien : https://seafile.lirmm.fr/f/469d513eab2b4a088c1e/?dl=1Dernière mise à jour : 2023-11-27 18:55:15

22. Recherche Locale, APEX saison 3
Identifiant : eric.bourreau_3_2023-24 • Encadrant(s) : eric.bourreau@lirmm.fr

Résumé : nous souhaitons améliorer une application existante de génération de planning d'examens optimisés par un portage en Python et une meilleure exploration combinatoire des solutions.

Pré-requis : aimer Python et les graphes

Lien : SUJ2024/Recherche_locale_APEX.pdfDernière mise à jour : 2023-11-30 14:37:03

23. Formulation et génération de colonnes pour le problème de la coloration de sommets
   
ECM
Identifiant : rodolphe.giroudeau_n_2023-24 • Encadrant(s) : rodolphe.giroudeau@lirmm.fr

Résumé : tout est dans le titre :)

Lien : - • Dernière mise à jour : 2023-11-30 14:39:43

24. A la recherche de la meilleure solution initiale pour les méthodes exactes pour le problème TSP
   
Les voyageurs préparés
Identifiant : rodolphe.giroudeau_2_2023-24 • Encadrant(s) : rodolphe.giroudeau@lirmm.fr

Résumé : Dans ce projet nous étudierons plusieurs algorithmes pour déterminer une bonne solution initiale pour les méthodes exactes appliquées au problème du TSP. Il faudra procéder à des batteries de tests pour évaluer les meilleurs algorithmes.
** Des prérequis si nécessaires ; master Algo, programmation, RO

Lien : - • Dernière mise à jour : 2023-11-30 14:40:40

25. Codes de Gray
   
MML_2024
Identifiant : stephane.bessy_1_2023-24 • Encadrant(s) : stephane.bessy@umontpellier.fr

Résumé : Ce sujet de TER s'adresse plus particulièrement aux étudiants ayant un attrait certain pour l'informatique théorique et encore plus pour la théorie des graphes et
l'algorithmique.

- Sujet -

L'objectif du TER est l'étude des codes de Gray et de certaines de leur variantes. Un code de Gray est une suite de mots binaires parcourant tous les mots de longueur fixée dans laquelle deux mots consécutifs diffèrent sur un seul bit. Par exemple : (000, 001, 011, 010, 110, 111, 101, 100) est un code de Gray de dimension 3 (mots de 3 lettres). De façon équivalente, un code de Gray correspond à un chemin hamiltonien dans l'hypercube de dimension n. Les codes de Gray ont de nombreuses applications en informatique et ailleurs (parcours d'espace des solutions d'un problème, compteur arithmétique, codes correcteurs, construction de réseaux, résolution du problème de la tour de Hanoı̈ [1]...). Relativement récemment est paru un article de synthèse de T. Mütze [2] sur ce type d'objet combinatoire. Cette étude contient de nombreuses définitions, résultats algorithmes sur ces codes, ainsi que des questions ouvertes sur ce domaine. Elle fait aussi référence aux nombreuses spécialisations existantes, comme les codes de Gray balancés, les codes de Gray monotones ou les codes de Beckett-Gray... ([3] à [6] par exemple).

- Travail attendu -

La première chose à faire est une étude bibliographique sur les codes de Gray, notamment lire, étudier et retranscrire la majorité des trois premières sections de l'article [2]. Ensuite, on implémentera les algorithmes de génération de codes lorsque ceux-ci sont
connus. Pour les codes où un tel algorithme de génération n'est pas connu, on calculera des exemples à dimension fixée, de façon à pouvoir produire une représentation graphique des codes étudiés comme celle présentée dans l'article [2], page 12. Ensuite, on pourra s'attaquer à des questions ouvertes sur la génération de certains codes. De nombreuses questions de ce type sont proposées dans l'article [2]. On pourra par exemple, chercher un code de Beckett-Gray de longueur 9, ou un code 10-antipodal (problèmes P7 et P9).

- Bibliographie -

[1] http://en.wikipedia.org/wiki/Gray_code
[2] T. Mütze, Combinatorial Gray codes'an updated survey, https://arxiv.org/abs/2202.01280
[3] C. Savage, A survey of combinatorial Gray codes.
[4] D. Knuth, Generating all n-tuples. The Art of Computer Programming, Volume 4A : Enumeration and Backtracking, pre-fascicle 2a, 2004.
[5] C. Savage and P. Winkler, Monotone Gray codes and the middle levels problem. Journal of combinatorial Theory, Serie A, 70, 230-248 (1995).
[6] J. Wong, A Fast Algorithm to generate Beckett-Gray codes, Electronic Notes in Discrete Mathematics 29 : 571'577.

Lien : - • Dernière mise à jour : 2023-12-07 15:11:53

26. jeux sur borne d'arcade
   
PAL_2024
Identifiant : noura.faraj_1_2023-24 • Encadrant(s) : noura.faraj@umontpellier.fr

Résumé : Ce projet a pour objectif de créer un jeu que vous pourrez mettre sur une borne d’arcade de jeux mise à disposition par le département informatique de la faculté des sciences. Le jeu pourra être réalisé à l’aide d’Unity, Qt 3D, Unreal…

Le projet pourra recréer une démo jouable d’un jeu de stratégie orienté combat. Dans ce cas, deux équipes s’affronteront : une piloté par le joueur et une piloté par une IA. Chaque unité devra posséder une conscience propre. La gestion des déplacements pourra être effectuée par des algorithmes de recherche de type A*. Le rendu pourra être effectué en 2D. Une autre option sera de réaliser un simulateur de vol en avion dans un univers infini. Il faudra pour cela proposer des méthodes intuitives pour le contrôle des vitesses et des accélérations dans les trois directions. Il faudra gérer simultanément les défilements du décor, et les mises à jour du tableau de bord. Alternativement, vous pourrez réaliser un jeu de course de voiture en caméra subjective, dans le style du jeu « stunt car racer », en gérant les déplacements, vitesses et accélérations du véhicule. Une attention particulière devra être apportée à la gestion des collisions entre le véhicule et le décor. Vous pouvez également proposer un autre type de jeu.

** Des prérequis si nécessaires ;

c++
** Une url vers la présentation détaillée de votre sujet.

http://www.lirmm.fr/~nfaraj/files/TER/TER_jeu_arcade.pdf

Lien : http://www.lirmm.fr/~nfaraj/files/TER/TER_jeu_arcade.pdfDernière mise à jour : 2023-12-07 15:14:04

27. Few-shot learning with Large Language Models for Natural Language Inference task for French
Identifiant : richard.moot_1_2023-24 • Encadrant(s) : richard.moot@lirmm.fr, maximos.skandalis@lirmm.fr

Résumé : En traitement automatique du langage naturel, la tâche de l'inférence textuelle (natural language inference ou recognising textual entailment, en anglais) est une tâche de classification de paires de phrases avec trois étiquettes/classes (entailment, neutral, contradiction).

Presque tous les modèles d'apprentissage profond pour cette tâche en français sont entraînés sur le sous-ensemble d'entraînement de XNLI, qui n'est qu'une traduction par machine au français du sous-ensemble d'entraînement de la version anglaise originale de XNLI.

Le projet de TER proposé consiste à étudier les possibilités du few-shot learning avec différents grands modèles de langage sur les nouveaux jeux de données que nous avons introduits pour le français. L'objectif serait de tester à quelle mesure le few-shot learning, avec différentes combinaisons de modèles de langage et de jeux de données, pourrait influencer la performance des modèles sur tous les jeux de données disponibles pour le français. Il s'agirait aussi de voir si le paramétrage sur un (ou plusieurs) de nos jeux de données des modèles initialement entraînés sur XNLI est efficace pour améliorer les performances des modèles sur des exemples issus d'autres jeux de données distincts.

Les missions du TER comprennent:
1. paramétrer ou fine-tuner plusieurs modèles récents d'apprentissage profond sur nos jeux de données;
2. évaluer les performances de ces modèles sur tous les jeux de données disponibles;
3. tester des techniques de few-shot learning sur différents modèles et avec différents jeux de données.

Lien : https://plmlatex.math.cnrs.fr/read/qqkvhxrcjgsgDernière mise à jour : 2023-12-07 23:02:07

28. Visualisation de blocs en 3D
   
CB*D
Identifiant : NFMM_1_2023-24 • Encadrant(s) : noura.faraj@lirmm.fr, mickael.montassier@lirmm.fr

Résumé : Idéalement, réaliser une application genre "Stokt application" proposant
une visualisation/reconstitution 3D du bloc.

https://www.getstokt.com/

** Des prérequis si nécessaires ;
Faire du bloc, ce serait pas mal.

** NOUVEAU le profil/filière des étudiants que vous souhaitez :
Imagine

Lien : - • Dernière mise à jour : 2023-12-17 19:40:39

29. Monitoring des Architectures à base de Microservices : Télémétrie et Reconfiguration
   
AMA
Identifiant : seriai_1_2023-24 • Encadrant(s) : seriai@lirmm.fr, bachar.rima@lirmm.fr, anas.shatnawi@berger-levrault.com

Résumé : Ce projet vise à implémenter une architecture à base de microservices
pour une application logicielle, en mettant en place une approche
d'observabilité pour surveiller les caractéristiques non fonctionnelles
(performances, disponibilité, etc.). En utilisant des outils comme
OpenTelemetry, l'objectif est de mettre en oeuvre un système de
monitoring permettant de reconfigurer l'architecture pour améliorer ces
caractéristiques, incluant l'ajout d'un API Gateway, des Load Balancers,
etc. Ce projet :

a) Permet d'apprendre certains aspects du métier d'architecte logiciel.

b) Offre une opportunité d'apprendre l'un des styles architecturaux les
plus utilisés actuellement par les architectes logiciels. Il s'agit des
Microservices.

c) Permet également de se plonger dans l'aspect opérationnel crucial du
cycle de vie d'un logiciel en explorant le monitoring et la collecte de
données en mode production grâce à la télémétrie.

d) L'utilisation d'OpenTelemetry fournit une expérience pratique dans
l'utilisation d'outils modernes pour la collecte de données.

e) En outre, cela offre une expérience précieuse dans la résolution de
problèmes liés à la performance et à la scalabilité des architectures
logicielles modernes.

4) Des prérequis si nécessaires :
Aucun

5) Une url vers la présentation détaillée de votre sujet :
https://seafile.lirmm.fr/f/d1a9fcdf6e0246e7800d/


6) Le profil/filière des étudiants:
étudiants M1 GL.

Lien : https://seafile.lirmm.fr/f/d1a9fcdf6e0246e7800d/Dernière mise à jour : 2023-12-28 18:25:04

30. Analyse et Evolution des Frontend et Backend d’une Application Web : Approche à base de Microservices
   
BAC
Identifiant : seriai_2_2023-24 • Encadrant(s) : seriai@lirmm.fr, bachar.rima@lirmm.fr

Résumé : Les microservices constituent une approche architecturale et
organisationnelle du développement logiciel, dans laquelle le logiciel
se compose de petits services indépendants qui communiquent via des API
bien définies. Nous proposons dans le cadre de ce projet de TER
d’étudier le problème d’évolution d’une application web écrite en Ruby
en Rails. Ruby on Rails, également appelé RoR ou Rails, est un framework
web libre écrit en Ruby. Il suit le motif de conception
modèle-vue-contrôleur (MVC). L’objectif de ce projet est de faire
évoluer un logiciel excitant monolithique, développé en Ruby en rails,
vers les microservices. Le travail à réaliser consiste à :

a) Etudier le Framework Ruby et construire son modèle de structure et de
comportement.

b) Utiliser un outil fourni d’analyse automatique du code source pour
analyser le code Ruby et construire un modèle de la structure
(architecture) de l’application Ruby à migrer.
cc) Réaliser une évolution incrémentale vers les microservices.

Pourquoi choisir ce projet de TER ?

a) En plus du développement logiciel, un ingénieur en informatique doit
maîtriser les techniques de compréhension et d'évolution des logiciels
existants. Ce TER offre une opportunité d'acquérir les connaissances
nécessaires pour cette phase du cycle de vie d'un logiciel et
d’apprendre des techniques d'analyse du code source.

b) Acquisition de compétences en Ruby on Rails, l'un des Frameworks les
plus utilisés dans le développement web (
https://en.wikipedia.org/wiki/Ruby_on_Rails).

c) Ce projet de TER s'effectue en collaboration avec un éditeur
franco-canadien de logiciels, offrant des opportunités de stages et
d'alternances à la suite de cette expérience.

4) Des prérequis si nécessaires :
Aucun

5) Une url vers la présentation détaillée de votre sujet :
https://seafile.lirmm.fr/f/b1ff0c1f60c84a069cc0/

6) le profil/filière des étudiants:
étudiants M1 GL

Lien : https://seafile.lirmm.fr/f/b1ff0c1f60c84a069cc0/Dernière mise à jour : 2023-12-28 18:25:59

31. Analyse de Quelques Problèmes de Sécurité d’Applications Mobiles
   
StuDev
Identifiant : seriai_3_2023-24 • Encadrant(s) : seriai@lirmm.fr, bachar.rima@lirmm.fr

Résumé : Les appareils et applications mobiles sont sujets aux failles de
sécurité et par conséquent à l’exposition aux cyberattaques. Force est
de constater que certaines vulnérabilités sont plus fréquentes sur ce
type d'appareil. On parle de vulnérabilité lorsque la faille ne résulte
pas d’un comportement de l’utilisateur mais de la structure même de
l’application. Dans le cas d'une application Android, la machine
d'exécution est une machine compatible Java, un langage qui supporte le
chargement dynamique de code. Une application Android peut donc cacher
une partie de son code par l'intermédiaire de chargement de code
dynamique. Ce code peut être malicieux. Le code peut être par exemple
stocké sur le système de fichier ou bien télécharger sur Internet. Nous
pouvons même imaginer un cas où le code est stocké dans l'application
chiffrée. L’objectif de ce projet de TER est de développer un analyseur
à qui nous fournirions une application Android (apk) et qui dresserait
un rapport de tous les chargements de code trouvé avec toutes
informations complémentaires tel que le chemin, l'url, l'algorithme de
chiffrement ou la clef de chiffrement.

Pourquoi choisir ce projet de TER ?
a) Acquérir de l'expérience dans l'analyse, la détection et la
correction des problèmes de sécurité logicielle et de cyber sécurité.

b) De nos jours, la gestion des problèmes de sécurité logicielle est
indispensable pour un ingénieur en informatique. Ce TER offre une
opportunité de découvrir ces problématiques et leur résolution.

c) Ce projet de TER s'effectue en collaboration avec une grande
entreprise spécialisée dans le domaine de la sécurité logicielle,
offrant la possibilité de stages et d'alternances à la suite de cette
expérience.

4) Des prérequis si nécessaires :
aucun

5) Une url vers la présentation détaillée de votre sujet :
https://seafile.lirmm.fr/f/87368cf2794741248ab8/

6) le profil/filière des étudiants:
étudiants M1GL ou un groupe mixte M1GL + M1 IASD

Lien : https://seafile.lirmm.fr/f/87368cf2794741248ab8/Dernière mise à jour : 2023-12-28 18:26:45

32. Analyse de Problèmes de Sécurité d'Applications Mobiles
Identifiant : seriai_4_2023-24 • Encadrant(s) : seriai@lirmm.fr, bachar.rima@lirmm.fr

Résumé : La cybersécurité représente un ensemble de pratiques, de processus et de
technologies dédiés à la protection des systèmes informatiques, des
réseaux, des données et des dispositifs contre les menaces cybernétiques
Dans le cadre de la sécurité applicative, l'objectif est de sécuriser
les logiciels, les applications et les services numériques contre les
vulnérabilités et les menaces potentielles. Cela englobe la protection
des applications contre les attaques malveillantes, la vérification de
la fiabilité du code et des processus de développement sécurisés pour
minimiser les failles. L'objectif de ce projet est de :

A) Réaliser un état de l'art des problèmes de sécurité logicielle, y
compris les malwares, les vulnérabilités, la certification et la
rétro-ingénierie, tout en examinant les techniques utilisées pour les
identifier.

B) Mettre en oeuvre certaines des techniques existantes en sécurité
logicielle, telles que l'utilisation de l'apprentissage automatique pour
la détection des malwares, la représentation visuelle du code pour
identifier les malwares, et explorer l'IA générative pour créer des
solutions basées sur l'ingénierie des prompts (tels que ChatGPT,
Copilot, etc.).

Pourquoi choisir ce projet '

A) Comprendre les problématiques de la cybersécurité et de la sécurité
logicielle, deux domaines stratégiques cruciaux pour tout professionnel
de l'informatique.

B) Comprendre les solutions proposées pour résoudre les problèmes de
sécurité applicative, en particulier ceux liés aux applications
logicielles.

C) Acquérir la capacité à proposer et à mettre en oeuvre des solutions
concrètes dans le domaine de la sécurité logicielle.

D) Apprendre à appliquer des approches d'apprentissage automatique pour
résoudre des problèmes spécifiques en sécurité logicielle.

E) Explorer l'utilisation novatrice de l'IA générative pour relever les
défis complexes de la sécurité logicielle, ouvrant ainsi de nouvelles
perspectives dans ce domaine en constante évolution.

4) Des prérequis si nécessaires : aucun

5) Une url vers la présentation détaillée de votre sujet :
https://seafile.lirmm.fr/f/5e8d72ea08f040119f9b/

6) Le profil/filière des étudiants:

Toutes les spécialités M1 informatique.

Lien : https://seafile.lirmm.fr/f/5e8d72ea08f040119f9b/Dernière mise à jour : 2024-01-15 09:55:22

33. Techniques avancés de moteurs de jeu
   
Blahaj Squad
Identifiant : noura.faraj_2_2023-24 • Encadrant(s) : noura.faraj@lirmm.fr

Résumé : Résumé : A partir d’une base de moteur graphique préexistante, implémenter en C++ des méthodes
de rendu, de physique et de logique de jeu avancées. Un petit jeu sera réalisé afin de montrer les
fonctionnalités qui ont été mises en application.
Encadrant : Noura Faraj (noura.faraj@umontpellier.fr)
Objectifs :
- Implémenter un algorithme de clustered shading/rendering pour la gestion des lumières
- Implémenter les ombres douces efficace par filtrage au pourcentage le plus proche de la
pénombre.
- Concevoir un système de benchmark afin de tester précisément l’efficacité et les couts en
performance de chaque ajout.
- Concevoir un moteur physique comprenant la gestion de la vélocité et des collisions.
- Concevoir un système de logique de jeu permettant l’interactions d’agents ou d’objets.
- Créer un petit jeu démontrant les capacités techniques du moteur.
Sous Objectifs :
- Ajouter des éléments d’optimisation : tri efficace des appels de rendus, early depth testing,
modèles/matériaux par niveau de détails, occlusion culling efficace.
- Ajouter des exemples d’agents interagissant avec le joueur.

Lien : - • Dernière mise à jour : 2023-12-28 18:30:39

34. Simuler un océan
   
CBK
Identifiant : noura.faraj_3_2023-24 • Encadrant(s) : noura.faraj@lirmm.fr

Résumé : Contexte
Notre projet de TER vise à simuler un océan dans un environnement virtuel en trois dimensions en s'inspirant du document de recherche de Jerry Tessendorf intitulé 'Simulating Ocean Water' (1) publié en janvier 2001. En plus de cette simulation, nous prévoyons d'ajouter un système de flottaison permettant aux objets tels que des sphères, des cubes et des maillages de flotter à la surface de l'eau à l'aide d'un système basé sur la physique. Pour optimiser notre système, nous envisageons également d'implémenter un octree ce qui permettrait d'améliorer l'efficacité globale de l'expérience.

Objectifs
Il y a plusieurs objectifs pour ce projet :
- Création d'�un moteur de rendu basé sur OpenGL.
- Simulation d'�un océan à l'�aide du moteur précédemment créé et à l'�aide du document de recherche de Jerry Tessendorf.
- Ajout d'�un système de flottaison basé sur la physique.
- Implémentation

(1) - https ://people.computing.clemson.edu/ jtessen/reports/papersf iles/coursenotes2004.pdf

Lien : - • Dernière mise à jour : 2024-04-11 10:17:47

35. Extraction d'Informations à partir des Bulletins de Santé du Végétal (BSV)
Identifiant : lylia.abrouk_1_2023-24 • Encadrant(s) : lylia.abrouk@lirmm.fr

Résumé : Ce projet vise à extraire des connaissances pertinentes à partir des
textes contenus dans les Bulletins de Santé du Végétal (BSV) pour suivre
les observations du développement des plantes cultivées (stades
phénologiques).
L'objectif principal est de développer des méthodes avancées pour
annoter de manière efficace les données textuelles faiblement
structurées. Cela implique la mise en place de techniques pour
l'extraction de l'information.

Le projet consistera à proposer un modèle d'extraction d'informations
basé sur les réseaux de neurones profonds, spécifiquement pour la
Reconnaissance d'Entités Nommées (REN) et l'Extraction de Relations
(ER). Nous souhaitons nous concentrer sur les méthodes d’apprentissage
qui ne nécessitent que peu ou pas d’exemples (few-shot or zero-shot
learning).

Le projet se déroulera en trois phases clés :

1. Réaliser une revue complète des méthodes actuelles d'extraction
d'entités et de relations en few-shot learning.
2. Développer et proposer une méthode pour l'extraction d'entités et
de relations.
3. Mettre en œuvre et évaluer le modèle proposé.

Lien : - • Dernière mise à jour : 2023-12-28 18:51:36

36. Étude des relations entre les différentes heuristiques de branchement pour les CSPs
   
Les programmeurs dysfonctionnels
Identifiant : anastasia.paparrizou_1_2023-24 • Encadrant(s) : anastasia.paparrizou@lirmm.fr, bessiere@lirmm.fr

Résumé : En programmation par contraintes, l'efficacité de la résolution dépend
beaucoup de l'ordre de branchement, c'est à dire l'ordre dans lequel
sont affectées les variables durant la recherche. Il existe de
nombreuses heuristiques de branchement. Le choix de la bonne heuristique
dépend naturellement du problème à résoudre, mais aussi d'autres
paramètres, tels que la profondeur de la recherche, la densité du réseau
de contraintes, la taille des domaines des variables, etc. En général,
le choix de la meilleure heuristique nécessite une véritable expertise
du domaine, ce qui prive de nombreux utilisateurs de la meilleure
heuristique pour leur problème.

Nous essaierons de définir des propriétés qui permettent d'exprimer des
relations entre heuristiques en fonction de leurs performances. Cette
classification pourra être utilisée comme guide dans les solveurs pour
associer des heuristiques aux problèmes, ainsi que comme aide aux
utilisateurs. Les résultats de ces recherches devraient aussi constituer
une étape vers l'explication de pourquoi et comment l'alternance
d'heuristiques pendant la recherche peut être fructueuse ou redondante.
De vastes expériences seront déployées pour valider nos thèses.

** Des prérequis si nécessaires : Bonne maîtrise du langage Python ou
JAVA

** Une url vers la présentation détaillée de votre sujet :
https://seafile.lirmm.fr/d/9786e3fc367c4845ad20/

** le profil/filière des étudiants que vous souhaitez : IA

Lien : https://www.lirmm.fr/~bessiere/Site/Media/TER-coconut-heuristics.pdfDernière mise à jour : 2023-12-28 18:55:05

37. Génération procédurale de terrain et planète
   
GPT-P
Identifiant : marc.hartley_1_2023-24 • Encadrant(s) : noura.faraj@umontpellier.fr

Résumé : Ce projet vise à explorer les possibilités de création d'un environnement 3D réaliste à l'aide de la génération procédurale dans Unreal Engine 5. Cette démarche inclut la conception et la modélisation d'un terrain dynamique et interactif.

Objectifs principaux:
- Générer un terrain
- Implémenter des algorithmes pour la génération de bruits : perlin noise, simplex pour créer des variations de hauteur
- Implémenter des algorithmes pour faire un lissage de terrain (pour rendre le terrain plus naturel)
- Générer des textures adaptées en fonction des contraintes (hauteurs, type en particulier)
- Générer des objets adaptés au terrain (arbres, roches...) selon la hauteur du terrain, la température...
- Création de grottes, profondeur et volume.
- Ajout de planètes avec ses spécificités (atmosphère, taille, couleur, 'type'...)

Objectifs secondaires :
- Chercher un moyen pour rendre le terrain navigable (route, chemin...)
- Créer une interface utilisateur qui va permettre à l'utilisateur d'interagir avec le terrain
- Ajout de ville.

Outils :
- Unreal Engine

Articles scientifiques :
- https://portfolio.marc-cerutti.com/storage/2020/10/rapport.pdf
- https://tonisagrista.com/blog/2021/procedural-planetary-surfaces/
- https://dumas.ccsd.cnrs.fr/dumas-00636149/document
- https://www.developpez.net/forums/attachments/p17777d1186674792/general-developpement/algorithme-mathematiques/contribuez/papier-generation-procedurale-planetes/generation-procedurale-planetes-tellurique.pdf/
- https://www.researchgate.net/search/publication'q=%20%22g%C3%A9n%C3%A9ration%20proc%C3%A9durale%203D%22%2C%20%22monde%20proc%C3%A9dural
%22%2C%20%22mod%C3%A9lisation%20de%20ville%20proc%C3%A9durale%22%2C%20%22g%C3%A9n%C3%A9ration%20de%20plan%C3%A8te%203D%22%2C%20%22algorithmes%20de%20g%C3%A9n%C3%A9ration%20proc%C3%A9durale

Objectifs détaillés :
● Création d'un terrain 3D réaliste :
● Utilisation des techniques de génération procédurale pour construire un
terrain diversifié, incluant des montagnes, des vallées, des plaines, etc.
● Intégration de méthodes telles que le Perlin Noise et le Simplex pour générer
des variations de hauteur et de relief.
● Implémentation d'algorithmes de génération de bruits :
● Développement d'algorithmes pour simuler des bruits cohérents et réalistes,
offrant des variations de terrain naturelles et esthétiques.

● Lissage du terrain :
● Utilisation d'algorithmes de lissage pour adoucir les aspérités du terrain, le rendant ainsi plus naturel et fluide.
● Génération de textures adaptées :
● Création de textures en fonction des contraintes du terrain, notamment enajustant les textures en fonction des altitudes et des types de terrain (rocheux, herbeux, sable, etc.).

● Création d'objets adaptés :
● Développement d'objets (végétation, rochers, structures) qui s'intègrent
harmonieusement au terrain généré, enrichissant ainsi l'environnement.

● Dimension volumique :

● Exploration de méthodes pour ajouter une dimension supplémentaire au
terrain, augmentant ainsi sa complexité et son intérêt visuel. (grottes,
cavités...)
● Ajouter des planètes

Objectifs bonus :
● Interface utilisateur interactive :
● Conception d'une interface conviviale permettant à l'utilisateur d'explorer et
d'interagir avec le terrain généré.

● Rendre le terrain navigable :
● Recherche de solutions pour permettre la navigation du terrain, en incluant la création de routes ou de chemins permettant aux utilisateurs de se déplacer aisément.

Outils et technologies :
Unreal Engine sera le pilier central de ce projet, offrant une multitude d'outils pour la modélisation 3D, la génération procédurale, la création d'interactions utilisateur et la visualisation avancée des environnements créés. En outre, ce projet pourrait s'étendre à la génération de planètes procédurales, englobant divers biomes, paysages, infrastructures, atmosphères, faune, flore, grottes et villes.

Lien : - • Dernière mise à jour : 2024-03-12 09:50:27

38. Simulation de fumée
   
bib
Identifiant : noura.faraj_4_2023-24 • Encadrant(s) : noura.faraj@umontpellier.fr

Résumé : Créer un simulateur de fumée en utilisant OpenGL.
L'objectif est de reproduire de manière naturelle le mouvement et les interactions des particules de fumée.

Objectif :
- Configuration de l'environnement.
- Modélisation des particules.
- Simulation de la dynamique de la fumée.
- Interactions avec l'environnement.
- Effets visuels réalistes (tels que des dégradés de couleur')

Sous-objectif :
- Implémentation des contrôles utilisateur.
- Optimisation des Performances.

Prérequis : - Connaissance d'OpenGL et C++.
- Mathématiques appliquées.

Url :
https://web.stanford.edu/class/cs237d/smoke.pdf
https://www.youtube.com/watch'v=Du8HGIWRTRk&ab_channel=HanmingZhang
https://www.youtube.com/shorts/oqQBfcWRN-I

Lien : - • Dernière mise à jour : 2024-04-11 11:14:24

39. Produit de matrice binaire efficace pour la cryptographie
Identifiant : pascal.giorgi_1_2023-24 • Encadrant(s) : pascal.giorgi@lirmm.fr

Résumé : Ce sujet de TER s’adresse plus particulièrement aux étudiants intéressés par le calcul algébrique, l’algorithmique et la programmation efficace. Le travail consistera à appréhender des calculs de matrices intervenant dans des algorithmes permettant de casser des protocoles cryptographiques tels que RSA.

- Sujet -
L’objectif de ce travail sera de proposer des implantations d’algorithmes de produits de matrices de polynômes à coefficient dans le corps finis à deux éléments. Cette opération est aujourd’hui centrale dans le meilleur algorithme connu (NFS) pour attaquer le crypto-système RSA. L’un des premiers aspects du travail sera d’étudier les différentes représentations algébriques possibles de telles matrices: des matrices dont les coefficients sont des polynômes sur GF(2) ou bien des polynômes ayant comme coefficient des matrices sur GF(2). En fonction de ces représentations différents algorithmes seront possibles. L’objectif de ce stage est d’étudier ces algorithmes et d’en proposer des implantations efficaces exploitant le paradigme SIMD ainsi que l’optimisation de cache. Le développement se fera en C++ et des benchmarks automatisés seront à mettre en place.

- Plan de travail -
Dans un premier temps la multiplication de matrices de dimension 64x64 sur GF(2) sera étudiée et optimisée.À partir de cette brique, une implantation de produit de polynômes de matrices sur GF(2) devra être proposée, dans un premier temps de degré 64 puis de degré quelconque. Afin d’améliorer les performances, les approches par tabulation, comme celle des 4 russes basée [2] sur les codes de Grays, ou bien les approches diviser pour régner, comme celle de Karatsuba [3] ou de Cantor [4] seront à étudier.

- Bibliographie -
[1] https://en.wikipedia.org/wiki/GF(2)
[2] Algorithm 898: Efficient Multiplication of Dense Matrices over GF(2). ACM Transactions on Mathematical Software Volume 37 Issue 1 Article No.: 9
[3] https://fr.wikipedia.org/wiki/Algorithme_de_Karatsuba
[4] Faster Multiplication in GF(2)[x]. ANTS 2008: Algorithmic Number Theory pp 153–166.


** Des prérequis si nécessaires ;
Bon niveau en programmation et en algorithmique

** profil/filière des étudiants que vous souhaitez : IMAGINE ou ALGO

Lien : - • Dernière mise à jour : 2024-01-15 09:58:34

40. Explorer des Outils et des Techniques pour le Test Automatique des Applications Web Frontend
   
A2M
Identifiant : bachar.rima_1_2023-24 • Encadrant(s) : bachar.rima@lirmm.fr, seriai@lirmm.fr

Résumé : Les applications web frontend deviennent de plus en plus complexes, soulignant la nécessité d'outils de test automatisés robustes pour assurer une la fiabilité de l’application, garantissant une fonctionnalité optimale et une expérience utilisateur souple. Ce projet cherche à explorer divers techniques et outils de test automatisés en évaluant leur efficacité dans le domaine du développement web frontend. L'accent sera mis sur la compréhension de ces outils dans le contexte de la littérature existante, des modèles de qualité et des benchmarks liés au test automatisé frontend.

Principaux aspects du projet :

a) Acquisition de connaissances théoriques et pratiques approfondies sur les technologies web à travers une expérience pratique avec des outils avancés de test automatisé, tels que Selenium, Protractor, Cypress, et Puppeteer.

b) Collaboration avec Berger-Levrault, une entité majeure du logiciel en France, offrant une expérience professionnelle riche et une exposition à l'industrie.

c) Exploration de différentes techniques de testing (tests unitaires, tests d'usabilité, test de non-régression, etc.)

d) Contribution à l'amélioration de la testabilité et la fiabilité des applications web, impactant directement la satisfaction et l'engagement des utilisateurs.

e) Offre d'une piste potentielle de publication et contribution à l'avancement dans le domaine de test automatisé des applications web frontend.

* Des prérequis si nécessaires :
Aucun

* Une url vers la présentation détaillée de votre sujet :
https://drive.google.com/file/d/1DEnYA6agDp1Kv_enGiik7FCKTpvbcGq6/view?usp=sharing

* Le profil/filière des étudiants :
Étudiants M1 GL.

Lien : https://drive.google.com/file/d/1DEnYA6agDp1Kv_enGiik7FCKTpvbcGq6/view?usp=sharingDernière mise à jour : 2024-01-15 10:06:12

41. CMI Carbonalyser
   
CMI-LESS
Identifiant : boudet_1_2023-24 • Encadrant(s) : boudet@lirmm.fr

Résumé : Créé par The Shift Project, Carbonalyser est une extension pour votre Firefox qui vous permet de mesurer la consommation électrique et les émissions de gaz à effet de serre (GES) associées à votre navigation internet. Pour ce faire, il comptabilise lʼensemble des données qui transitent via votre navigateur et convertit ce volume en quantité dʼélectricité.

Dans un second temps, cette quantité dʼélectricité est traduite en émissions de ,
adaptée à votre zone géographique. Carbonalyser vous propose ensuite en quelque sorte une visualisation de votre empreinte numérique. Pour être plus parlant, votre consommation est traduite en nombre de portables rechargés ou bien en nombre de kilomètres parcourus en voiture par exemple. Une version Android avait été développée par Orange, mais n'est plus maintenue depuis 2020.

Objectifs
L'objectif est donc de (re-)faire une version Android dans un premier temps prenant en compte, de manière séparée, les consommations de données en WIFI et 4G/5G. Nous ajouterons par la suite des améliorations :
. Une limitation de Carbonalyzer est de ne mesurer que la consommation de données
dans le navigateur et pas l'ensemble des données issues d'autres applications
(réseaux sociaux, jeux en ligne, streaming, musique...). Nous essaierons d'aller plus
loin en analysant plus finement les consommations par applications les plus courantes
(youtube, deezer, netflix...)
2. Il existe plusieurs modèles de consommations énergétiques et d'émissions de
équivalents. Après une étude bibliographique, nous intégrerons les différents modèles
dans l'application en laissant le choix à l'utilisateur.

Lien : - • Dernière mise à jour : 2024-01-15 10:19:38

42. CMI Prototypage et test d’un dispositif de surveillance connectée de la douleur des patients
   
CMI-MR2
Identifiant : anne.laurent_2_2023-24 • Encadrant(s) : anne.laurent@lirmm.fr

Résumé : Il est proposé d'étudier la faisabilité d'un dispositif connecté innovant conçu pour évaluer la douleur des patients à l'aide de l'Échelle Visuelle Analogique (EVA).Les étudiants devront effectuer une veille technologique et
bibliographique approfondie pour explorer le domaine des objets connectés en santé, en mettant
particulièrement l'accent sur leur utilisation en contexte hospitalier, ainsi que sur les problématiques liées à la
collecte de données et à leur intégration automatique dans le Dossier Patient Informatisé (DPI).
Ils auront ensuite pour mission de concevoir et de développer un prototype d'objet connecté capable d'interagir
avec les patients pour recueillir leur niveau de douleur. Ce dispositif doit être facile d'utilisation pour les patients
et/ou les aidants, et permettre une remontée d'informations pertinente vers les équipes de soins.
Les étudiants auront pour mission de concevoir ce prototype, d'explorer les options de transmission des données
vers un serveur, et de mettre en place un protocole d'expérimentation afin de tester l'efficacité et la faisabilité de
cet objet connecté. Les contraintes du projet incluent la nécessité de garantir l'exactitude des données collectées
ainsi que la conformité aux réglementations relatives aux dispositifs médicaux. L'équipe de recherche ERIOS
permettra d'organiser des rencontres avec les utilisateurs pour mieux comprendre les enjeux et les besoins et
tester le prototype.

CONTACTS ERIOS :
Université Montpellier : anne.laurent@umontpellier.fr
CHU de Montpellier : louise.robert@chu-montpellier.fr

Lien : - • Dernière mise à jour : 2024-01-15 11:27:39

43. Explorer l'Instrumentation et le Performance Monitoring du Web Frontend avec OpenTelemetry
Identifiant : bachar.rima_2_2023-24 • Encadrant(s) : bachar.rima@lirmm.fr, seriai@lirmm.fr

Résumé : Ce projet se concentre sur OpenTelemetry, une suite complète d'outils, d'API et de SDK pour l'instrumentation, la génération, la collecte et l'exportation de données de télémétrie (métriques, logs et traces). L'idée consiste à comprendre, explorer, tester et analyser les capacités d'OpenTelemetry dans l'instrumentation et le monitoring de performance des applications web frontend (modernes, et éventuellement legacy). Guidé par la littérature existante, des modèles de qualité potentiels ou des benchmarks spécifiquement adaptés à la performance et à l'instrumentation des applications web frontend, ce projet offre une expérience éducative et professionnelle diversifiée.

Principaux aspects du projet :

a) Acquisition de connaissances théoriques et pratiques approfondies sur les technologies web à travers une expérience pratique avec des outils avancés de collecte de données comme OpenTelemetry.

b) Collaboration avec Berger-Levrault, une entité majeure du logiciel en France, offrant une expérience professionnelle riche et une exposition à l'industrie.

c) Plongée dans les aspects opérationnels cruciaux du cycle de vie des logiciels en explorant le monitoring et la télémétrie.

d) Contribution à l'amélioration de la performance et de l'expérience utilisateur des applications web, impactant directement la satisfaction et l'engagement des utilisateurs.

e) Offre d'une piste potentielle de publication et contribution à l'avancement dans le domaine de l'instrumentation et du monitoring de performance des applications web frontend.

4) Des prérequis si nécessaires :
Aucun

5) Une url vers la présentation détaillée de votre sujet :
https://drive.google.com/file/d/1NrD_NFyJSbnWRdlmoDMszyLVt0qovNuv/view?usp=sharing

6) Le profil/filière des étudiants :
Étudiants M1 GL

Lien : https://drive.google.com/file/d/1NrD_NFyJSbnWRdlmoDMszyLVt0qovNuv/view?usp=sharingDernière mise à jour : 2024-01-15 11:35:20

44. Découverte de patrons sémantiques
Identifiant : mathieu.lafourcade_n1_2023-24 • Encadrant(s) : mathieu.lafourcade@lirmm.fr

Résumé : Pour ce sujet de TER, il s'agira de travailler sur la découverte de patron sémantiques susceptible de porter une relations entre deux termes. On entreprendra conjointement l'extraction de relations sémantiques (synonymie, hyperonymie, causatif, caractéristique..) à partir d'articles médicaux issus de l'encyclopédie Wikipédia.

Par exemples :

    ** la phrase : "Chaque action est spécifiée par des préconditions qui doivent être satisfaites."
il faudra identifier " qui doivent être " comme 'r_carac' et avoir trouvé : préconditions r_carac satisfaites

    ** la phrase : "Un problème de planification classique est défini généralement comme un problème de recherche dans un graphe. "
il faudra identifier la patron "est défini généralement comme" comme la relation 'r_similar' ou 'r_isa'

L'approche sera d'utiliser une base de connaissances (JeuxDeMots) ou des relations entre termes sont déjà connues et de les confronter à ce qui peut être trouvé dans des textes. Le segment textuel (le futur patron) entre deux mots connus A et B pour entretenir une relation R (A R B), peut alors être associé au patron trouvé. Il faut répéter l'opération un grand nombre de fois sur des couples de termes différents. Le projet est en rapport avec les algorithmes d'apprentissage par renforcement. Les types morphologique (verbe, nom, adj, etc) sémantiques (animal, personne, objet, lieu etc.) des termes A et B aura également une influence sur le processus.

Cette extraction aura pour but de consolider le réseau de connaissance générale JeuxDeMots. Il faudra utiliser les ressources et travaux de recherches à votre disposition afin d'élaborer des algorithmes pertinents. Le travail sera composé des tâches suivantes:

* état de l'art sur l'extraction de relations sémantiques via des schémas à partir de textes non structurés ;
* état de l'art sur l'apprentissage par renforcement ;
* proposer un algorithme de découverte de schéma et d'extraction de relations, à partir d'un gros corpus (vous prendrez les sources de Wikipédia français ;
* utilisation et augmentation de la base de connaissance JeuxDeMots (http://www.jeuxdemots.org/jdm-about.php)

Le langage de programmation utilisé sera au choix des étudiants (mais bon, Java ou Python seraient bien :)

Lien : - • Dernière mise à jour : 2024-01-15 16:42:17

45. Bot de gestion de connaissances
   
DBDS
Identifiant : mathieu.lafourcade_2bis_2023-24 • Encadrant(s) : mathieu.lafourcade@lirmm.fr, prince@lirmm.fr

Résumé : On souhaite développer un bot (Skype, ou autre) avec lequel l'utilisateur entreprendrait des pseudo conversations dans le but de consolider (augmenter et corriger) une base de connaissances (en l'occurrence, la base RezoJDM).

Exemple de dialogue :

Bot: est-ce qu'un hot-dog contient de la moutarde '
User: oui, la plupart du temps
Bot: est-ce qu'un hot-dog contient des oignons grillés '
User: oui c'est possible, surtout aux US
Bot: merci pour ces informations
User: un hot-dog c'est de la malbouffe
Bot: Ah' Ok, je vais retenir cela.

Le bot en question doit être capable de poser des questions de façon intelligible et d'avoir un grande tolérance et capacité d'interprétation de ce que répond l'utilisateur. Le dialogue engagé doit être cohérent - on peut changer de sujet, mais on ne saute pas sans arrêt du coq à l'âne). Enfin, le bot doit être capable de répondre des question de type "pourquoi", par exemple :
User: Pourquoi un tigre est dangereux '
Bot: un tigre est dangereux car un tigre est un animal sauvage et un animal sauvage est dangereux.

On pourra utiliser chatGPT pour formater les réponses ou obtenir des informations (à vérifier avec JeuxDeMots).

Prérequis : aucun
Liens :
bot skype - https://dev.skype.com/
rezoJDM - http://www.jeuxdemots.org/jdm-about.php
exemple d'interaction - http://www.jeuxdemots.org/rezo-ask.php'text=1

Lien : - • Dernière mise à jour : 2024-01-22 10:35:14

46. CMI - Recherche de nouveaux matériaux thermoélectriques par machine
   
adrien.mecibah
Identifiant : retore_1_2023-24 • Encadrant(s) : christian.retore@lirmm.fr, anne-elisabeth.baert@lirmm.fr

Résumé : Encadrants : Pr. Philippe Jund (ICGM), Christian Rétoré (LIRMM),
Anne-Elisabeth Baert (LIRMM)

Mots clefs : Machine Learning, Matériaux thermoélectriques, Random Forest, Optimisation, Simulation

Résumé : L'effet thermoélectrique, un phénomène physique présent dans certains
matériaux, qui lie les flux de chaleur qui les traversent aux courants électriques qui
les parcourent. Un grand nombre des matériaux possédant des propriétés
thermoélectriques intéressantes ont été découverts au cours des décennies 1950 et
1960. Le facteur de mérite ZT est une résultante unique des propriétés des
matériaux thermoélectriques et permet de mesurer l’efficacité d’un matériau. La
découverte de matériaux avec des ZT élevés est aujourd’hui un enjeu réel pour la
recherche. Il est possible de créer de nouveaux matériaux et de déterminer
expérimentalement leurs ZT mais ce processus reste coûteux et les combinaisons
amenant à de nouveaux matériaux sont en très grand nombre. Déterminer des
structures de matériaux thermoélectriques et prédire leurs ZT par programmation
permet de trouver les matériaux d'intérêt potentiel parmi les combinaisons possibles.
Objectifs :
- Trouver par des méthodes de Machine Learning des matériaux
thermoélectriques appartenant à la famille des half-Heuslers avec un haut ZT
- Corroborer les résultats déjà obtenus avec l'algorithme de Machine Learning
SiSSO (adapté pour les bases de données de faible taille) avec un autre
algorithme de ML comme Random Forest (Forêt d’arbres décisionnels).
- Développer des scripts Python pour le high throughput screening (application
des descripteurs à l’ensemble du domaine des configurations) ou la gestion
des bases de données.

Bibliographie :
- R. Ouyang, S. Curtarolo, E. Ahmetcik, M. Scheffler, and L. M. Ghiringhelli,
SISSO: A compressed-sensing method for identifying the best
low-dimensional descriptor in an immensity of offered candidates, Phys. Rev.
Materials, 2018, 2, 083802.
- Miyazaki, H., Tamura, T., Mikami, M. et al. Machine learning based prediction
of lattice thermal conductivity for half-Heusler compounds using atomic
information. Sci Rep 11, 13410 (2021).
https://doi.org/10.1038/s41598-021-92030-4

Lien : - • Dernière mise à jour : 2024-01-19 22:21:02

47. Jeu du Loup-garou avec ChatGPT bis (manipulation)
   
LAM_2024
Identifiant : croitoru_n2_2023-24 • Encadrant(s) : croitoru@lirmm.fr

Résumé : L'objectif de ce projet est d'utiliser plusieurs instances de ChatGPT qui interagissent les unes avec les autres afin de simuler une partie du jeu du Loup-garou. Un algorithme de dialogue prenant des tours pour n joueurs devrait être implémenté, permettant ainsi à chaque instance d'API de discuter de manière apparemment fluide.

Lien : - • Dernière mise à jour : 2024-01-22 14:19:08

48. (bis) Analyse et Evolution des Frontend et Backend d’une Application Web : Approche à base de Microservices
   
LYS
Identifiant : seriai_n_2023-24 • Encadrant(s) : seriai@lirmm.fr, bachar.rima@lirmm.fr

Résumé : Les microservices constituent une approche architecturale et
organisationnelle du développement logiciel, dans laquelle le logiciel
se compose de petits services indépendants qui communiquent via des API
bien définies. Nous proposons dans le cadre de ce projet de TER
d'étudier le problème d'évolution d'une application web écrite en Ruby
en Rails. Ruby on Rails, également appelé RoR ou Rails, est un framework
web libre écrit en Ruby. Il suit le motif de conception
modèle-vue-contrôleur (MVC). L'objectif de ce projet est de faire
évoluer un logiciel excitant monolithique, développé en Ruby en rails,
vers les microservices. Le travail à réaliser consiste à :

a) Etudier le Framework Ruby et construire son modèle de structure et de
comportement.

b) Utiliser un outil fourni d'analyse automatique du code source pour
analyser le code Ruby et construire un modèle de la structure
(architecture) de l'application Ruby à migrer.
cc) Réaliser une évolution incrémentale vers les microservices.

Pourquoi choisir ce projet de TER '

a) En plus du développement logiciel, un ingénieur en informatique doit
maîtriser les techniques de compréhension et d'évolution des logiciels
existants. Ce TER offre une opportunité d'acquérir les connaissances
nécessaires pour cette phase du cycle de vie d'un logiciel et
d'apprendre des techniques d'analyse du code source.

b) Acquisition de compétences en Ruby on Rails, l'un des Frameworks les
plus utilisés dans le développement web (
https://en.wikipedia.org/wiki/Ruby_on_Rails).

c) Ce projet de TER s'effectue en collaboration avec un éditeur
franco-canadien de logiciels, offrant des opportunités de stages et
d'alternances à la suite de cette expérience.

4) Des prérequis si nécessaires :
Aucun

5) Une url vers la présentation détaillée de votre sujet :
https://seafile.lirmm.fr/f/b1ff0c1f60c84a069cc0/

6) le profil/filière des étudiants:
étudiants M1 GL

Lien : https://seafile.lirmm.fr/f/b1ff0c1f60c84a069cc0/Dernière mise à jour : 2024-01-22 20:39:42

49. simulation de feu
   
Fire
Identifiant : noura.faraj_5_2023-24 • Encadrant(s) : noura.faraj@umontpellier.fr

Résumé : La simulation de feu par système de particules est une approche puissante dans le domaine de la visualisation et de la modélisation informatique, permettant de reproduire de manière réaliste les comportements complexes et dynamiques du feu dans des environnements virtuels. Ce projet vise à développer un modèle de simulation de feu basé sur les particules, en utilisant des algorithmes avancés pour générer des animations convaincantes de flammes.

Lien : - • Dernière mise à jour : 2024-03-12 09:40:10


page d'accueilliste des sujets liste des groupes liste des encadrants

Mathieu Lafourcade, janvier 2023 (merci d'envoyer toute remarque ou question sur les TERs à mathieu.lafourcade avec comme sujet du mail "[TER_M1_2023] Question") - Merci à Mountaz qui est l'origine du contenu et du style de cette page.