Aller au menu Aller au contenu Aller à la recherche
  • Français
  • English

Séminaires

mardi 5 juillet 2022 à 14h

Hermine Chatoux (MCF à ImVia)

HS01(aile H Mirande)

Création de fractales pour la mesure de la perception humaine

Hermine Chatoux est MCF à ImVia depuis 2020, équipe CORES. Elle a soutenu sa thèse en 2019 au XLIM à Poitiers. Ses domaines de recherche sont l’imagerie multivaluée pour l’analyse de l’apparence. Plus particulièrement, l’étude métrologique de la couleur et la texture dans le contexte de l’imagerie. 

Abstract : To study the human perception of texture, the fractional Brownian movement can be used to generate color texture images (a controlled variation in the spatio-chromatic space). Indeed, fractal textures are not directly related to a semantic subject and therefore will allow to measure “eye
sensation” and not “brain analysis”. Our focus of interest is the physical and perceptual constraints to generate such a mathematical object. The fBm strong hypothesis is the continuity of the space. When applying the concept to color images, a quantification is realized both in the spatial and
the chromatic space.

mardi 21 juin 2022 à 14h

Elio Hbeich, doctorant au LIB (équipe SDD)

HS01 (aile H Mirande)

Vérificateur réglementaire sémantique et multi-échelle

Elio Hbeich est doctorant au LIB (équipe SDD) sous la direction d’Ana Roxin.

 Résumé :

« Le contrôle des maquettes bâtiments (BIM) a commencé par le vérificateur MvdXML (Fahad et al., 2018; Moult & Krijnen, 2020; Weise et al., 2015). Cependant, ce dernier avait plusieurs limitations comme l’absence d’analyses géométriques et de mécanisme de raisonnement. Afin de les surmonter, les travaux du CSTB publiés par (Bus, Fahad, et al., 2018) proposent une approche basée sur les technologies du Web sémantique pour la vérification les modèles BIM vis-à-vis des règles d’incendies. Cette approche prend en compte que des données mono-sources (celles du bâtiment) et ne traite que les règles de construction interne du bâtiment. 
 
De plus, les travaux réalisés par le CSTB (Bouzidi et al., 2012; Emani, 2016) se focalisent sur les règles qui vérifient une condition (propriété). Une propriété peut être une relation entre deux éléments, ou une caractéristique d’un élément. Par exemple, le regard doit être placé à la limite du domaine privé, la hauteur du bâtiment ne doit pas dépasser 55m. Une règle complexe est une règle qui vérifie plusieurs propriétés en même temps. L’analyse des règles urbaines montre que les règles sont textuelles, ambigues, complexes, multi-échelles et ont besoin d’un grand nombre de données hétérogènes isolées.
 
Mes travaux se focalisent sur l’extension de cette vérification de l’échelle bâtiment à l’échelle urbaine, dans un champ d’application concernant le système d’alimentation. Dans ce contexte ma thèse vise à spécifier une ontologie intégrant les connaissances des experts métiers (traduction des règles en langage logique) et les données hétérogènes (BIM et SIG). Cette ontologie sera utilisée pour vérifier les règles sur plusieurs niveaux de vérification (département, ville, quartier et bâtiment). »

 


jeudi 9 juin 2022 à 14h

Eric Guérin (MCF HDR au LIRIS – INSA Lyon)

HS01 (aile H Mirande)

Création, synthèse et édition de terrains numériques (mondes virtuels)

Résumé : Les méthodes pour créer, synthétiser, éditer des terrains numériques existent depuis plusieurs décennies. Pour autant, on ne peut pas dire que le problème soit réglé tant il est complexe. Les terrains naturels sont le résultat des processus multiples qui opèrent à des échelles différentes. Dans cet exposé, je présenterai trois méthodes originales qui tentent d’apporter une pierre à l’édifice : une qui utilise de l’apprentissage profond, une autre qui utilise la modélisation parcimonieuse, et une dernière qui propose une modélisation par gradient.

Bio : Eric Guérin est maître de conférence au département informatique de l’INSA Lyon et au laboratoire LIRIS. Il a obtenu son doctorat à l’Université Claude Bernard Lyon 1 en 2002, et son HDR en 2017. Ses thématiques de recherche sont liées aux mondes virtuels au sens large : terrains numériques, végétation, atmosphère, rivières, etc. Les méthodes utilisées sont très variées, allant de la simulation d’érosion à la modélisation procédurale, en passant par du machine learning.

PDF


jeudi 12 mai 2022 à 14h

Julien RITON (administratif au sein du rectorat de Dijon – titulaire d’un doctorat)


HS01 (aile H Mirande)

Méthode de décomposition de domaine pour les problèmes de contact

Résumé : Les méthodes de décomposition de domaines est la formalisation d’un concept naturel: répartir les tâches de calcul sur autant de sous-parties d’un domaine sur lequel est défini un problème.
Ici, le problème sera celui de la déformation de corps en contact, celui-ci s’exprimant sous la forme d’un problème d’optimisation. On verra comment
découpler ce problème en sous-problèmes permettant la parallélisation du calcul. Autrement dit, au lieu de faire la résolution d’un problème d’optimisation sur la globalité d’un domaine, on peut utiliser plusieurs machines en parallèle sur un problème d’optimisation réduit. Sans oublier la phase de communication des données à l’interface de découpage.


mardi 22 mars 2022 à 14h

Xavier Ouvrard

G122

Hyper-bag-graphes et leurs applications pour la modélisation, l'analyse et la visualisation de réseaux complexes de co-occurrences.

Résumé : L’énorme quantité et la variété des données à l’ère du Big Data nécessitent de développer des outils spécifiques qui pour donner un aperçu signifiant ne peuvent se réduire à de simples graphiques ou à des tableaux de synthèses classiques, particulièrement lorsqu’il s’agit de jeu de données textuels ou catégoriels; une navigation complète du jeu de données s’avère alors indispensable pour en apprécier la complexité. Dans ce séminaire, je présenterai comment en construisant des cooccurrences d’instances de données en se référant à un (ou des) types commun(s) servant de référence, permet de construire une navigation visuelle de l’espace d’information multi-facettes. Une représentation simplifiée consiste à développer ces relations de cooccurrences en cliques et de faire de la navigation par graphe. L’introduction des hypergraphes permet déjà de simplifier notablement la visualisation obtenue par 2-section de l’hypergraphe.

Afin de révéler les éléments importants des hypergraphes lorsque leur taille augmente, un tri de l’information est nécessaire de sorte à révéler au mieux les sommets et hyper-arêtes importantes du réseau. Une des méthodes consiste à recourir à un processus de diffusion. Se cantonner à l’utilisation de la matrice d’incidence, revient le plus souvent à utiliser de manière cachée la 2-section de l’hypergraphe. Une grande partie des recherches s’est donc concentré sur la construction d’un tenseur d’adjacence adapté pour les hypergraphes généraux, par des processus d’uniformisation de l’hypergraphe. Cela nous a amené à introduire les hyper-bag-graphes, comme extension des hypergraphes aux familles de multisets pour autoriser la duplication d’éléments dans les processus d’uniformisation et enfin de proposer un nouveau Laplacien tensoriel.

Bio : Xavier Ouvrard, actuellement Senior Fellow en charge du cluster de calcul du service de Radio-protection du CERN, a récemment obtenu son Doctorat à l’Université de Genève, sous la co-direction du Pr. Stéphane Marchand-Maillet (Université de Genève) et du Dr Jean-Marie Le Goff (CERN), après avoir passé trois ans d’études en licence et master d’informatique au CTU de l’UBFC. Antérieurement, ingénieur diplômé INPG, après deux ans dans les industries papetières il a rapidement bifurqué vers l’enseignement des mathématiques pendant une vingtaine d’années au Lycée International à Ferney-Voltaire (Ain), où il a également enseigné l’Informatique et les Sciences du Numérique et a été administrateur du réseau pendant de nombreuses années.


jeudi 17 mars 2022 à 14h

Célestin Coquidé (post-doctorant – Institut UTINAM, équipe Physique Théorique et Astrophysique) – Besançon

 G122

Le rayonnement culturel à travers le prisme de Wikipédia

Résumé : Dans l’ère numérique d’aujourd’hui, l’encyclopédie en ligne Wikipédia prend une place importante. Créée en 2001 par Jimmy Wales et Larry Sanger, elle contient maintenant plus de 50 millions d’articles pour environ 300 éditions linguistiques. L’édition anglaise compte à elle seule 6 millions d’articles. La variété de sujets traités montre à quel point cette encyclopédie est riche en connaissance. Que ce soit sur l’art, le cinéma, la science ou même la politique, les articles sont faits par des milliers de collaborateurs. Cette encyclopédie peut-être représentée par un réseau de citations d’articles. Je vais présenter au cours de ce séminaire, des outils d’analyse permettant d’extraire des informations à partir de ce réseau, avec pour but l’étude du rayonnement culturel vu depuis Wikipédia. Je vous présenterai une étude sur les universités, leurs interactions directes mais aussi indirectes, ainsi que leur influence culturelle. Enfin, je décrirai comment, avec l’utilisation de données utilisateurs telles que le flux de clics, il est possible d’extraire des tendances culturelles se rapportant à une période donnée.

Bio


mardi 15 mars 2022 à 13h30

Guilherme MEDEIROS MACHADO (Chercheur postdoctoral – Équipe BIRD – LORIA)

visio (Teams, équipe « Seminaires LIB »)

Systèmes de recommandation : un regard au-delà de la précision, et comment générer des explications à l'aide de graphes

Résumé : Les systèmes de recommandation ont été proposés dans les années 1990 et, depuis cela, la plupart des travaux dans ce domaine se concentrent sur la recherche visant à augmenter la précision des prédictions des préférences des utilisateurs. Cependant, certains problèmes surviennent lorsqu’un système est trop précis dans ses recommandations, notamment la génération de bulles de filtres et le biais de popularité. Un autre problème est lié à la nature de boîte noire des algorithmes, qui fournissent des recommandations très précises mais qui ne sont pas explicables, ce qui suscite la méfiance des utilisateurs. Comment proposer des systèmes plus responsables qui généreront des recommandations plus diverses et plus explicables ? C’est la question à laquelle mon projet de recherche vise à répondre. Plus précisément, j’explorerai l’utilisation de graphes de connaissances et de réseaux neuronaux de graphes pour générer des recommandations explicables.

Mots clés : systèmes de recommandation, IA explicable, IA fiable, réseaux de neurones à graphes.

Short-bio : Guilherme a obtenu son doctorat en informatique en 2018 à l’Université fédérale de Rio Grande do Sul (l’une des cinq meilleures universités du Brésil). Depuis 2019, il travaille comme chercheur postdoctoral au sein de l’équipe BIRD (anciennement KIWI) au LORIA à Nancy. Guilherme a de l’expérience dans les systèmes de recommandation, l’analyse des données, l’analyse de l’apprentissage, et dans la diversité de la recommandation de nouvelles. Son expérience est prouvée par ses publications dans des revues et conférences internationales sur le sujet.

Lien vers la page web : https://sites.google.com/view/guilherme-medeiros-machado/home 


jeudi 10 mars 2022 à 13h30

Annabelle Gilet (ATER à l’UFR ST – uB)

G122

Apport des tenseurs et de leurs décompositions à l'analyse de données massives

Résumé : L’exploitation des données massives, que ce soit pour leur collecte, leur stockage ou leur analyse, nécessite de bâtir des systèmes flexibles capables de gérer l’hétérogénéité des modèles de données, en prenant en compte les caractéristiques des données (volume, vélocité, etc.), et tout en garantissant des propriétés fortes afin d’assurer que le résultat obtenu correspond aux objectifs des traitements définis.
Mes recherches visent à intégrer ces aspects à trois niveaux : au niveau des architectures logicielles, au niveau des modèles de données et au niveau des outils d’analyse. Concernant les deux derniers niveaux, je propose une approche sûre et orientée données s’appuyant sur les tenseurs.
Les tenseurs sont des objets mathématiques multi-dimensionnels permettant de modéliser une grande variété de données. Ils sont également dotés d’opérateurs puissants : les décompositions tensorielles. D’un point de vue analytique, ces dernières permettent d’extraire des relations interprétables entre les éléments des différentes dimensions. Dans cette présentation, je parlerai de deux décompositions : CAMDECOMP/PARAFAC et Tucker. Je montrerai leur utilité dans un contexte d’analyse, sur des jeux de données comportant une vérité de terrain mais aussi sur des données massives issues de Twitter.


jeudi 3 mars 2022 à 13h

Lamine DIOP (ATER at University of Tours)

visio (Teams, équipe « Seminaires LIB »)

Structured Pattern Sampling in Complex data

Résumé: Au cours des dernières années, les premières méthodes d’extraction de motifs ont rencontré d’énormes difficultés à cause du volume exponentiel de données. Ces méthodes sont incompatibles avec la nécessité de prendre en compte les retours des utilisateurs pour un processus interactif. En particulier, les méthodes d’extraction exhaustive de motifs intéressants ont rencontré deux problèmes majeurs : le temps de calcul qui dépend de la quantité de données à traiter et la nécessité de fixer le seuil de fréquence qui juge de la pertinence d’un motif. Ces obstacles sont de plus en plus visibles avec des données de nature complexe telles que des séquences, des données distribuées comme des triplestores du Web et des bases de données transactionnelles pondérées pour l’extraction d’itemsets à forte utilité. Une vue d’ensemble du domaine de la fouille de données montre que peu de méthodes d’extraction de motifs ont été proposées pour les bases de données distribuées. Cependant, de nombreuses applications du monde réel sur ces types de données nécessitent un temps de réponse très court et des motifs ayant une très bonne diversité. Pour surmonter ces obstacles, une nouvelle approche probabiliste, appelée échantillonnage en sortie, a été proposée. L’échantillonnage en sortie est une approche non exhaustive pour la découverte instantanée de motifs intéressants qui assure une bonne interactivité tout en offrant de solides garanties statistiques grâce à sa nature aléatoire. Dans ce séminaire, nous présenterons nos contributions dans ce domaine tout en montrant leur intérêt pour la construction de classifieurs de données séquentielles, la détection d’anomalies dans les triplestores du Web et la découverte d’itemsets à forte utilité moyenne. Nous terminerons par présenter un algorithme générique pour paralléliser efficacement toutes nos méthodes proposées avant de donner quelques perspectives dans l’échantillonnage d’itemsets à forte utilité moyenne dans les flux de données.
 
Biographie: Lamine Diop is currently ATER at University of Tours, France, since 2021. He received a double Master’s degree in computer science from University Gaston Berger of Saint-Louis, Senegal, and University of Tours, France, in 2017 and his Ph.D in Computer Science from University Gaston Berger of Saint-Louis in 2020. His main research interests include pattern mining, semantic web and distributed databases, with a particular interest for local and stream pattern sampling. More recently, he studies how data mining methods can be used in the field of semantic web. For more details, please visit his website at https://sites.google.com/ugb.edu.sn/laminediop .


jeudi 10 février 2022 à 13h30

Esteban Bautista (post-doctoral researcher at LIP6 – Sorbonne Université)

 G112

A frequency-structure decomposition for link streams

Abstract: A link stream is a set of triplets (t, u, v) modeling interactions over time, such as person u calling v at time t, or bank account u transferring to v at time t. Effectively analyzing link streams is thus key for numerous applications. In practice, it is common to study link streams as a collection of time series or as a sequence of graphs, allowing to use time filters and graph filters to process the time and structural dimensions, respectively. However, time and structure are nested in link streams, meaning that time-domain operations can affect structure, and vice-versa. This calls for a frequency-structure representation that allows to characterize processing operations in both frequency and structure. Yet, it is hard to combine existing signal and graph decompositions as they do not interact well.

To address this limitation, this work proposes a novel frequency-structure decomposition for link streams. Our decomposition allows us to analyze time via existing signal decompositions (Fourier, Wavelets, etc) and to analyze structure via a novel decomposition for graphs that is tailor-made to interact well with signal decompositions. This novel graph decomposition operates by partitioning the edge-space of graphs into regions and measuring the activity of regions, resulting in a set of coefficients that have several interesting properties to characterize the structural properties of graphs and that can be used to compare them. We show that the combination of our graph decomposition with signal decompositions leads to a set of coefficients that effectively encode the dynamical and structural properties of link streams in a simple matrix format. Then, we show that the properties of our decomposition make it easy to define time and graph filters in the frequency-structure domain and finish by showing how we can use filters to recover the backbone of a link stream.

Biography: Esteban Bautista is currently a postdoctoral researcher at the Complex Network’s team from Sorbonne Université working on the generalization of graph theory and signal processing to study temporal networks. Previously, he obtained the PhD degree in Computer Science at ENS de Lyon where he extensively worked on graph-based machine learning.

PDF


jeudi 3 février 2022 à 14h

Zakariya GHALMANE, Ph.D in Computer Science –
Laboratoire d’informatique de Grenoble (LIGLAB)

 visio (Teams, équipe « Seminaires LIB »)


jeudi 27 janvier 2022 à 14h

Yérali Gandica, assistante à Cergy (Laboratoire de Physique Théorique et Modélisation : LPTM)

 visio (Teams, équipe « Seminaires LIB »)


jeudi 13 janvier 2022 à 14h

Nicolas Magaud, MCF HDR – ICube Strasbourg (équipe IGG)

visio (Renater)

Un prouveur automatique pour la géométrie projective et son intégration à Coq

Résumé : Afin de pouvoir démontrer formellement la correction d'algorithmes géométriques en Coq, il est nécessaire de disposer d'outils pour automatiser au moins partiellement les démonstrations en géométrie. Nous étudions cette question dans le cadre simple de la géométrie projective en utilisant une approche combinatoire et la notion de rang d'un ensemble de points. L'outil proposé, implanté en C, procède par saturation du contexte et permet de démontrer automatiquement de nombreux théorèmes emblématiques de la géométrie projective. Afin de s'assurer de la correction de ces démonstrations, l'outil produit une trace sous la forme d'un script de preuve, qui est ensuite vérifié par Coq.

Bio : Nicolas Magaud a effectué sa thèse dans le domaine des preuves formelles avec l’assistant de preuves Coq (INRIA Sophia-Antipolis, 2003). Il a ensuite été chercheur post-doctorant à Sydney (2003-2005), où il a travaillé sur la certification de code fonctionnel en théorie des types avec LF. Depuis son recrutement comme maître de conférences à l’Université de Strasbourg en 2005, il s’attache à adapter les outils de preuves formelles comme Coq à la modélisation des résultats géométriques. Son habilitation, soutenue en 2020, synthétise ses contributions, notamment en géométrie algorithmique (preuves formelles d’algorithmes géométriques), en démonstration automatique (preuves automatiques de propriétés en géométrie projective 3D et plus), et en calcul réel exact.


jeudi 6 janvier 2022 à 14h

Sebti Foufou, PR au LIB (équipe MG)

 G122 (ESIREM)

Problématiques de recherche en PLM et liens avec la modélisation géométrique

Résumé : Je commencerai ce séminaire par une introduction brève et générale de la thématique de recherche gestion de données le long du cycle de vie du produit (connue sous l’acronyme PLM pour Product Lifecycle Management), je discuterai les liens historiques entre le PLM et la modélisation géométrique, et donnerai quelques exemples de problèmes de recherche de PLM que nous avons étudiés et les contributions apportées notamment l’ontologie OntoStep pour une représentation sémantique des données de produits dans la norme STEP dans un contexte de Smart manufacturing, ainsi que l’utilisation des outils d’apprentissage automatique pour une classification des tableaux et objets anciens dans un contexte de digitalisation et préservation de l’héritage culturel. Je terminerai ma présentation par une discussion de quelques idées et problèmes de recherche à considérer pour de nouveaux projets autour du PLM.

Biographie :

Sebti Foufou est professeur à l’UFR Sciences et Techniques de l’Université de Bourgogne à Dijon. Il est membre du laboratoire LIB et du département IEM. Ses activités de recherche concernent la modélisation géométrique et la gestion du cycle de vie de produit (PLM). En modélisation géométrique Sebti a travaillé sur les contraintes géométriques et la représentation 3D par surfaces paramétriques, par surfaces algébriques et par maillages. En PLM il a travaillé sur la définition de modèles de données pour capturer et mieux représenter les informations produit dans le domaine de l’industrie manufacturière. Pour développer ses activités et projets de recherche Sebti mène une longue collaboration internationale avec notamment avec le NIST et l’Université du Tennessee aux États-Unis, avec Université du Qatar, et le RMIT de Melbourne, Australie. Sebti a encadré et co-encadré 19 thèses de doctorats et plusieurs stages de Master 2.


jeudi 16 décembre à 13h30

Alexis Baudin doctorant au Lip6 (Paris)

G119 (ESIREM)

Calcul de communautés dans un graphe par percolation de cliques : algorithme quasi-exact, efficace en mémoire

Résumé : La détection automatique de groupes de nœuds pertinents dans de grands graphes du monde réel, c’est-à-dire la détection de communautés, a des applications dans de nombreux domaines et a fait l’objet d’une grande attention au cours des vingt dernières années. L’une des méthodes les plus populaires conçues pour trouver des communautés qui se chevauchent (où un nœud peut appartenir à plusieurs communautés) est la méthode de percolation des cliques (CPM). Cette méthode formalise la notion de communauté comme une union maximale de 𝑘-cliques qui peuvent être atteintes les unes des autres par une série de 𝑘-cliques adjacentes, où deux cliques sont adjacentes si et seulement si elles se chevauchent sur 𝑘-1 nœuds. Malgré de nombreux efforts, CPM n’a pas pu être adapté à de grands graphes pour des valeurs moyennes de 𝑘. Des travaux récents ont montré qu’il est possible de lister efficacement toutes les 𝑘-cliques dans de très grands graphes du monde réel pour des valeurs moyennes de 𝑘. Nous nous appuyons sur ces travaux pour améliorer un algorithme de CPM. Dans les cas où ce premier algorithme fait face à des limitations de mémoire, nous proposons un autre algorithme, CPMZ, qui fournit une solution proche de la solution exacte, en utilisant plus de temps mais moins de mémoire.

Alexis Baudin est doctorant dans l’équipe ComplexNetworks – Sorbonne Université – LIP6 (Paris). Titre de sa thèse : « Problèmes d’énumération dans les graphes massifs et applications ».

PDF


jeudi 9 décembre à 13h30

Julie Digne, CR CNRS au LIRIS (Lyon)

G119 (ESIREM)

New tools for surface analysis

Abstract: In this talk we explore new tools for shape analysis. We consider surfaces and how local analysis of the angular oscillations and polynomial radial behavior around surface points leads to accurate normal estimation and new integral invariants. A direct application of these integral invariants is geometric detail exaggeration. In a second part we tackle the problem of finding relevant principal directions related to high order differential properties, we link those with the eigendecomposition of symmetric tensors and show that they can be efficiently computed using the previous angular/radial polynomial decomposition with interesting emerging applications.

Julie Digne est chargée de recherche CNRS (HDR) au LIRIS (équipe Origami). Ses domaines de recherche tournent autour du traitement et de l’analyse de surfaces, en particulier lorsque celles-ci sont représentées sous forme de nuages de points. Cela comprend : le débruitage, la reconstruction, la segmentation de surfaces et la fusion de scans. Elle s’intéresse particulièrement au développement d’approches d’apprentissage automatique pour les données géométriques. Elle a commencé à travailler sur ces sujets lors de sa thèse (2007-2010) avec Jean-Michel Morel au CMLA (ENS Cachan). Elle a poursuivi ces sujets à l’INRIA Sophia Antipolis (équipe Geometrica) avec Pierre Alliez, David Cohen-Steiner et des collègues de Caltech (Mathieu Desbrun et Fernando de Goes). En octobre 2012, elle a rejoint le laboratoire LIRIS (équipe GeoMod désormais fusionnée avec l’équipe Origami) de l’Université Lyon 1, en tant que chercheur CNRS. Elle a soutenu l’Habilitation à Diriger des Recherches en septembre 2018 à l’Université Lyon 1. Elle fait régulièrement partie de comités de programme des meilleurs conférences d’Informatique Graphique et Géometrie (Siggraph, Siggraph Asia, Eurographics, Symposium on Geometry Processing, Shape Modeling International). En 2021 elle a été Program Chair du Symposium on Geometry Processing.

PDF


jeudi 25 novembre à 14h

Matteo Cervetti, post-doctorant au LIB (équipe CombNet)

G122 (ESIREM)

Permutations avoiding the vincular pattern 1-32-4

Abstract : The study of patterns in permutations is currently one of the most active trends of research in combinatorics. A permutationπ is a pattern of another permutation σ (written in one-line notation) when σ  contains a (non-necessarily consecutive) substring whose items are in the same relative order as the items of π. The notion of pattern in a permutation historically emerged from the problem of sorting permutations with certain devices, however the richness of this notion became especially evident from its plentiful appearances in several very different disciplines, such as mathematics, computer science and biology.  
In this talk we will present an  enumerative result about permutations avoiding a particular vincular pattern. In more detail, we will construct a single label generating tree for these permutations, showing that they grow according to powered Catalan succession rule and thus providing an explanation for a recursive formula which counts them. Finally, we will describe some combinatorial objects counted by the same sequence and provide some interesting conjectures. 
Matteo Cervetti est post-doctorant au LIB, équipe Combinatoire-Réseaux, sous la direction de Vincent Vajnovszki
 
 


jeudi 18 novembre à 14h

François Blateyron, directeur de la recherche chez Digital Surf, Besançon

Amphi STEINBRUNN (ESIREM)

Introduction de DigitalSurf et de son activité, puis présentation sur les états de surface et les applications principales.

  • Présentation de Digital Surf et de son activité
  • Introduction aux états de surface
  • Présentation du logiciel Mountains et de ses particularités
  • Exemples d’analyse de surfaces, notamment pour surfaces complexes
  • Tendances et évolution du domaine et des normes
  • Temps pour échanger et répondre aux questions.

François Blateyron est spécialiste de l’analyse des états de surface permettant l’optimisation des performances fonctionnelles des matériaux et des produits par le biais de l’analyse de la rugosité, des écarts de forme, de l’aspect, de la tribologie, etc.

* Impliqué pendant plus de vingt ans dans des projets internationaux avec des fabricants mondiaux d’instruments de mesure.
* Expert en métrologie, algorithmes mathématiques et normes de métrologie.
* Responsable pendant plus de dix ans de l’équipe de développement du logiciel Mountains


jeudi 21 octobre 2021 à 14h

Ludovic Journaux

G119 (bâtiment ESIREM)

Analyse de textures et réduction de dimensions : application à l’analyse de surfaces foliaires.

Résumé du séminaire : Dans le contexte de l’agriculture de précision visant à réduire et optimiser la pulvérisation de produits phytosanitaires, nos travaux s’intéressent à l’étude et la caractérisation de surfaces foliaires (hydrophiles ou hydrophobes) par analyse de textures. L’objectif de cette recherche est alors de caractériser et discriminer l’état de la surface foliaire à travers l’analyse d’images microscopiques de texture. Pour cela, nombreux sont les paramètres de texture existants. Parmi ces derniers nous avons retenu pour l’expérience l’un de ceux qui caractérise le mieux l’aspect fréquentiel. Malheureusement ce dernier, bien que robuste, représente des caractéristiques de haute dimension qui entraîne un phénomène identifié lors d’une phase de classification sous le nom de « malédiction de la dimension ». Pour résoudre ce problème nous proposons de réduire cette dimensionnalité à travers le prisme de différentes évolutions de méthodes de réduction de dimension allant des approches linéaires vers les approches non linéaires.

Ludovic journaux a obtenu un DEA en analyse et modélisation des systèmes biologiques à l’Université de Lyon1 suivi d’un doctorat en instrumentation et informatique de l’image au le2i en 2006. Après une année de post doctorat en 2007 à l’Université des sciences agronomiques de Gembloux (Belgique), il a été recruté en 2008 à AgroSup Dijon en tant que Maître de Conférences tout en restant affilié au Laboratoire d’informatique de l’Université de Bourgogne dans l’équipe Data Sciences. Ses travaux sont pluridisciplinaires et s’intéressent aux domaines de l’intelligence artificielle, aux méthodes de projections multidimensionnelles non linéaires, à l’analyse de données, au traitement du signal et des images. Il applique ses travaux à l’agronomie et l’agroalimentaire.

PDF


jeudi 14 octobre 2021 à 13h30

Ann Alkazzaz et Ghassan Aladool (enseignants-chercheurs de l’université de Mossoul, Irak)

G122 (bâtiment ESIREM)

"Improving and Adopting 2D QR code for Documenting Cuneiform Tablets" - “Deaf-Blind People Communication System”

Résumés et PDF des présentations.
 
Ghassan Aladool et Ann Alkazzaz sont enseignants-chercheurs à l’université de Mossoul, Irak. Nous les accueillons au sein du LIB du 1er au 25 octobre, dans le
cadre d’une bourse de perfectionnement formation-recherche de l’AUF. Ils travaillent sur la reconnaissance de l’iris et la documentation de tablettes cunéiformes.


mardi 22 juin 2021 à 14h

Maëlle Beuret, doctorante au LIB (équipe MG)

visio

Tour d'horizon des simulations informatiques pour l'aide à la gestion de crise

Maëlle Beuret, actuellement en 1ère année de thèse dans l’équipe Modélisation Géométrique du LIB, présentera un état de l’art sous forme de positionnement par rapport au projet d’extension du modèle d’animation  comportementale pour l’aide à la gestion de crise pour le CESU (Centre d’Enseignements des Soins d’Urgence).


vendredi 18 juin 2021 à 15h15

Alexis Guyot, M2 BDIA – stage au LIB (équipe SdD)

visio

Détection d'antagonisme et de polarisation sur les réseaux sociaux par l'étude des frontières des communautés

Résumé : La théorie des graphes et la science des réseaux ont donné naissance à de nombreux outils pour étudier le comportement des utilisateurs dans les réseaux sociaux. Parmi eux, les algorithmes de détection de communautés permettent de rassembler dans des groupes les utilisateurs qui interagissent plus entre eux qu’avec les autres. Dans le cadre de mes recherches, j’ai décidé de m’intéresser à la façon dont les communautés d’utilisateurs interagissent entre elles sur Twitter, afin de détecter de possibles traces de polarisation. La polarisation est le nom du phénomène qui intervient lorsqu’un groupe d’individus se scinde en deux pôles avec des avis conflictuels par rapport à un sujet donné, et pour la détecter j’ai mis au point puis implémenté une méthode complètement automatique, générique et non-supervisée qui mesure la dynamique des interactions des utilisateurs dits frontières au sein des différentes communautés pour détecter les relations potentiellement antagonistes. Le but de la présentation sera alors de parler un peu plus en détails du concept de polarisation avec un bref état de l’art, d’ensuite intuitivement expliquer ma méthode et les indicateurs qu’elle calcule à l’aide d’un exemple simple, et enfin de discuter de quelques résultats et des interprétations associées obtenus en pratique sur des jeux de données collectés dans le cadre du projet Cocktail.
Alexis Guyot, étudiant en M2 BDIA, a travaillé pendant son projet tuteuré orienté recherche et travaille toujours dans le cadre de son stage sur les communautés d’utilisateurs sur les réseaux sociaux, et plus particulièrement sur Twitter.


mardi 25/05/21 à 15h

Sana Nadouri, ATER à l’ESIREM (uB)

visio

Système réparti d’aide à la prise de décision distribuée et collective

Résumé : Skyline paradigm provides an adequate tool to help users making decisions in the presence of multidimensional data and conflicting criteria. It is based on Pareto dominance relationship which returns the objects that are not dominated by any other object. The traditional skyline definition was recently expanded to group decision making to meet complex real-life needs encountered in many modern domain applications that require to analyze not only individual points but also groups of points. The group skyline aims at retrieving groups that are not dominated by any other group of the same size in the sense of a particular group-dominance relationship. It may often happen that this extended dominance leads to only a small number of non-dominated groups which could be insufficient for the decision maker. During the seminar, we expose our porposition to extend group skyline dominance by making it more demanding so that several groups leave incomparable. The original group skyline will be enlarged by some interesting groups that are not much dominated by any other group. The key element of this relaxation is a particular fuzzy preference relation, named « much preferred ». We also present some algorithms and some experimental results tested on real, synthetic and generated data to insure reliability and the decision quality of the proposition.

Sana Nadouri est ATER, Université de Bourgogne – ESIREM, Dijon, France.


mardi 30/03/21 à 14h

Claire Prudhomme, Research assistant – i3mainz (Allemagne)

visio

Knowledge-driven multi-agent simulation engineering

Claire est une de nos anciennes étudiantes qui a obtenu son Master 2 IIA en 2015 et a enchaîné sur une thèse en Allemagne, à Hochschule Mainz – University of Applied Sciences, sous la direction de Christophe Cruz, Frank Boochs et Ana Roxin, dont le titre est : « Ingénierie de simulation multi-agents conduite par la connaissance pour évaluer l’efficacité des plans de gestion de catastrophes »

 


lundi 15/03/21 à 10h 

Carine Khali, doctorante au LIB, équipe CombNet

visio

Étude de statistiques combinatoires et de leur impact en optimisation évolutionnaire

Résumé : Les travaux de recherche de cette thèse se décomposent en deux parties complémentaires : une étude théorique dans le domaine de la combinatoire des permutations et des mots, et une application dans le domaine de l’optimisation et plus particulièrement pour les problèmes d’optimisation des transports. De nombreux résultats d’énumérations théoriques sont présentés
concernant les statistiques associées à des motifs dans les permutations et d’autres classes d’objets combinatoires. Plus
précisément, en utilisant la théorie des fonctions génératrice, on énumère les mots de catalans évitant deux motifs de longueurs 3
ayant un nombre donné de descentes. De plus, on étudie le tri des permutations en utilisant deux piles en séries avec des motifs
interdits. On prouve que ces permutations sont comptées par les nombres de catalan et Schröder.
L’étude des permutations a de nombreuses applications. En nous concentrant sur l’optimisation des transports, où le trajet d’un véhicule est représenté par une permutation, nous étudions la transmission des caractéristiques génétiques à travers les générations dans des processus d’optimisation évolutive. Nous nous concentrons donc sur l’impact du codage et de la représentation des solutions sur les performances des algorithmes d’optimisation, en particulier la représentation par code de Lehmer et table d’inversion.


vendredi 12/03/21 à 14h

Amir-Abdelkader Aouiz, ATER à l’UFR ST (uB)

visio

La qualité de service dans les protocoles multi-chemins

Résumé : Les réseaux MANET sont des réseaux mobiles capables de fonctionner sans fil ni infrastructure préexistante. Les réseaux MANET sont caractérisés par leurs environnements dynamiques, cette particularité rend le routage problématique en cas d’instabilité des éléments qui composent les communications non directes. Pour surmonter ces difficultés, de nouveaux types de protocoles de routage sont apparus, dont les protocoles de routage multi chemins.
Le routage multi chemin semble être une solution efficace dans les réseaux sans fil en permettant de se prémunir contre le problème de rupture de liens et de distribuer le trafic sur plusieurs chemins, ceci permet d’améliorer les performances des communications. L’objectif principal de notre travail est d’étudier les techniques de routage multi-chemins dans un contexte sans fil en vue d’obtenir de meilleures performances.
Nous avons proposé deux schémas pour l’optimisation d’énergie et la réduction de congestion du réseau. Nous avons dans un premier temps commencé par l’état de l’art qui nous a permis de bien comprendre la problématique et d’avoir une idée bien détaillée sur les solutions proposées par différents chercheurs. Cependant, la revue de cet état de l’art nous a permis de conclure qu’il reste encore des problématiques ouvertes. Nous avons montré dans la première partie de notre étude que la durée de vie des réseaux MANET est liée à la durée de vie nodale. Une solution pour la maximisation de durée de vie des nœuds mobiles en utilisant les valeurs historiques de l’énergie nodale est présentée. Ces valeurs sont utilisées pour calculer le taux de variation de l’énergie et par la suite pour révéler les nœuds avec une consommation excessive d’énergie. Les nœuds avec une forte consommation d’énergie sont exclus de découverts des liens de communication pour éviter le risque d’épuisement rapide, cela peut aider par la suite à maintenir de la connectivité entre les nœuds communicants et maximiser la durée de vie du réseau.
Dans la deuxième partie de notre étude, un nouveau paramètre pour repérer les nœuds congestionnés au centre du réseau en fonction du taux d’activité du canal est présenté. Le choix de paramètre est motivé par le fait que le taux d’activité du canal peut être la métrique appropriée pour détecter les zones encombrées centrales, où le délai de libération du support de communication et le temps de transmission des paquets à envoyer sont élevés. Ceci motive l’approche proposée par repousser le trafic du centre du réseau en se basant sur le nouveau paramètre proposé, entraînant une diminution de la fréquence de collision des paquets et une réduction du délai de bout en bout.
Nous avons validé les deux contributions en utilisant l’outil de simulation NS-2 sous différents scénarios de trafic et de mobilité, en variant le nombre des nœuds, le nombre de communication etc. Nous avons montré à travers les simulations l’intérêt de nos contributions dans l’amélioration des performances du réseau en termes de maximisation de durée de vie des nœuds, réduction des délais de bout en bout, réduction de surcharge du réseau, et l’amélioration de taux de paquets délivré avec succès.

Thèse réalisée en cotutelle entre l’université de Mulhouse et l’université de SBA en Algérie, sous la direction de Pr Pascal LORENZ et Pr BOUKLI HACENE.


lundi 01/03/21 à 15h45

Mohamed Hamidi, ATER à l’UFR ST (uB)

visio

Tatouage numérique d'images 2D et de maillages 3D : Application à la protection des droits d'auteur

Résumé : De nos jours, les contenus multimédia, notamment les images, les sons, les vidéos et les objets 3D connaissent une utilisation accrue suite à la croissance considérable de la puissance des
ordinateurs et à l’augmentation de la vitesse de transmission des réseaux.
En conséquence, ces contenus peuvent être copiés, modifiés ou redistribués facilement. Pour remédier à ce problème, il est nécessaire de mettre en œuvre une technique de sécurité permettant la sécurisation de ces contenus. Pour ce faire, le tatouage numérique est considéré
comme une solution efficace. Il consiste à insérer une information, appelée tatouage ou marque, dans le contenu multimédia afin de le protéger contre les utilisateurs malintentionnés. Dans ce contexte, nous proposons dans cette thèse trois contributions dans le
domaine de tatouage numérique d’images 2D et de maillages 3D pour la protection des droits d’auteur dans les chapitres 2, 3 et 4, respectivement.

Mohamed Hamidi est docteur en sciences de l’ingénieur, spécialité : informatique et télécommunications de l’université Mohammed V de Rabat, Maroc. 


vendredi 12/02/21 à 9h

Kamal E. Melkemi, Professeur à l’Université de Batna 2 en Algérie

visio

Apprentissage profond par les réseaux de neurones convolutionnels

Resumé : Cette présentation est consacrée à l’apprentissage profond et aux réseaux de neurones convolutionnels (CNNs). Particulièrement, l’accent sera mis sur l’apprentissage profond par les CNNs. 
L’exposé va traiter les points suivants :
– Un historique de l’intelligence artificielle, l’apprentissage automatique et des réseaux de neurones classiques en arrivant aux CNNs.
– Le principe et le fonctionnement des CNNs.
– Une comparaison entre ces réseaux de neurones artificiels classiques et les CNNs.       
– D’où vient l’idée des CNNs ?
– Essayer de comprendre le succès extraordinaire des réseaux CNNs.
Kamal E. Melkemi est chef du département informatique de l’Université de Batna 2 en Algérie. Il a obtenu son doctorat (Ph.D.) en informatique de l’Université de Constantine en 2006. Son mémoire de recherche porte sur les algorithmes évolutifs basés sur la MRF (Markov Random Fields) pour la segmentation d’images. Ses intérêts de recherche actuels incluent la reconnaissance de formes, l’intelligence artificielle, l’apprentissage automatique et profond, la robotique. Kamal collabore avec l’équipe Modélisation Géométrique du LIB depuis de nombreuses années …


vendredi 8/01/21 à 9h

Dmitry Sokolov,  Maître de conférences HDR – responsable de l’équipe PIXEL / INRIA Nancy

visio

Towards full automatic, full hexahedral meshing

Resumé : L’état de l’art du maillage tétraédrique a maintenant atteint une maturité qui rend raisonnablement facile le maillage de formes arbitraires en utilisant les logiciels existants. Pour le maillage hexaédrique, la situation est différente, et malgré des progrès importants, l’état de l’art est encore loin d’une solution générale et robuste entièrement automatique.Le nombre de cas d’échec reste important, même pour des objets simples qui peuvent présenter des les aspects combinatoires du problème. Malgré une quantité importante des efforts de recherche pour résoudre ces problèmes, la conception d’un algorithme de remaillage hexaédrique complet nécessite de résoudre de nombreux problèmes ouverts. Pour cette raison, le maillage à dominance hexaédrique peut être une option qui mérite d’être étudiée : en relâchant le problème, il génère encore un résultat valide dans les cas où les méthodes de l’hexaèdre plein échouent généralement, au détriment l’introduction d’éléments non hexaédriques tels que les tétraèdres, les pyramides et des prismes.

Dmitry Sokolov est Maître de conférences HDR et responsable de l’équipe INRIA PIXEL au laboratoire LORIA de Nancy (Université de Lorraine, Inria Nancy – Grand Est).


jeudi 19/11/20 à 10h15

Bruno Lévy (Nancy INRIA – Laboratoire LORIA)

visio

Toujours tout droit ! Des liens étroits entre physique, mathématiques et informatique permettent de résoudre des problèmes de calcul en cosmologie

Resumé : Sa présentation intitulée «  Toujours tout droit !  » se propose de montrer comment des liens étroits entre physique, mathématiques et informatique permettent de résoudre des problèmes de calcul en cosmologie. Elle se déroulera à distance depuis Nancy
le jeudi 19/11 à 10h15. Un format de 45 min suivi des
questions sera proposé. L’orateur a les qualités nécessaires pour vulgariser et pour susciter la curiosité, le questionnement, … De plus, il est reconnu internationalement au sein de la communauté informatique graphique et c’est donc une belle opportunité.

Bruno Lévy est Directeur de Recherche Inria. Il dirige actuellement le Centre Inria Nancy Grand-Est. Ses travaux de recherche, sont à la frontière entre informatique et mathématiques appliquées, et ont pour objectif de construire des représentations géométriques optimales pour la simulation numérique.


23/10/20 à 14h

Joël Savelli, MCF au LIB, équipe MG

ESIREM

Simulation de situations d'urgence pour la formation des cadres de santé

Simulation de situations d’urgence pour la formation des cadres de santé – Un serious game pour la formation à la gestion de crises sanitaires


jeudi 8/10/20 à 15h45

Céline Roudet, MCF au LIB, équipe MG

ESIREM

présentation du projet ANR JCJC intitulé « FRACLETTES » (Modèles FRACtals et analyse en ondeLETTES pour la caractérisation des états de surfaces)

Résumé : Nous présentons un projet de recherche dans lequel, nous proposons d’aborder la problématique de la représentation numérique, de l’analyse et de la caractérisation de surfaces rugueuses. La rugosité est un concept complexe, par nature multi-échelle et reposant sur l’étude du comportement local d’une surface dans un voisinage donné. Son évaluation sur les surfaces est essentielle pour de nombreux problèmes expérimentaux. Cela explique les nombreuses études réalisées dans les domaines applicatifs liés à la physique et la mécanique, là où le contrôle et la maîtrise de l’état des surfaces constituent un besoin majeur pour les industriels. Un grand nombre de paramètres conventionnels normalisés sont actuellement à disposition pour tenter d’apprécier cette notion dans les différents domaines applicatifs qui en font usage. Mais il est souvent difficile, pour un domaine applicatif ou un besoin donné, de savoir précisément quel(s) paramètre(s) de rugosité relie(nt) la topographie d’une surface aux phénomènes physiques qu’elle subit ou qu’on lui applique. Cela s’explique car, à une valeur de paramètre donnée peuvent correspondre des rugosités associées à des géométries et des propriétés physiques très variées. Ceci est principalement dû au fait que les mesures de rugosité classiques reposent, pour la plupart, sur des quantifications statistiques globales. Pour pallier cet inconvénient majeur, nous pensons qu’il est essentiel d’avoir une caractérisation géométrique de la rugosité. Il sera alors plus facile d’établir des relations avec les propriétés physiques des surfaces.

kc_data:
a:8:{i:0;s:0:"";s:4:"mode";s:2:"kc";s:3:"css";s:0:"";s:9:"max_width";s:0:"";s:7:"classes";s:0:"";s:9:"thumbnail";s:0:"";s:9:"collapsed";s:0:"";s:9:"optimized";s:0:"";}
kc_raw_content:

Log In

Create an account