Valérie Girardin

Séminaire et groupe de travail



 

  Co-organisatrice, avec Guy Laville, du séminaire

    Analyse et physique mathématique

La page du séminaire est  ici. 

 

  Co-organisatrice, avec Brigitte Vallée, du groupe de travail apériodique 

      Entropie, mots, stat 



Le groupe de travail réunit depuis 2007 des collègues de mathématiques, d'informatique et de théorie du signal de l'UNICAEN, de l'ENSICAEN, de l'ESIEE Marne-la-Vallée, du GIPSA-Lab Grenoble, et des Universités de Paris Ouest, Reims-Champagne-Ardennes et Rouen. Les journées de printemps, d'automne ou d'hiver accueillent également des exposés invités.

Journées d'hiver du GT


Les exposés auront lieu à l'université de Caen, bâtiment S3 salle 247.


Mardi 18 décembre 2018


14h-15h  Christine Kéribin, LMO, Université Paris-Sud Orsay


Etude de critères de sélection pour définir la complexité d’un modèle de co-clustering

La classification croisée (co-clustering) est une méthode d’apprentissage non supervisée définissant une partition simultanée des lignes et des colonnes d’une matrice sous forme d’un quadrillage de blocs. Parmi les approches probabilistes pour traiter le co-clustering, le modèle des blocs latents (LBM) est un modèle de mélange complexe, la structure des blocs sous-jacente impliquant une dépendance forte des observations. Des travaux récents ont montré la consistance et la normalité asymptotique des estimateurs variationnel et du maximum de vraisemblance du LBM lorsque le nombre de blocs est connu.
Nous étudions deux critères pour sélectionner le nombre de blocs d’un LBM quand celui-ci est inconnu. Le critère BIC (Bayesian Information Criteria, Schwarz 1978) est traditionnellement utilisé pour sélectionner l’ordre d’un modèle de mélange. L’approche ICL (Integraded Completed Likelihood, Biernacki 2000) met l’accent sur la robustesse de la classification. La différence entre ces deux critères peut être assimilée à un terme d’entropie. Dans le LBM, le critère ICL a une expression exacte à distance finie et est facilement calculable, alors que BIC souffre d’une double approximation. Nous étudions la consistance de ces critères, et conjecturons en particulier celle du critère ICL pour le LBM, fait remarquable puisque ce n’est pas le cas pour les modèles de mélange simple.

15h-16h Steeve Zozor CNRS, GIPSA-Lab, DIS Grenoble

Sur le codage quantique sans pertes avec pénalisation exponentielle

Nous étudions le problème du codage source quantique sans perte en nous appuyons pour cela sur un schéma d'encodage satisfaisant à une version quantique de l’inégalité de Kraft-McMillan. Dans le cadre standard l'objectif est de minimiser la moyenne (de type arithmétique) des longueurs des mots code quantiques, conduisant, contrairement au cas classique, à l'encodage non pas des symboles quantiques formant la source, mais les états propres de l'opérateur densité la caractérisant (les valeurs propres formant les probabilités associées). Nous nous intéressons ici à la la minimisation d'une moyenne de type exponentielle afin de pénaliser les mots code de “grande longueur”. Nous montrons que, à l'image du cas classique, la longueur moyenne exponentielle du code optimum est liée à la version quantique de l’entropie de Rényi de la source, le cas von Neumann (équivalent quantique de Shannon) étant le cas particulier correspondant à la pénalisation linéaire. La longueur moyenne usuelle est, elle, reliée à la fois à l'entropie de Rényi et de von Neumann de la source. 

16h-16h30 Pause

16h30-17h30 Gaëtan Richard, GREYC, Université de Caen Normandie


Complexité de Kolmogorov : une introduction dans le cadre des systèmes dynamiques

Dans cet exposé, nous présenterons les notions de complexité de Kolmogorov et leur liens avec l’aléatoire. Nous porterons attention aux questions soulevées (et aux réponses apportés) par les définitions et tout particulièrement vis-à-vis de l’entropie. Nous regarderons également plusieurs utilisations de cette complexité dans le cadre des systèmes dynamiques.

Mercredi 19 décembre

9h15 Charles Tillier Télécom ParisTech, Université Paris Nanterre,


Méthodes statistiques pour le comportement extrême de chaînes de Markov.


Dans cet exposé, je vais présenter des méthodes statistiques qui sont particulièrement adaptées à l'étude du comportement extrémal de chaînes de Markov. En effet, les chaînes de Markov de type Harris peuvent être décomposées en cycles de régénération indépendants, ces cycles étant définis par des instants de régénération où la chaîne oublie son passé. De fait, on peut découper le chemin des observations en blocs de régénération et examiner les extrema du processus comme si ces blocs étaient (approximativement) indépendants et identiquement distribués. Je me concentrerai sur l'estimation de l'indice extrémal et l'indice de queue du processus et j'illustrerai ces méthodes sur deux exemples provenant de la finance et de l'assurance. Enfin, pour mettre en avant le potentiel de ces techniques, je présenterai une application sur données réelles, le CAC 40.

C'est un travail commun avec Patrice Bertail (Université Paris Nanterre) et Stéphan Clémencon (Télécom ParisTech).


10h15 Matthieu Dien, GREYC Université de Caen Normandie


Génération aléatoire de structures discrètes par la méthode de Boltzmann


Nous commencerons par définir des outils de bases de la combinatoire énumérative, les séries génératrices. Puis nous introduirons la méthode symbolique permettant de passer d'une description (une spécification) d'une famille de structures discrètes à une équation fonctionnelle vérifiée par sa série génératrice. Nous utiliserons alors ce même principe pour décrire une méthode systématique permettant de construire des générateurs aléatoires pour toutes structures spécifiables (et bien fondées).
Si le temps nous le permet, nous présenterons une extension de ces résultats aux structures croissantes.


11h15-11h30 Pause


11h30-12h30 Ali Mohammad-Djafari CNRS, L2S, CentraleSupélec, UPSa, ISCT

Traitement des signaux et des images comme problème inverse : de la régularisation à l'inférence bayésienne

En traitement du signal classique, on regarde le signal ou l'image et on l'analyse: débruitage, augmentation de la résolution, segmentation, détection de contours, etc., souvent sans un critère précis. Une approche plus récente consiste à modéliser le signal observé (image floue et bruitée) comme la sortie d'un système dont l'entrée est le signal désiré (image nette et sans bruit). La fonction de transfert de ce système reliant la sortie à l'entrée est le modèle direct et l'estimation de l'entrée à partir des données observées est un problème inverse. 
Deux classes de méthodes existent: régularisation et l'inférence bayésienne. Dans l'approche de régularisation, on définit la solution comme l'optimiseur d'un critère en deux parties: un terme d'adéquation des données au modèle et un terme de régularisation. En fonction des choix pour ces deux termes, il y a un grand nombre d'algorithmes d'optimisation. Bien que ces méthodes aient eu du succès, il reste trois limitations: choix des critères, poids relatif des deux termes (paramètre de régularisation) et quantification de l'incertitude de la solution obtenue. 

L'approche inférence bayésienne apporte des solutions pour ces limitations en modélisant les erreurs (le terme de vraisemblance), en proposant des modèles probabilistes appropriés (a priori). Et finalement, en fournissant la loi a posteriori de tous les inconnues, à partir de laquelle on peut, soit opter pour un estimateur ponctuel (mode ou espérance) ou explorer l'ensemble des solutions les plus probables. Cet exposé se focalise plus sur l'inférence bayésienne. 




haut de page