Soutenance de thèse

Je soutiendrai publiquement mes travaux de thèse intitulés

Some advances in patch-based image denoising

dirigés par Monsieur Andrés ALMANSA et Madame Julie DELON

le vendredi 12 octobre 2018 à 13h00
Salle du conseil,
Laboratoire MAP5 Université Paris Descartes,
45 rue des Saints Pères, 75006 Paris
Comment s’y rendre ?

 

Composition du jury

M. Andrés ALMANSA Université Paris Descartes Directeur de thèse
M. Nicolas PAPADAKIS Université de Bordeaux Rapporteur
M. Mario FIGUEIREDO Instituto Superior Técnico Rapporteur
Mme Julie DELON Université Paris Descartes Directrice de thèse
Mme Anne PHILIPPE Université de Nantes Examinatrice
M. Charles  BOUVEYRON Université Côte d’Azur Examinateur
M. Erwan LE PENNEC École Polytechnique Examinateur
M. Arthur LECLAIRE Université de Bordeaux Examinateur

 

Résumé :
Cette thèse s’inscrit dans le contexte des méthodes non locales pour le traitement d’images et a pour application principale le débruitage, bien que les méthodes étudiées soient suffisamment génériques pour être applicables à d’autres problèmes inverses en imagerie. Les images naturelles sont constituées de structures redondantes, et cette redondance peut être exploitée à des fins de restauration. Une manière classique d’exploiter cette auto-similarité est de découper l’image en patchs. Ces derniers peuvent ensuite être regroupés, comparés et filtrés ensemble. Dans le premier chapitre, le principe du « global denoising » est reformulé avec le formalisme classique de l’estimation diagonale et son comportement asymptotique est étudié dans le cas oracle. Des conditions précises à la fois sur l’image et sur le filtre global sont introduites pour assurer et quantifier la convergence. Le deuxième chapitre est consacré à l’étude d’a priori gaussiens ou de type mélange de gaussiennes pour le débruitage d’images par patches. Ces a priori sont largement utilisés pour la restauration d’image. Nous proposons ici quelques indices pour répondre aux questions suivantes : Pourquoi ces a priori sont-ils si largement utilisés ? Quelles informations encodent-ils ? Le troisième chapitre propose un modèle probabiliste de mélange pour les patchs bruités, adapté à la grande dimension. Il en résulte un algorithme de débruitage qui atteint les performances de l’état-de-l’art. Le dernier chapitre explore des pistes d’agrégation différentes et propose une écriture de l’étape d’agrégation sous la forme d’un problème de moindre carrés.

 

Abstract :

This thesis studies non-local methods for image processing, and their application to various tasks such as denoising. Natural images contain redundant structures, and this property can be used for restoration purposes. A common way to consider this self-similarity is to separate the image into patches. These patches can then be grouped, compared and filtered together. In the first chapter, global denoising is reframed in the classical formalism of diagonal estimation and its asymptotic behaviour is studied in the oracle case. Precise conditions on both the image and the global filter are introduced to ensure and quantify convergence. The second chapter is dedicated to the study of Gaussian priors for patch-based image denoising. Such priors are widely used for image restoration. We propose some ideas to answer the following questions: Why are Gaussian priors so widely used? What information do they encode about the image? The third chapter proposes a probabilistic high-dimensional mixture model on the noisy patches. This model adopts a sparse modeling which assumes that the data lie on group-specific subspaces of low dimensionalities. This yields a denoising algorithm that demonstrates state-of-the-art performance.  The last chapter explores different way of aggregating the patches together. A framework that expresses the patch aggregation in the form of a least squares problem is proposed.

Séminaire doctorant LAMFA

Je présente le modèle HDMI au séminaire doctorant du LAMFA à Amiens mardi 24 octobre.

Abstract: In this talk, we first present a statistical framework for patch-based image denoising. This framework requires the inference of statistical models in high dimensional spaces which leads to several challenges due to the curse of dimensionality. To tackle this, we propose a model with intrinsic dimensionality reduction which yields state-of-the-art results in image denoising.