Salle 5, Site Marcelin Berthelot
En libre accès, dans la limite des places disponibles
-

Résumé

Les images sont des matrices de pixels, dont les valeurs sont proportionnelles à un compte de photons. Ce compte est un processus stochastique dû à la nature quantique de la lumière. Donc toutes les images sont bruitées. Des algorithmes numériques ont été proposés pour améliorer le rapport du signal à bruit. Ces algorithmes de débruitage nécessitent d’établir un modèle du bruit et des images. Il est relativement facile d’établir un modèle du bruit. Obtenir un bon modèle statistique de l’image est beaucoup plus difficile. Les images sont un reflet du monde et ont donc le même niveau de complexité.

Le séminaire montre que l’on est probablement proche de comprendre les statistiques des images à l’échelle des patches de pixels. Des algorithmes récents, basés sur des modèles non paramétriques de patches de 8 × 8 pixels, obtiennent de très bons résultats. Des arguments mathématiques et expérimentaux indiquent que l’on est probablement proche des meilleurs résultats atteignables. Cette hypothèse est validée par la convergence des résultats obtenus par toutes les techniques récentes. Les trois approches principales sont présentées : l’approche bayésienne, le seuillage d’opérateurs linéaires et les modèles d’autosimilarités. La plupart des algorithmes de débruitage peuvent être testés sur n’importe quelle image sur le site Image Processing On Line.

Intervenant(s)

Jean-Michel Morel