Salle 5, Site Marcelin Berthelot
En libre accès, dans la limite des places disponibles
-

Résumé

Pour éviter la malédiction de la grande dimension, on peut essayer de réduire la dimension des données, si elles appartiennent à un sous-ensemble de dimension plus petite que la dimension d de l’espace d’origine. La réduction de la dimension des données est au cœur du traitement du signal avec de nombreuses applications pour la compression, le débruitage et les problèmes inverses. Il s’agit d’approximer le signal avec un nombre minimum de variables.

On étudie l’approximation de signaux x décomposés dans une base orthonormale. Une approximation linéaire approxime x à partir des M premiers vecteurs de la base. L’erreur d’approximation est reliée à la vitesse de décroissance des coefficients de x dans la base. Une approximation non linéaire réduit l’erreur d’approximation en sélectionnant les M coefficients de x ayant les plus grandes amplitudes. La sélection de ces coefficients est une fonction non linéaire de x. L’erreur d’approximation dépend alors de la décroissance de l’amplitude des coefficients de ordonnés.

Le cours introduit une application au débruitage, où le signal est contaminé par un bruit additif supposé être gaussien et blanc. Un algorithme linéaire de réduction de bruit effectue une projection du signal bruité dans un espace de dimension M, qui est choisi afin d’approximer le signal au mieux, tout en éliminant une large proportion de bruit. L’optimisation de la dimension M résulte d’une optimisation des erreurs de biais et de variance. Le biais est l’erreur d’approximation de x tandis que la variance mesure l’énergie du bruit qui n’est pas éliminée par la projection. Une approche non linéaire est aussi étudiée, par seuillage des coefficients du signal bruité dans une base orthonormale.