Modèles multi-échelles et réseaux de neurones convolutifs

Le cours se concentrera sur l’analyse des propriétés d’approximation des réseaux de neurones convolutifs, en lien avec l’information a priori qui est disponible. Les séminaires illustreront différentes branches d’applications.

Pour vaincre la malédiction de la grande dimension, les réseaux doivent exploiter des formes de régularité très fortes. Cette régularité met enjeux trois propriétés : la séparabilité multiéchelle, l’existence d’un groupe de symétries et la construction de représentations parcimonieuses. Le cours étudie ces trois formes de régularité, en lien avec l’architecture des réseaux, et l’information a priori que l’on a sur le problème. Cela met en jeux différentes branches des mathématiques, et notamment l’analyse harmonique et la théorie des groupes. Le cours et les séminaires feront aussi  le lien avec les modèles neurophysiologiques de la perception auditive et visuelle.

Le cours aborde les sujets suivants : 

  • Architectures et applications des réseaux convolutifs
  • Généralisation en lien avec l’estimation, l’optimisation et l’approximation
  • Réduction de dimension par séparations multiéchelles, symétries et parcimonie
  • Invariants par déformations
  • Analyse de Fourier locale en temps-fréquence
  • Séparation d’échelles par ondelettes
  • Bancs de filtres multiéchelles et réseaux convolutifs
  • Réseau de scattering en ondelettes  et invariants
  • Applications à la classification d’images, de sons et  à la régression en physique