Amphithéâtre Marguerite de Navarre, Site Marcelin Berthelot
En libre accès, dans la limite des places disponibles
-

Résumé

La géométrie de l’information étudie les structures géométriques, les distances, et les notions d'invariance d'une famille de distributions de probabilités appelée le modèle statistique. Un modèle statistique paramétrique peut se traiter comme une variété Riemannienne en l'équipant du tenseur métrique de Fisher qui induit la distance de Rao.
Cette structure Riemannienne sur la variété de Fisher-Rao fut par la suite géneralisée par une structure duale reposant sur des paires de connexions affines couplées à la métrique de Fisher. Cette structure duale permet d'expliquer l'interaction étroite entre les estimateurs pour l'inférence en statistique (maximum de vraisemblance) et la génération de modèles statistiques paramétriques (familles exponentielles obtenues par le principe de l'entropie maximale), et met en jeu un théorème de Pythagore géneralisé. On illustrera des applications de la géométrie de l’information en statistique et en apprentissage de réseaux de neurones.

Références

Intervenant(s)

Frank Nielsen

Sony Computer Science Laboratories