Amphithéâtre Marguerite de Navarre, Site Marcelin Berthelot
En libre accès, dans la limite des places disponibles
-

Il nous reste à aborder l’une des dernières notions qui appartiennent à la sphère des modèles bayésiens : l’idée de « codage prédictif » (predictive coding) (Mumford, 1992 ; Rao & Ballard, 1999). En effet, l’hypothèse du « cerveau bayésien » postule que notre cerveau infère, à partir des entrées sensorielles, un modèle interne du monde extérieur. À son tour, ce modèle interne peut être utilisé pour créer des anticipations sur les entrées sensorielles. L’hypothèse du codage prédictif suppose que le cerveau génère en permanence de telles anticipations, et génère un signal de surprise ou d’erreur lorsque ces prédictions sont violées par des entrées sensorielles inattendues.

L’idée que le cerveau ne fonctionne pas comme un dispositif passif d’entrée-sortie, mais est un système actif capable de générer des prédictions et d’en vérifier la validité, a une longue histoire en éthologie, psychologie, et neurosciences. Elle a été proposée sous des formes les plus diverses : concepts de copie efférente (von Helmholtz, von Holst), de critique interne (Sutton & Barto) ou de prédiction de la récompense (Schultz). Les avantages en sont nombreux. Prédire, c’est gagner du temps en disposant d’informations à l’avance, parfois avant même qu’elles n’atteignent les récepteurs sensoriels. Utiliser le passé pour prédire le présent peut également aider à interpréter des entrées sensorielles bruitées, voire à remplacer totalement un stimulus masqué, manqué ou absent (notion de filtre optimal de Kalman). La prédiction conduit également à simplifier l’architecture et le traitement des données, en comprimant l’information : comme les systèmes de compression de son ou d’image (JPEG, MPEG), notre cerveau n’a peut-être pas besoin de se représenter ou de transmettre ce qu’il sait déjà prédire, seule compte pour lui l’erreur de prédiction. Enfin, les algorithmes prédictifs fournissent une implémentation efficace de l’inférence bayésienne, dans la mesure où la maximisation de la vraisemblance d’un modèle des entrées sensorielles est équivalente à la minimisation de l’erreur de prédiction sur ces entrées.