L'implémentation neuronale des mécanismes Bayésiens

Toutes ces données comportementales et électro-physiologiques suggèrent que le cerveau des primates, et sans doute de nombreuses autres espèces, abrite des mécanismes qui approximent la statistique bayésienne. Au minimum, ces mécanismes doivent représenter plusieurs distributions de probabilité ; représenter et stocker leurs a priori ; combiner plusieurs distributions selon la règle du produit (ou par addition de leur logarithme) ; et enfin, en identifier le maximum a posteriori. Quels circuits neuronaux remplissent ces fonctions ?

Selon Alex Pouget et ses collaborateurs, le calcul sur des distributions fait partie du répertoire naturel de toute population de neurones dont les taux de décharge sont aléatoires selon une certaine loi de probabilité (Beck et al., 2008; Ma, Beck, Latham & Pouget, 2006). En effet, dans la plupart des neurones, la variabilité des décharges neuronales suit une loi « de type Poisson », appartenant à une famille exponentielle de distributions, c’est-à-dire que la probabilité d’observer un certain nombre de potentiels d’actions dans un intervalle de temps donné suit une courbe dont la variance est proportionnelle à la moyenne. Chaque neurone possède une courbe d’accord (tuning curve) qui le rend apte à décharger en réponse à certains stimuli (par exemple, en fonction de la direction d’un mouvement sur la rétine). Chaque stimulus extérieur (par exemple la vitesse d’un ensemble de points en mouvements) est donc représenté par un vecteur de décharges neuronales à travers une population de neurones. Ma et coll. (2006) montrent alors que la règle de Bayes permet de considérer ces décharges comme la représentation d’une distribution de probabilité sur l’espace des stimuli. L’intensité des décharges correspond directement à la largeur de la distribution de probabilité sur les stimuli.

Lorsque la variabilité des décharges neuronales appartient à la famille exponentielle, la somme arithmétique des décharges de deux populations de neurones réalise automatiquement le calcul du produit des distributions qu’elles représentent. Ce type de réseau offre également une solution simple au problème de marginalisation, qui consiste à calculer les probabilités en s’abstrayant de variables de non-intérêt (par exemple, inférer la vitesse d’un stimulus en s’abstrayant du contraste de l’image). Enfin, l’addition de connections latérales permet d’identifier rapidement la valeur approximative du maximum a posteriori (réseau dit « winner take all »). Tous les ingrédients d’une machine bayésienne neuronale sont donc réunis.

Beck et ses collaborateurs (2008) montrent que ces principes très généraux suffisent à capturer l’ensemble des données du groupe de Mike Shadlen sur la prise de décision optimale par accumulation d’évidence. Le réseau proposé calcule exactement, et à chaque instant, la distribution de probabilité a posteriori de la vitesse du stimulus, même si le contraste varie, sans avoir besoin de connaître ou d’estimer ce contraste, et sans savoir combien de temps s’est écoulé depuis le début de l’essai. Cette implémentation des mécanismes d’inférence bayésienne est donc très séduisante, même si elle n’est peut-être pas le seul modèle compatible avec les données observées.