Le schème probabiliste bayésien comme « théorie générale du cerveau humain »
En janvier 2012, Stanislas Dehaene interrompt en quelques sortes son séminaire au Collège de France pour parler d’un cadre conceptuel et non plus seulement de résultats de travaux et d’expérimentations. Il évoque la révolution du cerveau bayésien comme « théorie générale du cerveau humain ». Mais plutôt que de préciser le cadre et les enjeux de son propos je vous propose d’écouter et de regarder les 5 premières minutes d’introduction de son séminaire en Janvier 2012 :
L’inférence statistique bayésienne fait ainsi partie des opérations élémentaires, automatiques et inconscientes de notre cerveau. Elle s’applique à toutes sortes de domaines de la cognition: perception, action, apprentissage du langage, reconnaissance des mots, inférences sur l’esprit des autres,etc.
Pour ma part, je comprends la référence aux probabilités bayésiennes dans le champ des neurosciences, comme étant une formulation mathématique d’un processus générique de sélection. Cette formulation mathématique du fonctionnement neuronal permet, dans le champ de l’apprentissage, de dépasser l’opposition entre l’inné et l’acquis, c’est à dire entre les points de vue de Chomsky et Piaget. Il s’agit de proposer une nouvelle théorie de la sélection.
Ce mécanisme de sélection, que formalise l’inférence statistique bayesienne, serait l’automatisme même à l’origine de nos sélections, son activité serait constitutive de l' »inconscient cognitif« , qui n’a rien à voir avec l’inconscient freudien et ses questions de refoulement, de pulsion et de désir.
Mon hypothèse, en faisant la généalogie du schème probabiliste, c’est que la science du probable se développe pour répondre aux enjeux posés par le développement exponentiel des technologies et leur part croissance dans le fonctionnement des mécanismes de sélection. En ce sens, je ne fais là que donner du poids à la distinction que le séminaire de pharmakon.fr (2013) a fait entre sélection naturelle et sélection artificielle, c’est à dire à la thèse post-darwinienne de Bernard Stiegler.
La question des catégories est aujourd’hui une question qui s’instruit à partir des théories de la sélection, avec un enjeu nouveau qui est celui de l’automatisation et de l’algorithmisation des processus de décision dans le numérique.
Mais il ne faut jamais être dupe des organes techniques que nous utilisons pour instruire la question. Ainsi on pourra s’étonner que les travaux de Dehaene et des neuroscientifiques s’appuient sur des technologies d’imagerie cérébrale entièrement produites par des algorithmes bayesiens sans être jamais vraiment interrogés ; c’est un peu comme si quelqu’un chaussait des lunettes aux verres roses pour ensuite déclarer : « mais le réel est rose ! ». De la même manière il eut été surprenant que Dehaene n’eut pas vu le cerveau comme un moteur bayesien en l’étudiant à partir d’images produites par des algorithmes eux-mêmes bayésiens.
Ce rapport aux organes techniques de la recherche – ce qui fait l’objet de l’organologie générale – est complètement impensé et non problématisé par les cognitivistes.
Pour le dire autrement, et pour reprendre votre expression il me semble tres interessant de penser la technique pour voir les « processus interdépendants, d’intériorisations et d’extériorisations » indivuduel et collectif.
Mais je ne vois pas, ou vous faites peu mention, de l’influence de la strucutre famille comme struturation de la pensee par « interiorisation » de la structure familliale pour penser l’individu et le collectif (l’inconscient collectif).
Dans le triplet « organique Psychisme/Collectif/Technique », je ressens un trou pour penser le Collectif (l’homo-economicus « pose sur une flaque d’huile » comme dirait Todd), qui s’enracine pourtant dans la famille et le clan.
[Reply]
[…] Le schème probabiliste bayésien comme « théorie générale du cerveau humain » […]
Bonjour, et merci de nous éclairer sur l’histoire de la catégorisation ainsi que ses enjeux. C’est vrai, c’est essentiel.
Ce paragraphe de votre article me fait réfléchir ces dernières semaines :
« Mais il ne faut jamais être dupe des organes techniques que nous utilisons pour instruire la question. Ainsi on pourra s’étonner que les travaux de Dehaene et des neuroscientifiques s’appuient sur des technologies d’imagerie cérébrale entièrement produites par des algorithmes bayesiens sans être jamais vraiment interrogés ; c’est un peu comme si quelqu’un chaussait des lunettes aux verres roses pour ensuite déclarer : « mais le réel est rose ! ». De la même manière il eut été surprenant que Dehaene n’eut pas vu le cerveau comme un moteur bayesien en l’étudiant à partir d’images produites par des algorithmes eux-mêmes bayésiens. »
J’ai écouté la saison 7 de Stanislas Dehaene au Collège de France, et n’ai pas eu la sensation que ses conclusions se basaient exclusivement sur l’imagerie cérébrale : il corrobore ce type d’observations avec d’autres, par exemple des observations sur le comportement face à un stimuli.
Du coup, je ne pense pas qu’il soit victime du syndrome lunettes roses.
Pourriez-vous développer cette assertion, s’il vous plait ?
Pour ma part, son discours m’a quand même pas mal convaincu. Et puis, l’explication qu’il donne à certaines illusions d’optique m’a ouvert des chemins d’investigation :
« Une illusion visuelle peut être le résultat d’un calcul optimal. Notre système nerveux essaie de faire une inférence optimale sur le monde extérieur. Les contraintes sur le problème qu’il doit résoudre font que de temps en temps, et en particulier lorsque les entrées sont appauvries, le système nerveux tombe dans une solution illusoire.
Mais en moyenne évidemment, le système réalise une inférence optimale. Il est adapté au monde extérieur, et les illusions sont des situations artificielles dans lesquels on arrive à faire faire au système une erreur. »
– 14ème minute, épisode 4 : http://www.college-de-france.fr/site/stanislas-dehaene/course-2012-01-31-09h30.htm#|q=../stanislas-dehaene/course-2011-2012.htm|p=../stanislas-dehaene/course-2012-01-31-09h30.htm|
J’aime bien aussi, quand il précise deux épisodes plus loin, que des expériences montrent que des décharges électriques se produisent dans le cerveau lors d’expériences répétitives, alors même que le stimuli n’a pas été répété. C’est juste la répétition précédente qui fait croire au cerveau que l’événement s’est répété, alors que ce n’est pas le cas. Le cerveau semble victime d’optimum probabiliste.
Je me laisse aller à imaginer que notre pensée pourrait être victime du même mécanisme illusoire, qui nous mène à tant de quiproquos mais pourtant à tant de solutions optimales, soit en partant d’hypothèses fausses (souvent des traces de précédents raisonnements optimaux) , soit en souhaitant tout simplement pousser le raisonnement jusqu’à son Optimal.
[Reply]
Bonjour,
Il est clair que Stanislas Dehaene doit rester à sa place, c’est-à-dire dans sa discipline. Cependant, il me semble qu’il le fait tout au long des dizaines d’heures de cours que j’ai pu écouter. Je le trouve rigoureux dans son approche et sa méthode. Peut-être trop ? Peut-être refuse-t’il de parler de ce que ses expérimentations ne lui permettent pas d’appréhender ? C’est possible mais est-ce un tort ? Peut-être confond-il rationalité et calcul ? Je n’en ai pas l’impression.
L’avantage de proposer une théorie unifiée du cerveau, est de pouvoir enfin balayer toute une série d’hypothèses plus ou moins farfelues à son sujet. Encore faut-il que la théorie soit bonne, je le concède 🙂
Un peu comme en astrophysique : s’il n’y avait pas eu les lois de Kepler, que croirions-nous ? Et pourtant, rien de plus triste que d’admettre que les planètes décrivent un chemin calculable et prédictible. Les lois de Kepler sont restées à leur place et n’expliquent pas tout.
J’épouse le même point de vue que celui d’Etienne Klein, lorsqu’il interroge les discours sur l’Origine de l’Univers plutôt que l’Origine elle-même :
Je doute que l’intention de Stanislas Dehaene soit d’expliquer l’Homme par le cerveau, mais bien d’apporter sa contribution théorique au fonctionnement du cerveau. Chercher à agripper le réel incalculable, infini par une théorie sur le calcul, c’est comme chercher à agripper l’Origine Absolue dans une théorie présentée comme absolue, mais dont on ne pourra jamais prouver qu’elle est absolue.
Néanmoins, tous ces efforts scientifiques comme l’élaboration du modèle standard, considérés par beaucoup comme réductionnistes, ont permis d’écarter bien des hypothèses sur l’histoire de l’Univers, et de sélectionner les plus probables. Le modèle standard n’explique pas tout. Il y a encore du réel qui lui échappe.
Vous avez raison en soulignant que les fondements de la théorie du cerveau proposée par Stanislas Dehaene sont dégagés de la technique, et je comprends que cela vous gêne. Néanmoins, je lui donne raison :
Par exemple, il intègre dès le départ les réels contraintes dont souffrent nos outils perceptifs : il donne l’exemple des photorécepteurs qui sont en forme de tube. Comment le cerveau choisit, parmi une infinité de possibles, une seule interprétation de ce qu’il perçoit dans ses tubes, à savoir la position de l’objet observé dans l’espace 3D ?
On n’est pas dans la technique, on est dans le physiologique. Alors oui : il faut des outils techniques pour observer les photorécepteurs. Néanmoins, les photorécepteurs ne sont pas de l’ordre de la technique.
Je me demande d’ailleurs, si cette capacité cérébrale d’interpolation des stimuli visuels n’a pas été appliquée à la polysémie, au cours de notre évolution. C’est l’hypothèse de Stanislas Dehaene. Je l’interroge encore 🙂
[Reply]
D’abord merci de m’avoir guidé vers les séminaires de M Dehaene sur les inférences Bayésienne, j’ai trouvé cela compliqué mais vraiment très intéressant et l’idée d’une cognition s’appuyant sur la prédictibilité est tout à fait charmante et fertile , faisant de nous des êtres meta-opérationnel. Malgré tout, j’aimerais pourtant comprendre le reproche que vous faite à M Dehaene et peut être à d’autres scientifiques sur l’oubli supposé de la technique, cela m’a réellement surpris, de plus il me semble que les relations appelées dans le concept «d’organologie générale» apparaissent ici. En suivant «Pharmakon», j’avais cru comprendre que vous accordiez justement du crédit aux expériences de M Dehaene, en fait non… Dans un sens vous avez raison, l’instrument de mesure se mesure peut être lui même car son lui même a était conçus par une pensée humaine et il fonctionne comme la pensée de ses concepteurs, qui peut être est Bayésienne, et de ce doute nous ne pourrons jamais nous défaire. Suivant ce raisonnement, en fin de compte, l’homme se mesure lui même à travers son instrument, se connaît mieux ou se re-connaît et cela semble être compatible avec le cadre de «l’organologie générale» conceptualisée par M Steigler car il y a relation «transductive» entre les domaines enlevant aussi par la même occasion les doutes d’efficacité que vous portiez sur l’expérience de M Dehaene (le IPad, ne semble t’il pas un miroir électrique pour ma grand-mère ?).
La théorie scientifique, le formalisme, l’opération peuvent émerger grâce à l’objet technique car il est capable de voir, de faire ce dont nous somme incapable, mais la théorie scientifique, le formalisme, l’opération peuvent aussi émerger grâce aux «expérience de pensée» et ensuite être valider par l’instrument de mesure, c’est ce qui se passe depuis plus d’un siècle, voyez le LHC, le satellite Planck, l’expérience de Alain Aspect … et d’autres. De mon humble point de vue, que je juge incomplet, je suis étonné que vous souleviez encore le problème de la mesure, ou du cerveau dans la cuve, à moins de les résoudre, l’instrument de mesure est toujours un masque, arbitraire, fait d’unités prédictives comme une règle d’écolier, il y a des cas où les résultats de mesures est impossible, quand dans d’autres cas les résultats semblent impossible et qu’en d’autres cas le résultat de mesure dépend même de l’acte de mesurer, donc vous n’avez pas raison, le scientifique n’oublie pas la technique, il a même cruellement conscience de sa limite et en même temps de sa dépendance. Il n’y a pas que les mots que nous puissions lire, grâce à différentes techniques ou dispositions nous pouvons aussi lire les propriétés et les états des choses et aussi prédire, il est nécessaire de savoir, d’avoir lu, d’avoir vue autre chose que des mots pour renouveler l’écriture.
D’un point de vue génétique et sans m’arrêter à votre formulation, je ne pense pas que «la science du probable» dérive du «développement exponentiel des technologies» mais l’inverse, c’est le «développement exponentiel des technologies» qui dérive de «la science du probable», les technologies ne seraient rien si quelques scientifiques n’auraient imaginé et formulé une nature fortement invisible et probabiliste et que d’autres ne trouvent des applications qui aujourd’hui sont les mécaniques du «développement exponentiel des technologies». Pour finir, nous supposons que l’information est ce qui réduit les incertitudes, les probabilités, si nous parlons des «technologies de l’information» et si elles sont vraiment ce qu’elles sont, en jouant avec les mots, il y aura donc une rétro-action, et les «technologies de l’information» ressouderons d’eux mêmes les incertitudes et les probabilités que nous avons à leur sujet et qu’elles ont en elles-mêmes, par contre, si ce sont des technologies de sélection et de contrôle automatique se répliquant, nous devrons couper le courant, mais peut être est ce quelque chose d’autre … mystère.
(anthropomorphisme organique : nos cônes, nos cellules photosensibles de l’œil ont beaucoup d’analogies structurale avec le détecteur du satellite Planck )
[Reply]
Bonjour,
Je voulais vous diriger vers l’émission de Place de la Toile, où Stéphane Vial présente son livre « L’être et l’écran ».
http://www.franceculture.fr/emission-place-de-la-toile-l-etre-et-l-ecran-2013-09-21
Franchement, je l’ai trouvé très clair. Cela m’a mieux fait comprendre l’impact de la technique sur l’acte de percevoir. J’ai bien aimé son exemple :
« Percevoir le ciel, ce n’est pas tout à fait la même chose, lorsqu’on vit à l’époque des machines à vapeur ou à celle des machines numériques ou à celle des machines de bois.
On peut prendre un exemple tout simple de cela :
Aujourd’hui, lorsqu’on est face à un paysage, on a parfois envie de partager ce moment sur les réseaux sociaux. La manière dont on regarde ce paysage est influencé par le fait que nous vivons habituellement avec des appareils numériques, quand on n’est pas face à ce paysage.
Le processus de la perception est modifié culturellement à travers les différentes époques de l’histoire par les techniques environnantes. »
Allez, un deuxième lien pour passer un bon week-end : la page de Stéphane Vial sur Ars Industrialis 🙂
http://arsindustrialis.org/users/svial
Merci à vous tous, philosophes, de vous épuiser à nous transmettre ce savoir, vraiment pas facile d’accès 🙂
[Reply]
Bonjour,
A l’écoute d’une nouvelle interview de Stanislas Dehaene, je me suis surpris à réaliser qu’effectivement, le calcul était absolument central dans son discours
Et vous avez raison de souligner que c’est assurément le fruit de l’époque de course à l’armement informatique dans laquelle nous vivons.
Merci de nous avoir éclairés 🙂
Par ailleurs, avez-vous pris le temps de vous intéresser au discours de Laurent Alexandre (chirurgien et énarque) concernant les NBIC ?
http://www.youtube.com/watch?v=ObzCCBmUEyo
ou
http://www.youtube.com/watch?v=vdnNyv8UwC0
Bonne journée
[Reply]
Bonsoir,
J’ai retranscris une vingtaine d’idées forces émises au cours des deux conférences de Laurent Alexandre, que je vous ai proposées ci-dessus. L’exercice est difficile, tant le discours de Laurent Alexandre est dense.
http://pasfaux.com/lumiere/laurent-alexandre
J’ai mis plusieurs mois à digérer ses propos, tant la toxicité est forte. Bon courage à nous 🙂
[Reply]
Merci pour cette serie d’articles tres interessants…mais dense. Je trouve l’intervention que vous avez faite cet ete sur Pharmakon.fr plus eclairante, du fait d’avoir plus de temps, vous devriez la mettre plus « en avant ». Il me tarde de voir la suite de cette serie, et le regard que cela apporte sur les big data…et le numerique en general.
Juste un commentaire, un peu annexe par rapport a cette video. Je ne sais pas si vous connaisse les travaux d’Emmanuel Todd sur les structures familliales et l’influence sur l’ideologie et les systemes politiques. Mais je vous recommande chaudement, je vous conseille en particulier « la diversite du monde », avant meme son dernier tome sur le sujet « l’origine des systemes familliaux – tome 1 , l’Eurasie » .
Meme si il s’agit d’une approche de statistique frequentiste ;)… je trouve que cela donne un cadre d’interpretation tres pertinent. Bien sur pour comprendre la raison de l’emergence du probabilisme, crise de l’autorité,en lien avec la technique (imprimerie+alphabetisation). Meme si, il n’est pas besoin des travaux de Todd pour comprende cela.
Par contre , avec son modele en tete, cela donne un eclairage edifiant sur les differentes utilisation de l’outil statistique par l’etat. L’etat Allemand (issu de la famille souche, autoritaire) qui va avoir une approche gere par l’etat (d’en haut). L’etat Anglais (issu de la famille nucleaire inegalitaire) qui va laisser aux individus le soin de presente cet expertise (modele non autoritaire). Et l’etat Francais (issue du tissu complexe de la famille nucleaire et egalitaire du bassin parisien, et souche dans le sud…enfin c’est plus complique) qui va laisser cela a l’exterieur de l’etat (l’aspet non autoritaire) mais en meme temps tout en gardant le controle de l’information (centralisation, etc)….desole de ne pas etre plus clair, en quelques lignes, ce n’est surement pas tres clair, mais je vous recommand chaudement la lecture de Todd. D’autant plus si vous voulez penser l’inter-etat.
[Reply]