Denis Forest : l'analyse fonctionnelle en neuroscience
Publié par Jean Claude Serres, le 9 décembre 2016 4.1k
Denis Forest, Philosophe, a animé une belle conférence à propos du concept de fonction dans le cadre des neurosciences, à l'Institut de Neurosciences de Grenoble. Cette conférence m'est apparue surréaliste, j'y reviendrai plus loin.
La recherche en neuroscience utilise de plus en plus le concept de fonction. Hempel avait proposé une première définition : la fonction répond à un besoin, à une demande, à un pourquoi. Le cœur bât car le corps a besoin de faire circuler le sang. Le cœur fait du bruit mais ce n’est pas une fonction, c'est un effet secondaire. La fonction est perçue autrement par Robert Cummins. La fonction, c’est ce qui définie ce qu’elle fait, sa contribution. Elle répond au pourquoi, au but. Cette définition permet la décomposition fonctionnelle en contributions élémentaires. Le rôle des parties, en séquence ou en parallèle, construit la contribution globale dans l’instant. Cette définition met de la distance avec l’approche évolutionniste et la question de l’héritage évolutionniste de chaque fonction.
Le questionnement du comment prend le pas sur le questionnement du pourquoi, ce qui induit l’approche mécaniste et réductionniste. Mais dans le cadre des neurosciences cette approche atteint ses limites. Plus on localise les fonctions à ses opérations élémentaires (réseau de quelques neurones) plus on s’aperçoit que ces réseaux minimaux contribuent à de nombreuses fonctions différentes en « fonction » des mises en résonances avec d’autres réseaux minimaux (voir le travail de Stanislas Dehaene - Les neurones de la lecture - pour la construction du sens d’un mot...). "Qu’est-ce qu’une fonction ?" nous induit l’autre question clé "Qu’est-ce qu’un système ?". Mais pourquoi cette conférence de Denis Forest est-elle surréaliste ?
Dans les années 1995, j’ai suivi à Hewlett Packard une formation d’une semaine sur cette même question dans le cadre de l’analyse fonctionnelle des « PDI » Plans Directeurs Informatiques. Trois grandes méthodes étaient proposées, issues de la théorie de l’information. Je me souviens de deux. A partir de la prise en compte d’un système global ou sous système (ex. l’entreprise ou le service des ventes), on identifie dans ce système les flux d’informations entrants et sortants chaque flux externe devant être rattaché à un processus (ou fonction interne, elle-même décomposable) vu à ce niveau comme une boite noire. La première méthode privilégie les flux d’information. La cartographie des flux du système identifie les points de raccordement qui sont les processus de traitement de l’information. L’autre méthode est duale (dualité méthodologique). La cartographie du système est celle des processus (avec décomposition élémentaire possible pour affiner les nœuds d’information qui deviennent les points de rencontre des processus (la ligne est un processus et le point les flux d’informations). Il faut noter que cela était inscrit dans le cadre structurant de la programmation structurée décomposable en programmes élémentaires dont les info de sortie de l’un était les données d’entrées de l’autre (avec contrôle de cohérence des données entrantes et sortantes – par des validations de tests fonctionnels : la fameuse figure en « V » Conception -Test par niveaux de complexité descendants). Aujourd’hui il faut penser autrement avec la programmation orienté objet avec ses deux principes d’héritage et de contextualisation. Les dernières phrases de Denis Forest auraient pu être nourries de cette dernière remarque.
Il est étonnant et dommageable qu’au nom d’une peur sans doute, celle de ramener le fonctionnement du cerveau à celui d’un ordinateur, les neurosciences se privent des avancées méthodologiques des théories de l’information. Elles en sont à peine au stade des années 1995 !
On peut remarquer des décalages temporels similaires dans deux autre domaines. En 2006 au congrès de l’institut LMDR de Maîtrise des Risques, un directeur d’hôpital, a réalisé une communication "innovante" dans la maîtrise des risques des flux alimentaires et des flux de médicament dans l’hôpital en utilisant l’arrête de poisson ou diagramme d’ISHIKAWA, diagramme « cause effet ». Ce diagramme a été introduit à Hewlett Packard en 1982 ! ce diagramme n’a d’ailleurs jamais été bien compris par les occidentaux car il n’est pas mécaniste mais systémique : une «cause racine» pouvant se retrouver «cause conséquente» à un autre niveau du diagramme.
Le second domaine est celui de la gouvernance où l’on assimile encore aujourd’hui «modalités de gouvernances» et «logiques de profits et dynamiques comptables mesurables» des organisations néo libérales (entreprises privées, publiques et gouvernances politiques) [voir gouvernance]