L’intelligence naturelle au cœur des enjeux de l’intelligence artificielle
Publié par Jean Claude Serres, le 13 juillet 2018 4.3k
Colloque du 13 juillet 2018 à l’IMAG – campus Grenoble
Organisé par :
Pole Grenoble Cognition : mission- fédérer les recherches portant sur les facultés humaines à comprendre, agir, interagir avec son environnement
et NeuroCoG : mission – du neurone aux réseaux et de la cognition aux interactions sociales
L’objectif de ce workshop était de dresser un état des lieux de la recherche en IA et des potentialités dans le pôle grenoblois afin de préparer un appel à projet du gouvernement : Recherche en IA sur les domaines symboliques, apprentissages et cognition dans les secteurs d’application de la santé, de l’environnement, du transport et de la défense.
Chaque intervenant disposait de 8mn et de 4 slides permettant de dresser un tableau très synthétique et concret des potentialités grenobloises : programme divisé en trois sessions – interactions – fonctions – traitements
Eléments clé retenus
Questionnement initial orientant les interventions : en quoi le développement de l’IA est elle influencée ou dépendante de l’IN Intelligence naturelle (ou humaine)
Il faudrait discerner entre IA faible et IA forte (générant les fantasmes de peur de l’homme augmenté et de la surpuissance de l’IA versus IN)
- IA forte symbolique systèmes experts big data et
- IA faible réponse courte et souvent locale à un capteur, sans cognition.
- Un bon considérable en 2012 avec la mise en œuvre du Deep Learning (réseaux de neurones artificiels)
L’évolution des usages : de l’informatique centralisée à la bureautique personnelle (PC) puis aux multiples objets connectés par personne (informatique ubiquitaire) liée à internet et pour les réponses en temps très court : des objets décideur en autonomie locale sur des traitements de données réduites mais de valeur.
La machine doit passer de la fonction agir à la fonction expliquer pour permettre d’optimiser l’interface IHM (Interface Humain Machine) par des apprentissage et des capacités d’adaptation réciproques.
L’analyse de l’accident Uber de la voiture autonome n’ayant pas « perçue » le cycliste.
Grande fiabilité de la machine par rapport à l’humain (dans un rapport 1000) mais qu’une machine tue un humain par accident n’as pas le même impact qu’un humain tuant un autre humain par accident.
Sur le plan algorithmique la machine procède par algorithme « lent » bottom up (esprit de géométrie suivant Blaise Pascal) alors que l’humain procède davantage par esprit de finesse (top bottom) en situation d’urgence
Questionnement de la salle
Face à la croissance exponentielle de la puissance de l’IA, faut-il la doter de conscience morale ou éthique pour ne pas desservir les humains ?
La machine doit elle posséder une liberté totale d’apprentissage et de création invention ou doit elle contrainte par une responsabilité humaine des concepteurs ou usagers ?
Dans une perspective fort probable d’apprentissages conjoints qui en dernier recours est responsable sur le plan juridique et moral, le concepteur l’utilisateur, la machine ou encore le réseau qui l’alimente ?
Comment dans un cadre contrôlé intégrer la légitimé de divergence et de penser agir différemment de la communauté ?
Comment dans le développement de l’IA, prendre en compte les enjeux de transformation sociale associés, la brutalité des changements à venir, l’équité individuelle, et équité entre cultures ne possédant pas le même volume de connaissances numérisables ?
Commentaires personnel
L’ensemble de la problématique posée est de répondre à un appel de projet gouvernemental : rendre Grenoble pilote en recherche formation et valorisation de l’IA dans un cadre humainement éthique. Il n’est pas penser la logique contraire de développer l’IA dans une perspective humaine première de mieux vivre ensemble. L’économie et le marché reste premier. Philosophes et sociologues sont donc invités à rendre ergonomique et éthique ce développement dans une finalité économique sur les secteurs marchands du transport, de la défense, de l’environnement et de la santé. Il ne s’agit pas de faire polémique mais de pointer du doigt un manque de prise en compte des besoins, des intérêts, des croyances et des valeurs des usagers. Ce manque peut par effet boomerang à moyen terme se retourner contre les avancées et bienfaits de l’IA.
Sur le plan méthodologique le manque de travail en amont d’ordre philosophique, conceptuel et systémiques révèle l’emprise de la culture informatique de type essaie – erreur sans approche de maîtrise globale des risques. La fameuse courbe en S de toute innovation technologique (Menaces et dangers majeurs partiellement maîtrisables – puis – sûreté de fonctionnement procédural puis perte d’intérêt économique et fin du cycle) est à l’œuvre : Nous sommes avec l’IA comme l’aviation au temps de « Mermoz » et « Vols de nuit ».
L’IA, la mal nommée n’est qu’un pas de plus dans la progression machinique. Il y a à la fois continuité dans la nature du changement (l’humain doit s’adapter à l’évolution technologique et rupture par la rapidité du changement et le nombre de personnes concernées). L’IA ce n’est pas demain c’est déjà aujourd’hui et depuis hier (1980) que j’en suis témoins et impacté avec bonheur et obligation d’adaptation.
Quelques exemples : L’arrivé de la DAO puis la CAO (conception assisté par Ordinateur) m’a éloigné du métier de conception sur planche à dessin. J’avais perdu l’attrait de penser en volume avant de dessiner. Les PC et leurs fabuleuses capacités m’ont permis de développer des applications de plus en plus complexe de planifications de production en atelier, en « langage orienté objet ».
L’usage généralise du GPS fait perdre la capacité de mémorisation du chemin parcouru et celle de s’orienter
La coproduction humain machine est magnifiquement illustrée par la pratique de la vidéo et de la photographie. Mon appareil Lumix me donne des capacités impressionnantes de prises de vue Macro Zoom et vidéo très compact et un seul objectif fixe. Les logiciels de traitement des images Lightroom, de son Audacity et de video Magix associés à Google Photo, blogs et YouTub, me permette de réaliser en temps très court et en qualité remarquable, des documents numériques ou papier. Il y a une véritable optimisation [Humain x Machine] entre la prise de photo et son traitement ultérieur.
Dans une perspective plus problématique, l’automatisation de nombreuses tâches dans la voiture (caméra de recul, allumage des feux, signal de danger, défocalisation de la concentration par la parole de l’ordinateur de bord et la captation visuelle des images sur l’écran rend le conducteur plus passif et surtout moins vigilant.
En synthèse je dirai que l’IM (intelligence machinique) est en interaction dynamique avec l’IH (c’est-à-dire l’intelligence humaine) sur plusieurs plans :
- IM est un composite de IA algorithmique, IA en réseaux de neurones artificiels, Deep Learning autres à venir et de leurs interactions
- IH est un composite singulier et collectifs entre IM, Les chemins de vies culturels, l’IN (Intelligence Naturelle génétique et épigénétique dont est doté le bébé d’humain à sa naissance ) ses capacités d’apprentissages mimétiques, vicariance, plasticité neuronale et recyclage neuronal, ses capacités de conditionnement et de formation.
- Interaction singulière et collective : IH personnelle x IM une machine x IM collectif (entre machines connectées) x IH collectifs (chercheurs et ou usagers)
- Chaque personne est transformée par le rapport aux machines et aux autres personnes équipées ou averties
- Cette transformation est mimétique (en particulier dans l’enfance mais pas que) avant qu’elle le soit par un apprentissage volontaire ou contraint)
- Cette transformation est non équitable suivant le milieu social, professionnel et culturel (augmentations et diminutions sectorielles, intégratives ou rejetant, isolant la personne)
- L’IM et l’IH nécessite une définition précise de ce que l’on entend par Intelligence (capacité d’adaptation et de survie à un environnement donnée) dans les différents champs de mise en oeuvre (apport des neurosciences et disciplines connexes : capacité d’attention ; de sélection des informations pertinentes ; processus cérébraux non conscients fulgurants et massivement parallèles ; processus cérébraux conscient lent, séquentiels et monopolaires ; la métacognition non consciente ; la capacité d’introspection ; les processus intentionnels et émotionnels des circuits de la récompense) exerçants dans les domaines relationnels, cognitifs, affectifs, émotionnels pour des finalités utilitaires, artistiques et spirituelles.
Cet article fait suite à d’autres produits à l’issue de ma participation à différents colloques et réflexions sur les futur travaux de loi sur la bioéthique (Etats généraux de la bioéthique)
Jean Claude Serres
Colloque Corps et Prothèse – étape 2 Grenoble
De la prothèse réparatrice à la prothèse comme augment
Contributions à la loi sur la bioéthique
Séminaire corps et prothèses du 6 avril au musée Confluence à Lyon
Penser l’humain à l’heure de l’intelligence artificielle