Hôte d'esprit: obstacles et tremplins réels sur la voie de la création d'une IA commune

( c )



Les projets d'Intelligence Générale Artificielle (AGI ) dont  nous allons parler aujourd'hui sont considérés comme moins ambitieux que toute IA forte. Cependant, certains scientifiques affirment que les ordinateurs ne pourront jamais capter les capacités de l'intelligence humaine.



A la fois partisans et opposants de l'idée d'ordinateurs capables de résoudre tout problème intellectuel soumis à l'homme, les arguments pour défendre leur position sont nombreux. Nous découvrirons les arguments de chaque côté et tenterons de déterminer si l'AGI a une chance maintenant et dans le futur.



Cet article est basé sur une publication récente du professeur Ragnar Fjelland, Pourquoi l'IA à usage général ne sera pas créée, mais nous examinerons plus que les inconvénients. 



Connaissance silencieuse



L'intelligence humaine étant générale (c'est-à-dire capable de résoudre presque tous les problèmes intellectuels), l'IA humanoïde est souvent appelée intelligence artificielle générale (AGI). Malgré le fait que l'AGI possède une propriété importante de l'intelligence humaine, elle peut toujours être considérée comme une IA faible. Cependant, elle diffère de l'IA faible traditionnelle, limitée à des tâches ou des domaines spécifiques. Par conséquent, l'IA faible traditionnelle est parfois appelée intelligence artificielle étroite (Artificial Narrow Intelligence, ANI).



La capacité à utiliser des algorithmes à une vitesse énorme est une caractéristique de l'ANI, mais elle ne la rapproche pas de l'intelligence naturelle. Mathématicien et physicien Roger Penrose dans le célèbre livre «The New Mind of the King. On Computers, Thinking, and the Laws of Physics », publié en 1989, a suggéré que la pensée humaine est pour la plupart non algorithmique et ne peut donc pas être modélisée à l'aide d'un ordinateur conventionnel tel qu'une machine de Turing.



Trente ans avant Penrose, le philosophe Hubert Dreyfus a exprimé des pensées similaires dans son ouvrage « Alchimie et intelligence artificielle ». Il a également écrit le livre What Computers Can't Do , dans lequel il a soutenu que la connaissance humaine est principalement implicite (non verbale) et ne peut être formulée dans un programme informatique. 



En 1958, le physicien, chimiste et philosophe Michael Polani a formulé pour la première fois le concept de «connaissance personnelle (ou implicite, tacite)». La plupart des connaissances que nous utilisons dans notre vie quotidienne sont tacites - nous ne savons pas quelles règles nous appliquons lorsque nous accomplissons une tâche. À titre d'exemple, Polanyi a cité la natation et le cyclisme, lorsque tous les mouvements sont effectués automatiquement. 



Le problème est qu'une grande partie de l'expertise reste taciturne. Par exemple, beaucoup d'entre nous sont des experts en marche, mais si nous essayons de formuler exactement comment nous marchons, nous donnerons une description extrêmement vague du processus réel. 



Jalons de l'IA



( c )



Dans les années 1980, les arguments de Polanyi, Dreyfus et Penrose ont commencé à perdre de leur force - grâce à la découverte de réseaux de neurones capables d'apprendre par eux-mêmes, sans instructions externes explicites.



Bien que les projets à grande échelle (par exemple, le " Fifth Generation Computer " du Japon , qui a commencé en 1982 et promis la création de l'IA utilisant une programmation logique massivement parallèle) ont échoué , historiquement seuls les succès sont retenus. Progrès notable de l'IA vers la fin du 20e siècle démontrée par des spécialistes IBM. En 1997, Deep Blue a battu le champion du monde d'échecs Garry Kasparov dans une série de matchs. 



Le supercalculateur IBM a été créé pour résoudre un problème spécifique sur un échiquier, et tout le monde ne l'a pas vu comme un succès d'IA. Cependant, en 2011, IBM Watson a conquis les humains dans le Jeopardy! (en Russie, le spectacle est connu sous le nom de "Own Game"). Dans le contexte de Deep Blue, Watson a été un pas en avant colossal - le système comprenait les requêtes en langage naturel et trouvait des réponses dans différents domaines de la connaissance. 



Il semblait qu'une nouvelle ère de systèmes experts commencerait très bientôt. IBM prévoyait d'exploiter la puissance de l'ordinateur en médecine. L'idée était à la surface: si Watson avait accès à toute la littérature médicale, il pourrait offrir un meilleur diagnostic et traitement que n'importe quel médecin. Dans les années suivantes, IBM a été impliqué dans plusieurs projets médicaux, mais a obtenu un succès modeste . Aujourd'hui, les efforts de l'entreprises'est concentré sur le développement d'assistants IA qui effectuent des tâches de routine. 



Bien sûr, on ne peut que parler de la principale réalisation des développeurs d'IA aujourd'hui - le système AlphaGo, auquel la désintégration finale des arguments contre AGI est associée. AlphaGo a montré que les ordinateurs peuvent traiter des connaissances tacites. L'approche de DeepMind a été appliquée avec succès dans Atari Breakout, Space Invaders et StarCraft, mais il s'avère que le système manque de flexibilité et ne peut pas s'adapter aux changements de l'environnement réel. Parce que les problèmes surviennent dans un monde en constante évolution, l'apprentissage par renforcement profond a jusqu'à présent trouvé peu d'applications commerciales. 



Cause et enquête



( c )



Ces dernières années, les partisans de l'IA ont acquis un nouvel outil puissant - appliquer des méthodes mathématiques à d'énormes quantités de données pour trouver des corrélations et déterminer les probabilités. Bien que le Big Data ne reflète pas l'ambition de créer une IA forte, les promoteurs soutiennent que cela n'est pas nécessaire. Dans le livre Viktor Mayer-Schoenberger et Kenneth Kuke "Big Data: une révolution qui changera notre façon de vivre, de travailler et de penser", dit que nous n'avons peut-être pas besoin de développer des ordinateurs pour l'intelligence humaine - au contraire, nous pouvons changer notre façon de penser devenir comme des ordinateurs. 



Dans le Big Data, nous opérons avec des corrélations, mais nous ne comprenons pas toujours où est la cause et où se situe l'effet. Dans le livrePearl et Mackenzie Pourquoi? Une nouvelle science de la causalité », disent les auteurs, pour créer une véritable IA, un ordinateur doit être capable de faire face à la causalité. Les machines peuvent-elles représenter des relations causales de manière à obtenir rapidement les informations dont elles ont besoin, à répondre correctement aux questions et à le faire avec la facilité que même un enfant de trois ans a?





Même les réseaux de neurones ont des défauts ici. Nous ne savons pas vraiment pourquoi le système prend telle ou telle décision. Il y a quelques années, une équipe de l'Université de Washington a développé un programme de formation pour faire la distinction entre husky et loup. La tâche est assez difficile, car les animaux, comme vous pouvez le voir sur l'illustration, sont similaires les uns aux autres. Mais, malgré la complexité, le système fonctionnait avec une précision de 90%. Après avoir analysé les résultats, l'équipe a réalisé que le réseau de neurones fonctionnait si bien uniquement parce que les images avec les loups étaient principalement de la neige.



Et qu'est-ce qui se passerait si… 



L'historien Yuval Harari soutient qu'il y a entre 70 000 et 30 000 ans une révolution cognitive a eu lieu dans le monde, dont la caractéristique était la capacité d'imaginer quelque chose qui n'existe pas. A titre d'exemple, il a cité la plus ancienne figurine en ivoire connue "lion mâle" (ou "lionne") trouvée dans la grotte de Stadel en Allemagne. La figure a un corps humain et une tête de lion. 



Pearl et McKenzie font référence à Harari et ajoutent que la création de l'homme-lion est le précurseur de la philosophie, de la découverte scientifique et de l'innovation technologique. Le prérequis principal pour cette création était la capacité de poser des questions au format: "Que se passe-t-il si je fais ...?", Et d'y répondre. 



Cependant, les ordinateurs avec des relations causales ne fonctionnent pas bien. Comme il y a 30 ans, les programmes d'apprentissage automatique, y compris les programmes de réseaux neuronaux profonds, fonctionnent presque entièrement en mode associatif. Mais ce n'est pas assez. Pour répondre aux questions causales, nous devons être capables d'intervenir dans le monde. 



Selon Ragnar Fjelland, la racine du problème est que les ordinateurs n'ont pas de modèle de réalité, ne peuvent pas changer la réalité qui les entoure et n'interagissent en aucune façon avec elle. 



Impasse terminologique 



Le problème le plus évident n'est pas que, selon certains experts, nous ne pouvons réussir dans un certain domaine sans comprendre les «règles du jeu». Il y a encore des difficultés même avec la terminologie, et nous ne savons pas comment appeler exactement l'intelligence artificielle. De plus, la compréhension de l'intelligence naturelle est loin d'être idéale - nous ne savons tout simplement pas comment fonctionne le cerveau. 



Prenons par exemple le thalamus, qui est responsable de la transmission des informations sensorielles et motrices. Cette partie du cerveau a été décrite pour la première fois par l'ancien médecin romain Galen. En 2018, un atlas du thalamus a été créé : sur la base de l'histologie, 26 noyaux thalamiques ont été isolés , qui ont ensuite été identifiés en IRM. C'est une grande réalisation scientifique, mais les scientifiques supposent qu'il y a plus de 80 noyaux dans le thalamus (le nombre exactpas installé jusqu'à présent). 



Dans On the Measure of Intelligence , François Schollet (chercheur en IA chez Google, créateur de la bibliothèque de deep learning Keras et co-développeur du framework d'apprentissage automatique TensorFlow) souligne qu'avant le consensus mondial sur «qu'est-ce que l'intelligence», tente de comparer différents systèmes intelligents avec l'intelligence humaine voué à l'échec. 



Sans des métriques claires, il est impossible d'enregistrer les réalisations et, par conséquent, de déterminer exactement où aller dans le développement de systèmes d'intelligence artificielle. Même le test de Turing notoire ne peut pas devenir une bouée de sauvetage - nous connaissons ce problème grâce à l' expérience de pensée avec la «salle chinoise». 



La présence comme signe d'intelligence 



La plupart des partisans de l'AGI (et de l'IA forte) suivent aujourd'hui les arguments de Yuval Harari. Dans 21 Lessons for the 21st Century, il fait référence à la neuroscience et à l'économie comportementale, qui auraient montré que nos décisions ne sont pas le résultat d'un «mystérieux libre arbitre», mais «le travail de milliards de neurones dans le cerveau calculant toutes les probabilités possibles. avant de prendre une décision. "



Par conséquent, l'IA peut faire beaucoup de choses mieux que les humains. À titre d'exemple, l'auteur cite la conduite dans une rue pleine de piétons, le prêt à des étrangers et la négociation d'accords commerciaux - qui nécessitent tous la capacité «d'évaluer correctement les émotions et les désirs des autres». Le raisonnement est: "Si ces émotions et désirs ne sont vraiment rien de plus que des algorithmes biochimiques, il n'y a aucune raison pour que les ordinateurs ne puissent pas déchiffrer ces algorithmes - et ils peuvent faire tellement mieux que n'importe quel Homo sapiens." 



Cette citation fait écho à la pensée de Francis Crick dans The Amazing Hypothesis":" L'hypothèse étonnante est que "Vous", vos joies et vos peines, vos souvenirs et vos ambitions, votre sentiment d'identité personnelle et de libre arbitre ne sont vraiment rien de plus que le comportement d'une énorme accumulation de cellules nerveuses et associées ces molécules. " 



Il y a aussi une opinion alternative: même les théories les plus abstraites sont basées sur notre monde quotidien. Le philosophe, fondateur de la phénoménologie Edmund Husserl évoque la théorie de la relativité d'Einstein, affirmant qu'elle dépend des «expériences de Michelson» et de leur confirmation par d'autres chercheurs. Pour mener ce type d'expérience, les scientifiques doivent être capables de se déplacer, de manipuler des instruments et de communiquer avec leurs collègues. 



Comme le note Hubert Dreyfuss, nous sommes des êtres corporels et sociaux vivant dans le monde matériel et social. Pour comprendre une autre personne, on n'a pas besoin d'étudier la chimie de son cerveau, mais plutôt d'être dans la «peau» de cette personne, pour comprendre son monde de vie. 



Pour illustrer les propos de Dreyfus, l'écrivain Théodore Rozzak a suggérémener une expérience de pensée. Imaginez regarder un psychiatre travailler. C'est une personne expérimentée qui travaille dur et qui a évidemment de très bonnes pratiques. La salle d'attente est pleine de patients souffrant de divers troubles émotionnels et mentaux: quelqu'un est au bord de l'hystérie, quelqu'un est tourmenté par des pensées suicidaires, d'autres souffrent d'hallucinations, certains patients sont tourmentés par les cauchemars les plus graves, et certains se dirigent vers la folie avec la pensée de ce ils sont surveillés par des gens qui leur feront du mal. Le psychiatre écoute attentivement chacun d'eux et fait de son mieux pour aider, mais sans grand succès. Au contraire, il semble que l'état des patients ne fait qu'empirer, malgré les efforts héroïques du psychiatre. 



Maintenant, Rozzak nous demande de replacer la situation dans un contexte plus large. Le bureau du psychiatre est situé dans un bâtiment situé à Buchenwald, où les patients sont détenus dans les camps de concentration. Les algorithmes biochimiques ne nous aideront pas à comprendre les patients. Ce qu'il faut vraiment, c'est une connaissance du contexte plus large. Un exemple n'a tout simplement pas de sens si nous ne savons pas que le bureau du psychiatre se trouve dans un camp de concentration. Rares sont ceux qui peuvent se mettre dans la peau d'un prisonnier dans l'Allemagne nazie. Nous sommes incapables de comprendre pleinement les gens dans des situations très différentes de notre propre expérience. Mais nous pouvons toujours comprendre quelque chose, puisque nous existons dans le même monde avec d'autres personnes. 



Les ordinateurs, à leur tour, existent dans leur propre monde de machines, ce qui explique au moins en partie les problèmes qui empêchent IBM Watson Health et Alphabet DeepMind de résoudre les problèmes du monde réel. IBM est confronté à un décalage fondamental entre la manière dont les machines apprennent et la manière dont les médecins travaillent. DeepMind a constaté que la résolution des problèmes de Go ne les a pas rapprochés de répondre aux questions liées à la recherche d'un remède contre le cancer. 



Conclusion: les ordinateurs se lancent dans le monde



( c )



Non seulement les critiques de l'AGI connaissent les problèmes. Les chercheurs du monde entier recherchent de nouvelles approches et il existe déjà des réussites pour surmonter les obstacles. 



Malgré le fait que même un chien est plus intelligent que IBM Watson , selon la théoricienne AI Roger Shank, l'avenir de la médecine appartient sans aucun doute à des systèmes informatiques. L'article, publié en juin 2020, démontre l' énorme succès de Pharnext: en fait, leur IA a trouvé une solution simple et abordable aux problèmes de la maladie génétique de Charcot-Marie-Tooth. 



AI a rassemblé un incroyable cocktail de trois médicaments approuvés pour soulager la neuropathie sensorielle motrice héréditaire. Si l'on considère un nouveau «médicament», la confusion est garantie: le premier composant est un médicament utilisé pour traiter l'alcoolisme, le second a un effet sur les récepteurs aux opioïdes et est utilisé pour lutter contre la dépendance à l'alcool et aux opioïdes, le troisième est généralement un substitut du sucre. 



Après avoir parcouru des millions d'options, l'IA a choisi une telle combinaison. Et cela a fonctionné: des expériences sur des souris et des humains ont montré une augmentation des connexions entre les nerfs et les muscles. Il est important que l'état de santé des patients s'améliore et que les effets secondaires soient insignifiants. 



Parlant du problème de la présence dans le monde, il convient de mentionner leRécemment, à l'Université technique de Munich, une étude ambitieuse: un robot à un niveau interconnecté a appris à percevoir et à agir dans le monde réel. L'étude fait partie d'un projet européen à grande échelle SELFCEPTION , qui combine robotique et psychologie cognitive pour développer des machines plus exigeantes. 



Les chercheurs ont décidé de fournir aux robots et aux agents artificiels en général la capacité de percevoir leur corps comme le font les humains. L'objectif principal était d'améliorer la capacité d'interagir face à l'incertitude. Ils ont pris comme base la théorie de la production active du neurobiologiste Karl Friston, venu en Russie l'année dernière avec des conférences (pour ceux qui s'intéressent au sujet, nous recommandons de regarder le russe ouAnglais ).



Selon la théorie, le cerveau fait constamment des prédictions, les vérifie par rapport aux informations provenant des sens et fait des ajustements, et redémarre le cycle. Par exemple, si, sur le chemin d'un escalier roulant, une personne trouve soudainement un embouteillage en chemin, elle adapte ses mouvements en conséquence. 



Un algorithme basé sur le principe de Friston de l'énergie libre (une formalisation mathématique de l'une des théories prédictives du cerveau) représente la perception et l'action travaillant vers un objectif commun, qui est de réduire l'erreur de prédiction. Dans cette approche, pour la première fois pour les machines, les données sensorielles correspondent mieux à la prédiction faite par le modèle interne. 



À long terme, cette recherche aidera à développer une AGI avec adaptabilité et interaction humaines. C'est à cette approche que l'avenir de l'intelligence artificielle est associé: si nous libérons l'IA de serveurs exigus dans le monde réel, peut-être qu'un jour nous pourrons activer la découverte de soi dans les machines.



All Articles