a

Lorem ipsum dolor sit amet, consectetur adicing elit ut ullamcorper. leo, eget euismod orci. Cum sociis natoque penati bus et magnis dis.Proin gravida nibh vel velit auctor aliquet. Leo, eget euismod orci. Cum sociis natoque penati bus et magnis dis.Proin gravida nibh vel velit auctor aliquet.

  /  Project   /  Blog: Notes sur La plus belle histoire de l’intelligence

Blog: Notes sur La plus belle histoire de l’intelligence


  • Nous sommes des automates dans les trois quarts de nos actions. Lorsque nous marchons nous n’effectuons pas des séries de contractions musculaires conscientes, et nous voyons sans cesse bien des choses sans pour autant le remarquer. L’intelligence qui nous fait percevoir ou agir n’est pas toujours consciente.
  • Le fond de toutes les connaissances et de tous les raisonnements viennent de l’expérience. Les observations que nous faisons, sur les objets extérieurs et sensibles ou sur les mouvements intérieurs de notre âme, que nous percevons et sur lesquels nous réfléchissons nous-mêmes, fournissent à notre esprit les matériaux de toutes ses pensées. Ainsi, la page blanche qu’est l’âme humane à la naissance s’enrichit grâce à une première source : les sensations. Notre intelligence ne relève donc que de l’acquis et elle est accessible à tous. La seconde source de tous les raisonnements, c’est la perception des opérations de notre âme sur les idées qu’elle a reçues de nos sens : la réflexion.
  • Contrairement à un être humain, un animal est un bout de quelques mois ce qu’il sera toute sa vie et son espèce au bout de mille ans, ce qu’elle était la première année de ces mille ans. Donc, il n’est pas question d’apprentissage et ce que l’on prend pour de l’intelligence chez les animaux n’est que l’instinct. La différence enter l’instinct et la raison : par son instinct un animal est déjà tout ce qu’il peut être, une raison étrangère a déjà pris soin de tout pour lui. Mais l’homme doit user de sa propre raison. IL n’a point d’instinct et doit se fixer lui-même le plan de sa conduite.
  • Ce qui distingue le plus mauvais architecte de l’abeille la plus habile, c’est que le premier a construit la cellule dans sa tête avant de la réaliser dans la cire.
  • On peut parler d’intelligence dès qu’il y a une adaptation d’un organisme à son milieu.
  • Les huîtres et les plantes disposent d’un réseau interne de traitement des informations fondé sur des échanges chimiques, moléculaires, plutôt que neuronaux. Même chez les animaux, au niveau suivant d’intelligence, on n’a toujours pas de cerveau à proprement parler, mais des systèmes de communication qui passent par des groupes parfois extrêmement restreints de neurones.
  • L’intelligence se manifeste dès que début de la vie et elle fait évoluer les êtres vivants qui la font évoluer en retour.
  • La crème de l’intelligence c’est la planification, la capacité d’élaborer un plan car elle permet, grâce à une exploration mentale, de faire l’économie d’une exploration réelle. Il y a un risque et un coût énergétique à éxécuter les actions réelles dans le monde extérieur. L’intelligence permet de simuler ces actions à l’intérieur de soi-même, d’anticiper sur leurs conséquences et de faire le meilleur choix sans avoir à bouger de là où l’on se trouve.
  • On croit avoir un seul esprit, et ce sont en fait plusieus organismes qui tentent de se coordoner le plus possible mais tirent parfois dans des directions différentes.
  • L’intelligence ne se trouve certainement pas dans le stockage de toutes les informations, mais au contraire dans l’extraction d’informations, dans leur tri et leur mise en forme. On peut que les sens reçoivent des données brutes et que le travail de nos circuits neuronaux consiste à les traduire en données utilisables.
  • Si je mémorise une information, c’est parce que mon cerveau estime qu’elle me servira plus tard. Je vais donc la projeter dans le futur, en la stockant. Notre cerveau choisit d’utiliser des circuits de mémoire différents selon l’intervalle de temps au bout duquel cette information nous sera utile. Si nous révisons une information à intervalles régulilers, c’est l’intervalle de temps entre deux révisions qui va déterminer la longévité du souvenir. La fréquence idéale de révision est une fraction de l’ordre de vingt ou trente pour cent du temps total pendant lequel on souhaite retenir l’information.
  • Les espèces que nous avons domestiquées disposent sûrement d’une sensibilité plus grande, parce qu’elles ont connu une évolution par sélection artificielle. Et, dès le début, nous les avons choisies pour leur sensibilité à nos états mentaux et pour une capacité d’apprentissage importante. On sait qu’un chien, aujourd’hui, peut apprendre au moins deux cents mots. Il utilise des indices subtils. Si on donne un chien qui a déjà appris deux cents mots un deux cent unième mot, nouveau pour lui, en lui demandant quelque chose comme “Va chercher le gapoula” il rapporte le seul objet dont il ne connaît pas encore le nom.
  • La notion de culture : Nous ne sommes plus simplement seuls avec notre cerveau, entourés de nos congénères. Notre cerveau habite un monde “augmenté” dans lequel les outils possèdent leur intelligence propre, en quelque sorte, et qui augmente notre propre intelligence. Au départ, utiliser quelques galets ne constituait pas une avancée considérable. Mais aujoud’hui nous ne serions pas grand-chose sans les outils.
  • L’animal humain a fait une découverte géniale qui multiplie ses capacités : la représentation symbolique. Celle-ci lui permet d’écrire avec seulement quelques lettres tout ce qui peut être écrit ou avec quelques chiffres de calculer tout ce qui peut être calculé.
  • Le langage humain possède une capacité de communication combinatoire. C’est ce qu’on appelle “faire de l’infini avec du fini”. Nous disposons d’un petit jeu de symboles,mais leur possibilités de combinaisons sont tellement grandes que, par le biais du langage, on peut évoquer un nombre potentiellement infini de situations dans le monde extérieur.
  • Le lexique des chiens peut atteindre plusieurs centaines de mots, et certains singes ont appris des dizaines de symboles ou des gestes. Mais ce qui leur manque, c’est la syntaxe, cet arrangement des mots les uns par rappport aux autres dans un ordre bien précis, avec une structure organisée et qui fait sens. C’est exactement là que se situe la singularité de l’espèce humaine. On n’a jamais pu montrer que des animaux étaient capables d’utiliser l’ordre des mots en les combinant différemment pour en modifier le sens.
  • Derrière la surface des langues humaines, qui sont toutes un peu différentes, l’esprit humain est contraint génétiquement, en sorte qu’il n’existe qu’un espace limité de combinaisons possibles. Toutes les grammaires humaines, toutes les langues humaines obéissent au même patron général. Seuls quelques paramètres varient et définissent les différentes langues.
  • L’intelligence est la capacité de s’adapter au monde extérieur. Il faut donc apprendre les paramètres de ce monde. Mais tout ne doit pas être appris. Il faut être clair : l’évolution nous a dotés de circuits innés, et le cerveau de l’enfant est déjà très organisé à la naissance. L’intelligence naît donc d’une combinaison d’a priori venus de fond des âges, et d’une fraction de données, laissées à l’appentissage, qui nous permettent de nous adapter à un milieu spécifique.
  • La taille de la boîte crânienne est limitée et, pour obtenir une plus grande surface de cortex, il faut que le système se plisse. C’est probablement ainsi que l’on a pu augmenter le nombre de nos neuronnes. Mais les plus présentent un autre avantage : ils rapprochent les surfaces, ce qui permet de minimiser la longueur des connexions. Par rapport à un ordinateur, le cerveau est tout de même extraordinaire. Une organse qui dispose de quatre-vingts milliards de neuronnes, donc quatre-vingts milliards de processeurs, si l’on considère que chaque neurone est une sorte de processeur … mais compactés dans un espace très restreint, et qui concomment seulement vingt watts ! A l’heure actuelle, en dépit des avancées de l’informatique, personne ne sait reproduire cette puissance de calcul sans consommer cent mille fois plus d’énergie.
  • Le cerveau du bébé sait qu’il va y avoir, dans le monde extérieur, des groupes qui comprennent un certain nombre d’objets. IL sait également ce qu’est un objet : une forme compacte, localisée dans l’espace, qui se déplace de façon continue. Il s’attend à voir des objets rigides et il a, quelque part, a connaissance implicite que deux objets ne peuvent pas occuper la même position dans l’espace, qu’ils ne peuvent pas s’interpénétrer. Ces connaissances sont comme des axiomes qiu vont présider à tout le reste des apprentissages.
  • Un bébé fait très tôt la distinction entre ce qui relève des relations de cause à effet physiques, des interactions entre les choses, et ce qui relève des personnes, de leurs intentions et de leur préférences. Il fait un tri entre les différents types d’objets et, surtout, entre les objets du monde physique et les personnes. L’un des critères dont se sert l’enfant est le déplacement, autonome ou pas, de l’objet : si ça se met en route seul, c’est un être animé, un animal, donc quelqu’un doué d’une intention. Dans ce cas, le bébé prête plus attention à l’intention qu’à la trajectoire physique.
  • QI : il s’agit d’un test ancien, dérivé de l’échelle de psychométrique créée par Alfred Binet en 1904 pour évaluer le retard mental. Ce test mesure certaines capacités d’abstraction du cerveau, mais certainement pas la totalité de ce que l’on appelle l’intelligence. Celle-ci est collective : elle émerge de toute une collection de système spécialités -reconnaître un visage, commande une action, faire attention à gauche.. Tous ces systèmes sont modulaires, donc si on voulait vraiment mesurer toute l’intelligence, il faudrait tester la compétence de chacun de ces systèmes qui sont extrêment nombreux. Ce n’est pas ce que fait le QI.
  • Le QI mesure l’aptitude à faire circuler l’informations et à adapter le fonctionnement cérébral à chaque problème particulier, posé pour la première fois. C’est une vision particulière de l’intelligence, pas la seule.
  • L’école débute assez tard. On est en train de découvrir, grâce notamment à l’imagerie cérébrale, à quel point, au cours des premiers mois de la vie, le cerveau est en bouillonnement. Il vit une phase d’apprentissage extraordinaire. Il a fallu mettre au point des méthodes ouvelles pour le voir, parce qu’à ce stade, le bébé ne produit pas grand chose : il ne bouge pas nécessaireemnt beaucoup et n’est pas capable d’articuler. Mais au niveau de la compréhension, c’est-à-dire de l’intégration du monde extérieur dans son propre cerveau, il se passe énormément de choses.
  • Les systèmes d’écriture ne cessent de se transformer. Chez les Romains, il n’y avait pas d’espace entre les mots. L’invention des espace a permis d’accèlérer énormément la vitesse de lecture, parce que nous pouvons désormais utiliser ntre propre système visuel pour décomposer le texte en objets.
  • La mémoire de travail, la mémoire immédiate, celle du numéro de téléphone que l’on oublie après l’avoir composé. Des expériences de psychologie démontrent que nous possédons tous environ quatre cases de mémoire, sans qu’il y ait de variations importantes d’une personne à l’autre. En revanche, nous apprenons à nous en servir, et c’est là que l’on trouve les plus grandes différences. La plupart d’entrenous parviennent à se servir de ces quatre cases de mémoire pour retenir à peu près sept chiffres quand on nous les récite dans le désordre.
  • On a trop tendance, dans le monde occidental, à attribuer les différences entre individus au fait qu’ils soient “doués” ou pas pour ceci ou cela. La recherche montre que la bonne question à se poser, c’est plutôt : “Est-ce qu’ils ont développé des stratégies efficaces ? Est-ce qu’ils se sont entraînés ou pas dans tel domaine ? Est-ce qu’ils ont travaillé ?”.
  • La prochaine évolution passera par les machines. Les interfaces cerveau/machine seront beaucoup plus efficaces. Notre espèce a déjà accompli un chemin considérable. Un écran d’ordinateur qui affiche de l’écriture, des graphiques, des photographies et des graphes mathématques augmente considérablement la bande passante avec laquelle notre cerveau peut intéragir avec la machine. Je pense que l’on sous-estime, dans les inventinos récentes de l’humanité, l’importance des diagrammes comme ceux qui,d ans le journal, nous montrent l’évolution du chômage et ou coût de la vie. C’est une remarquable utilisation de notre système visuel pour faire passer des milliers de données. D’un simple coup d’oeil, on écarte les données erronées, on saisit les tendances, on comprend dans quel sens elles évoluent, et on partvient à extrapoler au futur.
  • Le neurone artificiel de McCulloch et Pitts était très simple : il avait plusieurs entrées et une sortie binaire. Il calculait une somme pondérée de ses entrées, si la somme pondérée était positive, la sortie était 1, sinon ele était 0. Un réseau de neurones artificiels est une collection de ces neurones interconnectés entre eux, un peu à la manière des neruones du cerveau connectés entre eux par les synapses.
  • Le siège social de l’apprentissage dans le cerveau des animaux et des humains se situe dans la modification des connexions entre neurones, ce que l’on appelle les synapses. Ainsi, ce qui constitue notre savoir, notre mémoire, notre personnalité, etc. réside dans la force des connexions entre les neurones. Pas seulement le fait qu’un circuit soit là ou pas. Le poids des connexions est important. Certaines sont renforcées, d’autres moins, c’est comme cela que l’on apprend. Si deux neurones sont activés en même temps, la connexion qui les reli augmente son efficacité. Inversement, s’ils sont activés à contretemps, la connexions diminue son efficacité. L’efficacité correspond à la valeur du poids. Chacun de nos neuronnnes est connecté à des centaines, des milliers, ou des centaines de milliers d’autres neurones, et le calcul est plus compliqué qu’une simple somme pondérée suivie d’un seuile.
  • Franl Rosenblatt avait inventé une machine capable d’apprentissage dit “supervisé”, inspirée des théories de Hebb, McCuloch et Pitts, qu’il a appelée le Perceptron. C’est un ordinateur analogique très spécial qui se présente comme une grosse machine, une suite d’armoises, et ne calcule pas dut out comme les ordinateurs classiques. En réalité, le Perceptron comportait des neurones de McCulloch et Pitts qui calculaient des sommes pondérées en ajoutant des courants électriques passant à travers des résistances variables représentant les pondérations. C’était l’une des toutes premières machines capables d’apprentissage. Il devait “percevoir”, autrement dit reconnaître, des formes élémentaires. Et il a contribué à démarrer un nouveau champ d’investigation.
  • Au début la machine avait une sorte de rétine, composée d’une grille de cellules photo-électriques. On présentait une image simple à la machine, par exemple la lettre C peinte en blanc sur fond noir. L’image pouvait être vue comme un tableau de nombre : 1 lorsque la cellule photo-électrique voit du blanc, 0 quand elle voit du noir. Supposons que l’on ait décidé d’entraîner la machine à distinguer la lettre A de la lettre C, par exemple. Dans la version la plus simple du Perceptron, on aurait utlisé deux neurones de McCulloch et Pitts, un pour reconnaître les A et un pour les C. Pour savoir si l’image d’entrée contient un A ou un C, chacun des neurones calculait la somme pondrée de valeurs produites par les cellules photo-électriques. Pour que ça fonctionne, il fallait que les pondérations du neurone A constituent une sort ede pochoir pour la lettre A, et de même pour le neurone C. L’apprentissage du Perceptron consiste à modifier les pondérations après avoir montré à la machine une lettre 1 ou une lettre C.
  • L’apprentissage est une modification des pondérations. Comme dans le cerveau, où la modification dse efficacités synaptiques est le siège de l’apprentissage. Les réseaux de neurones artificiels modifient leurs pondérations. Chaque neurone naturel est connecté à des dizaines de milliers d’autres neurones et à chaque fraction de seconde se calcule une somme pondérée des activations de ces autres neurones. Lorsque la somme pondérée dépasse un certain seuil, le neurone s’active.
  • Comment créer un algortithme qui permette de calculer le chemin le plus court entre deux points ? NOus utilisons ça tous les jours sur nos smartphones. L’algorithme pour calculer cela n’est pas trivial. Quelqu’un l’a inventé. Avant qu’il soit inventé , le problème relevait de l’intelligence artificielle. Mais à partir du moment où l’on a trouvé un algorithme pour le résoudre, ça n’a plus fait partie de l’intelligence artificielle.
  • On ne connaît pas les limites de l’éducation. Hélas, sur le plan politique, il faut être réalise : éduquer, c’est prendre un risque. On le voit aujourd’hui aux Etat-Unis : mieux éduquer tous les citoyens n’est pas forcément dans l’intérêt d’un régime polique.
  • Un phénomène intéressant s’est manifesté : depuis que les machines jouent mieux que les humains, ceux-ci sont deenus meilleurs. Grâce à la possibilité de s’entraîner et d’apprendre avec le smachines, ils ont progressé. Par ailleurs, la combinaison humain/ordinateur reste imbattable, bien meilleure qu’un ordinateur seul.
  • Je me suis trouvé dans une situation passionnante : une quarantaine de personnes disputaient en même temps une partie contre un ancien champion de France. Celui-ci, bien sûr, ne passait pas plus de deux secondes avant de jouer un coup, et il a battu tout le monde à plate couture en quinze coups. Il s’agissait donc purement d’intuition. Il voyait l’échiquier et décidait en deux secondes. Il n’y avait plus aucun raisonnement conscient de sa part. Il avait intégré le jeu d’échecs dans son subconscient. Mais il aurait eu du mal à expliciter son raisonnement.
  • Les systèmes experts : ça consiste à s’asseoir avec un expert et le passer à la question. Pour le diagnostic médical par exemple on lui demande ce qu’il fait lorsqu’une personne vient le voir avec l’expression de certains symptômes. On réduit donc le processus de diagnostic à un ensemble de règles. Il applique ces règles dans certaines conditions, c’est-à-dire des faits observés, comme le problème ou la douleur que vient déclarer le patient. Il ne s’agit pas là d’un algorithme mais d’un ensemble de règles qui peuvent être appliquées dans le désordre.
  • Dans un système expert, il faut une sorte d’unité centrale qui interpète l’ensemble. On appelle ça un moteur d’inférence.
  • La limitation principale du Perceptron est qu’il ne comporte qu’une seule couche de neurnes dont le spondérations sont modifiables par apprentissage. Des images ou autres signaux pouvaient être prétraités par des opérations conçues “à la main”. Mais comme il n’y avait qu’une seule couche de poids adaptatifs, cela limitait la complexité des objets que le système pouvait percevoir. On ne pouvait que se limiter à des choses très simples, comme des caractères imprimés de fiable résolution et très peu de variations de style. Mais il était exclu d’identifier une table, une chaise ou un chien dans une photo. C’est ce handicap qui avait fait tomber le système en désuétude dans les années 1960.
  • C’est au cours des années 1980 que l’on a découvert des méthodes permettant d’entraîner des réseaux de neurones à couches multiples où toutes les pondérations et toutes les connexions étaient adaptatives. Cela n’a été possible que grâce à un algorithme particulier dit de rétropropagation de gradient.
  • L’algorithme de rétropropagation de gradient : imaginons la machine entraînable comme une boîte noire avec des boutons qui indiquent la force de la pondération entre les neurones. A l’entrée, il y avait une caméra, à la sortie une lampe. Supposons que la machine soit un système de sécurité pour les voitures et que la lampe doive s’allumer si on lui montre une image de piéton. Il est en effet utile de disposer d’un système qui détecte un piéton dans son environnement et le signale. Pour cela on pouvait entraîner la machine en lui montrant des tas d’images sans piéton. Quand il y en avait un, on lui disait : “C’est un piéton, allume la lampe rouge.” Si elle ne l’allumait pas, il était nécessaire d’ajuster tous les boutons de réglage pour que la machine allume la lampe. Et il pouvait y avoir plusieurs dizaines de millions à ajuster. Voilà pourquoi, dans un réseau de neurones où les boutons correspondent aux pondérations des connexions entre neurones, nous avons dû trouver une méthode qui calcule très efficacement dans quel sens et de combien chaque bouton doit être tourné pour que la lampe s’allume plus ou moins. Cette méthode, c’est la rétropropagation de gradients, le gradient étant la liste de tous les déplacement des boutons, qui vont augmenter ou diminuer l’intetisté de la petite lumière rouge d’une quantité donnée. A chaque réprésentation de l’image, les pondérations sont ajustées un tout petit peu de manière à augmenter la lumière si l’image contient un piéton et à la diminuer sinon. Après quelques milliers ou millions d’images présentées plusieurs dizaines de fois, la machine a appris le concept de piéton et peut détecter n’importe quel piéton, y compris des piétons qu’elle n’a jamais vus.
  • Les réseaux convolutifs sont une manière particulière de connecter les neurones dans des réseaux compliqués à plusieurs couches afi de les adapter à la reconnaissance d’images.
  • Je pense qu’on l’on pourrait réduire un système intelligent à trois modules essentiels : un module de perception qui essaie d’esitmer l’état du monde à partir de ses perceptions ; un module agent, qui produit des actions et agit sur le monde ; un module objectif qui calcule si, d’une certaine manière, l’agent est dans un état “heureux” (satisfait) ou pas.
  • Si l’on accepte cette poposition des trois modules, on peut construire un système artificiel qui possède ces modules-là. Des émotinos existeront alors, qui seront le résultat d’anticipations de satisfaction ou de non-satisfaction des objectifs. Elles seront très similaires à ce qui se passe chez les humains om l’on a l’anticipation du bonheur qui provoque la joie ou l’anticipation du danger qui fait naître la peur.
  • Comprendre l’autre, ce n’est pas seulement écouter ce qu’il dit : c’est également ressentir ce qu’il veur dire, parfois même ce qu’il ne veut pas dire. L’émotion est aussi un véhicule de communication et elle fait partie intégrante de l’intelligence. Or les ordinateurs sont sans coeur.
  • Les bébés n’ont pas le sens de la permnance des objets et ne savent pas que si on cache un objet derrière un autre, il est toujours là. Ils ignorent aussi que si un objet n’est pas soutenu, il tombe. Si le bébé prête attetion à une situation, c’est que celle-ci viole son moèdle du monde. Il apprend la physique intuitive, certes, mais il apprend aussi que les adultes vont le ramasser et le lui redonner ! Il comprend ainsi qu’il détient une influence sur le monde ! En tout cas, la capacité à prédire est nécessaire face à une situation compliquée, ne serait-ce que pour planifier un mouvement. Si l’on veut saisir un objet placé derrière une autre, il faut contourner. Ca, c’est préduire en utilisant un modèle du monde. Puis on planifie une séquence d’actions qui va satisfaire ces objectifs. Pour cela, il faut un module qui essaie de prédire ce qui va se passer et calcule le bénéfice ou l’inconvénient des conséqunces sur le monde.
  • Si on essaie de voir comment se répartissent les différents modules dans le cerveau, on voit que le module “objectif” est une petite fonction à la base du cerveau qui crée notre motivation et calcule nos émotions. Une part, beaucoupp plus complexe, est entraînée par l’éducatino. Par contre, la partie qui héberge la prise de décision et la prédiction se situe à l’avant du cerveau. Le néocortex préfrontal contient les fonctions de prédiction et de calcul des actions à mener, dans ce que l’on appelle la partie exécutive.
  • L’échec, une prédiction qui ne s’est pas réalisée, peut enrayer le fonctionnement de l’humain par la production de certaines molécules. Or l’ordinateur n’a pas de fonctionnement chimique.
  • L’apprentissage par renforcement : il s’agit d’un mécanisme dans lequel on laisse la machine agir pour produire une répondre. Ensuite, on lui dit “C’était bon” ou “Ce n’était pas bon”. L’ordinateur peut entraîner directement un module à produire des actions qui vont maximiser les renforcements positifs.
  • Notre expérience de l’intelligence porte presque uniquement sur celle des humains : la nôtre, individuellement, et celle des autres avec qui on interagit. Nous ne considérons pas comme suffissamment intelligents pour prendre en compte les chiens, chats ou autres animaux. Nous n’arrivons pas vraiment à nous dire qu’une entité puisse être intelligente sans avoir toutes les qualités et tous les défauts des humains. Ainsi, nus avons du mal à imaginer qu’une intelligence, même supérieure, n’ait aucun désir de dominer ses congénères. Or, ce désir a été construit en certains d’entre nous par l’évolution, pour l’organisation de nos sociétés et la survie de notre espèce, à cause du fait que les humains ont besoni de ressources pour survivre. Plus on a de ressources et plus on a d’influence sur les autres et moins on a besoin d’aller chercher des ressources nous-mêmes. Il n’y a, par conséquent, aucune raison pour que ce désir de domination soit présent dans les systèmes d’intelligence artificielle ou chez les robots, sauf si on les construit explicitement dans ce but. Les scénarios à la Terminator, montrant les robots qui veulent absolument dominer l’humanité, ne tiennent pas. C’est une attitude qu’ils ne peuvent pas développer tout seuls, même par accident. Il faudrait qu’on les ait programmés pour cela. Ce n’est que la projection d’un fantasme.
  • Les machines doivent nous imiter jusqu’à un certain point. Nous allons devant leur enseigner des objectifs. Lorsqu’on élève un enfant, on doit lui apprendre à distinguer le bien du mal. Il faudra faire ça aussi avec les ordinateurs, pour que leurs valeurs soient alignées sur les nôtres et que nous puissions interagir agréablement avec eux. Ils doivent nous comprendre pour interagir agréablement avec nous.
  • Apprentissage adverse : Deux machines dans notre système intelligent. L’un apprend à prédire et l’autre à juger la prédiction. Ils s’entraînent l’un contre l’autre.
  • Je ne sais pas définir la conscience. Ni pour les machines ni pour les humains. Peut-être que notre modèle du monde doit inclure un modèle de nous-mêmes. On ne peut avoir des millions de modèles du monde, notre cerveau n’eys pas assez grand. Nous avons donc probalement un modèle unique, que nous configurons pour chaque nouvelle situation. En intelligence artificielle, on est encore très loin de tout ça.
  • On ne sait pas comment formuler le problème de l’apprentissage de manière que l’on puisse dire à la machine : “Voilà ce qui s’est passé, la réponse que tu as donné ne correspond pas à ce s’est produit mais ta réponse n’est pas fausse”.
  • La recherche en neurosciences le montre : faire la synthèse de nombreuses informations est un aspect très important du traitement conscient dans notre cerveau. Rassembler les informations et être capable de les intégrer, qu’elle que soit leur provenance, constitue une des difficultés majeures de l’intelligence artificielle actuelle. On sait réaliser des systèmes très spécialisés qui jouent au go ou savent reconnaître des visages. Mais la difficulté consiste à les intégrer dans un système unique, capable d’exécuter plusieurs tâches. Or, cet aspect “multitâches” me paraît fondamental, parce qu’il est caractéristique du cerveau humain. Nous sommes extraordinairement flexibles et je crois que cela caractérise notre intelligence. Très rapideemnt nous sommes capables de nous adapter à une situation nouvelle sans avoir besoin de millions d’essais d’apprentissage. QUand on entraîne des singes, on s’aperçoit qu’il leur faut parfois des milliers d’essais avant de comprendre ce qu’on veut leur enseigner. Pour reproduire l’inteliligence humaine, il faudrai concevoir un système qui se configure tout seul.
  • La théorie de Yann Lecun est que, située dans le cortex frontal, se toruve une sorte de machine que l’on peut configurer pour chaque situation particulière. Nous disposons d’un modèle du monde, une espèce de physique intuitide qui nous permet de prévoir a priori les conséquences d’un acte et donc de planifier la séquence d’actions nous menant à cet objectif. Il est possible que nous ayons un modèle du monde configurable dans le cortex préfrontal qui nous permette de faire face à une situation mais nous n’en avons qu’un seul. C’est donc le même module qui doit être réutilisé pour chaque nouvelle situation. Cela explique aussi qu’on ne puisse faire, consciemment, qu’une seule chose à la fois. Ce module configurable est peut-être spécifique de l’intelligence humaine.
  • Il faut pouvoir router l’information pour l’envoyer dans les bons processeurs. La conscience correspond à un système de deuxième niveau qui permet de dépassr le fonctionnement en moudles : à ce niveau, notre cerveau parvient àf aire circuler n’importe quelle information sur lui même, ce qu’on appelle “instrospection”. Nous devons disposer d’une sorte de catalogue mental de ce que nous savons faire, et de ce que contiennent les modules. Ce catalogue doit être assez raffiné pour savoir non seulement ce qu’un système sait faire, mais en combien de temps et avec quelle probabilité d’erreur. C’est essentiel à la flexibilité.
  • Il faut noter que l’apprentissage humain se fait, lui, avec très peu d’essais. Ce qui me frappe actuellement dans les algorithmes, c’est la quantité effroyable de données qu’il faut fournir au système pour qu’il en tire des conclusions.
  • Les bébés disposent de compétences précoces, probablement non apprises ou, en tout cas, acquises avec très peu d’apprentissage. Dès la naissance, leur cerveau possède une architecture précâblée, organisée, supérieur à ce que je crois voir dans les systèmes actuels d’intelligence artificielle. Lorsqu’on fait une IRM du cerveau des petits enfants, on ne voit absoluement pas un paquet de connexions organisé au hasard, où tout serait connecté avec tout. On découvre au contraire un réseau extraordinatement organisé. Les aires propres à chaque modélité, visuelle, auditive ou tactile, sont déjà là. De plus, elles sont déjà interconnectées. Tous les grands faisceaux de connexions sont en place. Il y a, par exemple, un réseau particulier pour le langage qui est déjà spécifique : si on fait écouter à un tout petit enfant sa langue maternelle, les informations auditives sont canalisées vers ce réseau bien précis, le même que chez l’adulte, et pas vers l’ensemble du cerveau. Il me semble que la composante innée est un peu sous-estimée dans les réseaux actuels d’intelligence artificielle.
  • Une partie des travaux faits en deep learning consiste à imaginer des architectures de réseaux, un peu similaires aux grands faisceaux de connexions dans le cerveau. Et cela, à un niveau encore un peu plus fin : en différenciant les aires du cortex visuel.
  • Certains détails biologiques importants n’ont été compris que très recemment, comme le principe des plumes terminales, au bout des ailes, qui a été intégré aux avions parce que ça leur fait économiser du cerburant et leur donne une meilleure stabilité en vol. En intelligence artificielle, ce type de biomimétisme ne fait que commencer. Il faut s’astraire des détails biologiques mais, en même temps, étudier certains aspects qui n’ont pas été bien compris et dont l’importance peut être cruciale.
  • Dans le couple humain/ordinateur les machines ont de moins en moins besoin de nous. Nous avons encore du mal à accepter l’idée qu’un jour les machines puissent vraiment nous égaler.
  • Il y aura une individualisation des machines qui sera liée à leur expérience. En sciences cognitives, on ne fait plus la distinctino entre cognition et émotion. Nous pensons que les émotions sont des calculs spécifiques qui ont évolué pour signaler des dangers ou des opportunités utiles à l’organisme. Il n’y a donc aucun raison de penser que l’intelligence émotionnelle soit exclue des machines.
  • Pourquoi notre cerveau accorde-t-il tant d’importance à la beauté, et les machines devraient-elles le faire aussi ?
  • Le jour où la machine aura une curiosité aussi large que l’espèce humaine, qu’elle aura envie, par exemple, de découvrir les régularités géométriques, de faire des mathématiques pures comme nous le faisons, je pense que l’on commencera à expliquer pourquoi nous sommes attirés par un tableau ou par un beau théorème.
  • La curiosité, pour une machine entraînée par l’apprentissage par renforcement, cela consiste à trouver un compromis entre l’exploitation et l’exploration. Je m’explique : vous allez déjeuner. Vous avez le choix entre restaurant habituel, que vous appréciez et dont vous connaissez bien la qualité -c’est l’exploitation, et un nouveau restaurant qui vient d’ouvrir et qui peut être meilleur ou moins bon -c’est l’exploration. Si vous n’explorez pas, vous ne saurez jamais si le nouveau restaureant n’est pas meilleur que votre restaurant habituel. Pour entraîner un système à faire n’importe quelle tâche, il y a toujours ce compromis à trouver pour lui permettre d’explorer des voies qui ne sont peut-être pas les meilleures, mais qui permettent de savoir s’il en existe une autre plus intéressante que la stratégie employée actuellement.
  • Je pense que le curseur, dans l’espèce humaine, est largement du côté “explorer” — et notamment chez l’enfant, qui ne cesse de jouer et d’explorer des idée nouvelles.
  • Les êtres humains sautent souvent un peu trop vite aux conclusions, sans avoir suffisamment mis leurs hypothèses à l’épreuve. Notre cerveau apprend tellement vitre que, parfois, sur la base de très peu d’informations, il tire des conclusions exagérées. NOus avons tendance à voir des causes cachées là où il n’y a que du hasard, parce que notre espace d’hypothèses est très orienté vers la causalité. Il dit : “Si j’ai une ou deux fois A suivi de B, il est possible que A soit la cause de B.” Et l’on colle des hypothèses erronées sur le monde extérieur.

Source: Artificial Intelligence on Medium

(Visited 12 times, 1 visits today)
Post a Comment

Newsletter