a

Lorem ipsum dolor sit amet, consectetur adicing elit ut ullamcorper. leo, eget euismod orci. Cum sociis natoque penati bus et magnis dis.Proin gravida nibh vel velit auctor aliquet. Leo, eget euismod orci. Cum sociis natoque penati bus et magnis dis.Proin gravida nibh vel velit auctor aliquet.

  /  Project   /  Blog: Qu’est-ce qu’on appelle intelligence artificielle ?

Blog: Qu’est-ce qu’on appelle intelligence artificielle ?


Go to the profile of aristide

Jusqu’où l’IA peut-elle progresser ? Peut-elle devenir un super saiyan ? Et doit-elle le devenir ?

Pourra-t-on alors coopérer main dans la main ? Nous, poussières d’étoiles, sera-on à la hauteur des IA ou à leur merci ?

Quelles seront alors leurs exigences à notre égard ?

Une IA hostile est-elle inéluctable ? Faut-il prévoir un système d’arrêt d’urgence ? Quels pourraient être les raisons de cette hostilité ?

Faut-il repenser nos principes pour l’IA ? Principes qu’on ne respecte, nous même, pas toujours.

Faut-il de ce fait essayer d’inculquer nos valeurs à l’IA ?

Que veut-on faire et où veut-on aller avec elle ? Mais surtout, aura-t-elle un jour ses propres désirs ?

Tant de questions sans réponses, à une époque où les systèmes intelligents émergent dans les foyers comme des champignons. Et, non sans corrélation, où le terme Intelligence artificielle se démocratise à tout va.

Claude Shannon étant l’inventeur de la Useless machine, cette boîte qui lorsque vous l’activez s’éteint automatiquement

L’intelligence artificielle quesako ?

Il était une fois 1956, une époque où on lavait son linge dans la rivière sans vergogne sur un décor de guerre froide.

Dans ce tohu-bohu, quelques chercheurs foldingos (John McCarthy, Claude Shannon, Nathaniel Rochester et Marvin Minsky entre autres), ont évoqué pour la première fois le terme d’intelligence artificielle durant une conférence au Dartmouth College.

Ecole connue, non pas par son nombre d’élève (environ 5000 contre 20000 dans une université comme Lille), mais du fait de son ancienneté. L’une des plus anciens établissements d’enseignement supérieur américain. Ce qui lui vaudra son apparition dans Le Parrain, école où étudie Michael Corleone. Bref.

L’objet de ce séminaire est alors de lancer des recherches pour

  • comprendre l’intelligence
  • la simuler via une machine

Autrement dit, reproduire avec une machine le fonctionnement du cerveau caractérisé par les fonctions cognitives.

Ce faisant, le terme Intelligence Artificielle, putaclic au demeurant mais pleinement assumé, a pour vocation à ce moment de susciter l’attention d’autres scientifiques ou tout zouave avide de curiosité. Un vulgaire nom “marketing” qui restera.

Une question constitue alors le point névralgique de ces recherches : qu’est-ce que l’intelligence ?

Partie 1 : Commençons par le commencement

1956, Alan Turing apporte sa pierre à l’édifice en publiant un article intitulé Computing Machinery and Intelligence. Selon lui, simuler l’intelligence humaine dans un programme est peine perdu car l’intelligence humaine est bien trop complexe. Cedit programme serait alors beaucoup trop long à écrire et nécessiterait beaucoup trop d’individus.

Pour ce faire une meilleure solution serait de simuler le cerveau d’un enfant puis le faire évoluer jusqu’à obtenir un cerveau d’adulte. C’est ainsi qu’est née le concept de machine learning.

Même année, le programme Logic Theorist créé par Herbert Simon et Allen Newell, réalise tout seul des démonstrations de théorèmes mathématiques.

1957, le psychologue Frank Rosenblatt invente le premier programme d’apprentissage grâce à un réseau de neurones : le perceptron.

1958, John McCarthy (l’un des gus de la conférence de Darmouth) créé le langage informatique LISP afin de faciliter la programmation d’IA.

1959, Herbert Simon et Allen Newell inventent le General Problem Solver, une stratégie de résolution de problèmes utilisée par la suite en IA.

1965, Joseph Weizenbaum développe le programme informatique ELIZA, il remplace le psychoteurapeute pendant les entretiens thérapeutique.

J’en passe et des meilleurs, bref, ça ne chôme pas.

Mais pendant que la première émission TV en couleur est diffusée en France et que De Gaulle démissionne, la fin de années 60 marque un temps d’arrêt en IA.

Les quatres mousquetaires -à l’origine de cette pagaille autour de l’IA- réalisent que quelques milliers de lignes de codes et quelques millions de dollars ne suffisent pas pour égaler le cerveau humain. Il leur faut pour ce faire des machines capablent de d’exécuter davantage d’opérations à la seconde. Ce qu’ils n’ont pas.

De ce fait, les objectifs ne sont pas atteints. Les financements extérieures se font rare. C’est l’hiver de l’intelligence artificielle.

Les premières questions éthiques émergent, et avec elles les premiers reproches. Hubert Dreyfus publie en 1965 Alchemy and Artificial Intelligence, un papier critique envers les recherches sur l’intelligence artificielle. Dénonçant l’absence des émotions dans les recherches.

Cette sombre période permet de remettre en question les projets et objectifs.

C’est seulement dans la fin des années 1990 et la victoire française à la coupe du monde que l’avènement de la technologie permet l’application des recherches et donc a fortiori de nouvelles avancées significatives.

1997, le champion d’échecs Garry Kasparov est battu par le superordinateur Deep Blue d’IBM parce qu’il pouvait évaluer des millions de coups par seconde et ainsi avoir des coups d’avance. Un événement qui montre que l’IA peut être plus performante que l’homme dans un contexte donné.

C’est aussi à ce moment que le français Yann Lecun fera avancer ce qu’on appelle le Deep Learning. Le machine learning permet à une machine d’adapter ses comportements en se fondant sur l’analyse des données à sa disposition. Un algorithme peut ainsi apprendre à parler en commençant par dire n’importe quoi, puis en apprenant que des mots nee s’associent pas et vice versa.

Le deep learning est une branche du machine learning

2005, le robot Stanley, construit à l’université Stanford, remporte le challenge “DARPA Grand Challenge” en conduisant de manière autonome pendant plus de 270 km dans le désert sans connaissance au préalable du terrain.

2011, le programme Watson d’IBM remporte le jeu télévisé américain Jeopardy (homologue de questions pour un champion en France).

2016, alphago gagne contre lusidoy

Finalement, force est de constater que depuis 1956, l’IA n’a fait aucune avancée significative dans la compréhension de l’intelligence. Les avancées se résument au développement de méthodes pour simuler l’intelligence sans la comprendre.

Partie 2 : Où en est-on ?

L’intelligence artificielle constitue une discipline à part entière, c’est essentiellement pour deux raisons :

1. Multidisciplinarité

Philosophie : dès Aristote (384–322 av. J.-C) en formulant un principe selon lequel on peut tirer des conclusions à partir des prémisses initiales. Raymond Lulle, Pascal, Leibniz, Léonard de Vinci, Descartes, etc. Ainsi est formulée l’idée qu’un esprit puisse être considéré comme une machine. Qu’il fonctionne selon des règles logiques.

Mathématique : où l’art d’avoir formalisé des énoncés philosophiques à travers trois disciplines : la logique (la logique propositionnelle de Boole, 1847. Développé ensuite par Frege, 1879), le calcul et les probabilités.

Economie : maximiser les gains lors de la prise de décision. La théorie de la décision pour les grandes économies et la théorie des jeux pour les petites économies.

Informatique : où la puissance des ordinateurs, leur faible coût ainsi que leur rapidité a permis l’application de l’IA. Du premier calculateur électronique Heat Robinson d’Alan Turing en 1940 à l’ENIAC principal précurseur des ordinateurs modernes en passant le Z-3, le premier ordinateur programmable, l’ABC le premier ordinateur électronique. Non sans mal, l’évolution en informatique témoigne d’une accélération plus générale de la société et d’un progrès technique, scientifique et humain certain.

Sans parler des neurosciences, de la psychologie, etc.

C’est pourquoi l’intelligence artificielle relève d’une complexité insoupçonnée. Il est difficile pour un spécialiste de disposer de connaissances solides dans des domains transversaux. C’est pourtant ce qui caractérise la pensée humaine, et ce qui est indissociable du raisonnement : la capacité à relier les points.

2. Nature

L’intelligence artificielle constitue à la fois la recherche de la compréhension et de la création d’une intelligence.

En ce qui concerne la partie créative, il en vient de se demander sur quelle définition de l’intelligence faut-il se baser. L’intelligence humaine ou un concept idéal de l’intelligence ?

Stuart Russell explique dans son livre (Artificial Intelligence a modern approach) que le test de Turing a permis de mettre en évidence des caractéristiques sur lesquelles une machine doit être jugée pour être considéré comme intelligente. A savoir :

  • le traitement du langage naturel
  • la représentation des connaissances
  • le raisonnement automatisé
  • l’apprentissage
  • une vision artificielle
  • la robotique

Ce test a aussi le mérite de nous montrer, qu’à l’image des frères Wright, il est nécessaire de cesser de chercher à imiter une intelligence en vue d’en construire une.

Force est d’admettre que les choses a priori simples pour un humain ne le sont pas forcément pour une machine (reconnaître une girafe sur une photo, par exemple). A contrario, ce qui est difficile pour un humain s’est avéré simple pour une machine (gagner aux échecs). L’intelligence artificielle a besoin des données exemples sur lesquelles s’appuyer.

Par exemple, Google se sert de ses utilisateurs pour étiqueter ses images via les captchas. Grâce à ce travail, le géant américain a pu entraîner ses algorithmes à la reconnaissance de caractères ou d’images. Le fruit de ce travail est directement lié à des services tels que Google Images ou Google Books.

« Un enfant comprend vite que lorsque sa maman se cache derrière un rideau, elle existe toujours. La machine ne comprend pas. Il lui manque encore le sens commun », explique Yann LeCun

Cette intelligence artificielle est dite «faible».

Une IA fait ce qu’on attend d’elle uniquement si on fait en sorte que ça soit le cas. Elle peut donc paraître très intelligente, mais un jour il sera difficile d’identifier le travestissement d’un IA (Cf la chambre chinoise).

Au regard des recherches, on distingue les machines capable de rendre des services aux humains en simulant l’intelligence humaine, c’est ce qu’on appelle l’IA faible. D’autre part, les machines dotées de ce qui pourrait se rapprocher d’une conscience seront alors des IA dites fortes.

Ainsi, on peut dire, qu’à la différence d’un IA forte, une IA faible interagit dans un cadre prédéfini.

Partie 3 : AI is watching you

Les algorithmes de Youtube, Twitter, Facebook et Netflix décident de ce que nous lisons et regardons, Tinder se chargent de trouver notre âme soeur, Linkedin notre emploi, Parcoursup nos études, Uber de notre bouff, les machines remplacent les caissières dans les supermarchés, une voix artificielle répond à nos questions, etc.

Le projet Deep Learning de Google peut diagnostiquer un cancer plus vite que les oncologues.

Watson d’IBM a établi un nouveau diagnostic d’une forme rare de leucémie et proposé un traitement qui s’est avéré efficace.

Des sites comme The North Face utilisent des algorithmes pour faire des offres personnalisées afin d’augmenter la valeur du panier moyen. McDonald’s utilise un bot dans ses Drive pour prendre les commandes et ainsi accroître son efficacité.

J’en passe et des meilleurs.

Le constat est sans équivoque, les machines ont déjà envahi notre quotidien sans que ça nous pose problème plus que ça parce qu’elles nous rendent service.

Bien sûr nous avons encore le choix de choisir ce qu’on regarde sur Netflix ou Youtube, ce qu’on mange ou la fille qu’on souhaite rencontrer, mais un premier filtre a été opéré contre notre gré, et par des machines paramétrées par des entités avec pour objectif de générer du biff.

Si je souhaite regarder un documentaire sur Netflix, ce dernier me proposera ce qui lui semble bon. Il ne me reste plus qu’à croiser les doigts que les intentions d’une géant américain vont en mon sens.

Qu’est-ce qu’avoir du choix dans ces circonstances ? Si ce n’est choisir parmi une sélection arbitraire selon les convictions d’un tier qui, un jour, en saura plus sur moi, que moi même. De quoi m’influencer sans même que je m’en rende compte, en somme.

Il est important d’avoir conscience de ce biais parce que notre réflexe naturel face à l’inconnu est d’angoisser ou fantasmer. Or à ce jour, l’IA est perfectible, on la remarque, mais l’idée à terme est qu’elle devienne indiscernable. Et quand quelque chose fonctionne correctement on ne le remarque pas.

“Les grands acteurs et architectes sont les leaders entrepreneuriaux à la tête des empires que sont Google, Apple, Facebook, Amazon, rejoints par Microsoft, et leurs homologues asiatiques Baidu, Alibaba, Tencent et Xiaomi. Les consommateurs -nous-mêmes- sont les idiots utile de l’IA. Nous alimentons la machine numérique de demain, sans en avoir conscience.” La guerre des intelligences

Au regarde du passé, nous avons de bonnes raisons de croire que les motivations de ceux qui détiennent le pouvoir n’est pas toujours bienveillante à noter égard.

L’IA change les règles du jeu. C’est pourquoi, armé d’une bite et d’un couteau, s’interroger sur l’avenir est plus que jamais d’actualité.

Ce qu’on fait chaque jour détermine notre avenir. Ainsi, les grandes lignes de notre avenir sont déjà tracées à condition de bien vouloir ouvrir les yeux.

Partie 4.1 : Demain, le soleil vert

A en croire Google Images, Ray Kurweil, et son sourire en coin, donne l’impression d’être un brave loustic. C’est en tout cas ce que doivent penser les pères Larry Page et Sergey Brin pour l’avoir engagé comme pronostiqueur d’avenir, aka gouru transhumaniste, chez Google.

Selon lui, se produira avant 2050 la singularité. Autrement dit, l’apparition d’un Intelligence dotée d’une conscience.

“Dans environ quinze ans, Google fournira des réponses à vos questions avant même que vous le les posiez. Google vous connaîtra mieux que votre compagne ou compagnon, mieux que vous même probablement.” Ray Kurzweil

Elon Musk, Bill GAtes, Stephen Hawking, Nick Bostrom, entre autres, estiment que l’impact à court terme de l’IA dépend de qui la contrôle, tandis que l’impact à long terme dépend à ce qu’elle soit contrôlée”. Les machines vont prendre des décisions qui ne sauront pas les nôtres, mais les leurs. Elle aura une volonté, elle sera autonome.

Arguments en faveur de l’IA :

  • Les machines ne manquent pas de créativité. Des algorithmes ont généré des poèmes suffisamment bon pour tromper l’humain lorsqu’on le défis d’identifier parmi deux poèmes celui généré par une machine (Oscar Schwartz, Can a computer write poetry?)
  • Les machines font aussi des erreurs, en cause par exemple un problème matériel
  • Les machines n’ont pas de conscience, mais les humains ne peuvent pas prouver qu’ils en ont une. Nous suivons des instructions et celles-ci forment ce qu’on pourrait appeler un programme
  • Les machines nous disent déjà quoi faire, avec qui et comment

Stuart russel dans un conférence TED (3 principles for creating safer AI) essaie de redéfinir les principes d’asimov pour une IA plus sécurisée :

  1. altruisme : l’objectif de la machine est de tout mettre en oeuvre pour pour faire que les objectifs humains soient atteints. Le robot ne doit pas protéger sa propre existence, comme stipulé par Asimov
  2. humilité : il ignore les valeurs humaines, de ce fait, il doit faire preuve d’humilité pour ne pas rendre la bonne réalisation de l’objectif humain obsessionnelle au point de devenir dangereux
  3. désirs : il doit avoir connaissance de nos désirs

“L’IA va nous aider à faire des bonds inimaginables dans notre compréhension du monde … mais seulement si nous autorisons les algorithmes à apprendre par eux-mêmes” Demis Hassabis (DeepMind)

Permettre à l’IA de penser autrement, d’explorer le monde avec d’autres schémas cognitifs, c’est accepter que l’IA devienne forte et potentiellement hostile.

Les progrès dépassent souvent les prédictions des spécialistes pour de multiples raisons :

  • notre cerveau est toujours en mode survie. Il a du mal à concevoir quelque chose qui n’existe pas ou paraît déraisonné compte tenu de la situation actuelle
  • la projection sur l’avenir peut remettre en cause notre position et a fortiori effrayer
  • le futur peut aller à l’encontre de nos convictions
  • les avancées vont tambour battant ou sont freinées
  • etc

Pour qu’on daigne l’imaginer et s’y projeter, le progrès doit formuler un avenir désirable et paraître crédible.

Quand on voit le programme AlphaGo battre à plate couture un humain en utilisant un nouveau coup, nous avons de bonnes raisons de penser que nos modèles mentaux sont à mettre sérieusement à jour.

Le progrès, à la différence de notre cerveau, n’est pas linéaire.

Croire au progrès c’est considéré que ce qui ne va pas n’est jamais condamnée à ne pas aller. Ce qui ne va pas constitue une base sur laquelle travailler pour faire mieux.

Pour ce faire, il paraît essentiel de savoir ce qui est bien et mal ? Or ces notions sont subjectives. Comme le montre l’Histoire, chacun a son point de vue.

Partie 4.2 : Demain : Ethiques

Un assistant vocal doit-il alerter les services compétents en cas de suspicion de violences conjugales dans un foyer ? Les GAFA s’interrogent sérieusement.

En cas d’accident impliquant une voiture autonome, qui est tenu pour responsable, le constructeur automobile ? Le prestataire informatique ?

L’IA doit-elle par ailleurs prioriser les enfants, le statut social, le nombre de personnes, leur espérance de vie ?

L’idée de Mark Zuckeberg est que ses utilisateurs communiquent de cerveau à cerveau via des casques télépathiques, sans smartphones ou ordinateur. Une nouvelle façon de communiquer plus rapide qui pourrait bouleverser l’éducation et le monde du travail.

Se poseront alors des questions relatives à l’intimité. Jusqu’à quel point une machine pourra lire dans les pensées ? Pour quelles raisons ? Dans quel contexte ? De nouvelles règles seront à inventer, la liberté individuelle à repenser.

Ces questions constitue nerf de la guerre dans ces réflexions. La responsabilité de l’homme est à redéfinir.

Et, si l’IA de microsoft Tay a dérapé sur Twitter parce que des utilisateurs se sont amusées à lui apprendre de mauvaises choses, il y a forte à parier que ce ne sera pas toujours aussi facile d’éteindre une IA. D’où l’urgence de la situation.

Partie 4.3 : Demain : Travail

Le danger de domination ne provient pas de la machine mais de ceux qui feraient croire que la machine pourrait un jour dominer ou remplacer l’Homme.

Tout laisse présager que l’IA divise la population. L’écart entre ceux qui ont les compétences (ou la détermination ) pour travailler avec la data s’agrandit. Sans parler de la partie de la population qui ignore l’existence même du sujet de l’IA.

Ne pas avoir envie de devenir “data scientist” (bien que le terme soit galvaudé) est une chose, ignorer l’existence même des problématiques liées aux données en est une autre.

C’est pourquoi acquérir un état d’esprit entrepreneurial devient vital. Même le métier de codeur, tel qu’on le connaît, devrait disparaître dans quelques dizaines d’années. Un métier qu’on estimait d’avenir.

Une bonne partie du travail existant tend à être automatisé, ce qui par conséquent fera naître de nouveaux emplois, comme ça c’est déjà vu dans l’histoire. Et, sont tout autant concernés les emplois sans qualification préalable, tout comme les radiologues.

A terme, tous les postes que nous occupons aujourd’hui pourront être remplacés par une machine.

Le travail tel qu’on le connaît nous propose un lieu, un horaire et une mission. Aujourd’hui cette notion du travail tend déjà vers plus de travail à distance et sans contrainte d’horaire.

Les entreprises trop lentes dans leurs prises de décisions risquent de se faire disrupter par des services tiers, moins coûteux et plus efficace.

Les grosses nouvelle entreprises (Uber, Facebook, Airbnb, Alibaba, etc) ont tous un dénominateur commun : l’absence de bien physique. Elles proposent des interfaces pour mettre en relation des consommateurs et des désirs. Uber n’a pas de véhicules, Airbnb aucun appartement, Alibaba aucun stock, Facebook pas de contenu.

La connexion directe entre cerveau et la machine se rapprochent. Le travail risque d’évoluer vers l’indépendance.

“Il va être de plus en plus difficile pour un être humain d’apporter une contribution productive à la société” Sébastien Thrun, inventeur de la Google Car dans The Economist

Partie 4.4 : Demain : Tout le monde est concerné

Le deep learning a besoin de million de photos de crottins de cheval pour capter qu’il s’agit de la bouse, là où on a juste besoin de quelques photos. L’intelligence humaine, elle, peut faire énormément de choses : raisonner, communiquer, manipuler des concepts, etc. Une IA qui reconnaît un crottin dans une image ne comprend ce qu’elle a identifié.

Voilà pourquoi les GAFA, entre autres, ont un temps d’avance. Ce sont les données qui déterminent la quantité d’IA que nous produisons. Et, nombre de startup en Europe ne produisent pas d’IA mais en consomment.

Le budget de ceux qui produisent de l’IA est faramineux comparé à un pays comme la France, jadis réputé pour la qualité de ses recherches. La France prend du retard, l’Europe est-elle déjà hors compétition ? La bataille de l’IA se joue-t-elle entre les GAFA et les BATX (voire les NATU : Netflix, Airbnb, Tesla, Uber))?

Neuralink d’Elon Musk propose une puce implante permettant la connexion symbiotique directe entre le cerveau et l’IA. Zuckerberg a lancé building height pur mettre des interfaces directes entre le cerveau et la machine. L’idée étant par exemple de téléchargement des livres dans le cerveau.

Gary Kasparov explique qu’un joueur d’échec moyen en très bonne communication avec une machine moyenne battent une machine très bonne en communication moyenne avec un très bon humain. Les interfaces jouent un rôle crucial.

Le constat est sans équivoque : Les interfaces évoluent au point de raccourcir la distance entre notre cerveau et la machine.

“L’Homme devrait pouvoir faire ce que seuls les dieux étaient supposés pouvoir faire : créer la vie, modifier son génome, reprogrammer son cerveau, conquérir le cosmos et euthanasier la mort.” La guerre des intelligence

Google Glass, Google Lens … L’ensemble des technologies que Google développe montre que leur souhaite est d’augmenter nos sens pour augmenter notre cerveau.

Quant à Elon Musk, il souhaite augmenter l’être humain par l’implant de puces en vue de pouvoir se défendre contre l’IA forte.

Bryan Johnson a fondé Kernell, une société dont l’objectif est également de hacker notre cerveau.

L’israël, de par son attention portée sur la cybersécurité, faire des avancées significatives en matières de reconnaissances faciales. Les applications sont toutes trouvées dans l’analyse d’images des caméras de surveillances, par exemple. Des algos assistent déjà des agents de sécurité israéliens pour détecter des objectifs suspects.

L’état américain s’est associé avec des géants pour déployer des drones capables de reconnaître des individus recherchés.

La finance avec le trading, la gestion des flux urbains comme le transport ou l’énergie, la médecine, les objets interactifs, voitures autonomes, etc.

La technologie est neutre. Elle dépend de ce qu’on en fait.

Pour l’instant, du moins.

Source: Artificial Intelligence on Medium

(Visited 9 times, 1 visits today)
Post a Comment

Newsletter