Share Button
Les machines, aussi avancées soient-elles, n’ont pas grand chose à voir avec l’intelligence.

Selon Luc Julia, l’intelligence artificielle n’existe pas. 

Lors de l’événement GEN 2019 dont le BDM est partenaire, nous avons pu assister à l’allocution de Luc Julia sur l’IA. C’est un sujet qui le passionne : après avoir inventé Siri, l’assistant d’Apple, le vice-président mondial de l’innovation chez Samsung a publié un ouvrage intitulé « L’intelligence artificielle n’existe pas ». Il avance des arguments convaincants qui remettent en cause la notion même d’intelligence artificielle.

De la désillusion des années 50 à la victoire contre Garry Kasparov

L’intelligence artificielle, ou tout du moins ce qu’on désigne vulgairement comme de l’intelligence artificielle, n’est pas un phénomène nouveau. L’IA est apparue en 1956 : on a commencé à modéliser un neurone, estimant qu’on pourrait ensuite simuler un réseau de neurones, le tout étant capable de fonctionner comme un cerveau humain. On pensait alors être en mesure de créer une intelligence artificielle. Cela n’a pas fonctionné : les scientifiques se sont tout de suite attaqués à la compréhension du langage naturel (un domaine très complexe, encore aujourd’hui) et les résultats n’ont pas été au rendez-vous. On est alors entrés dans “l’hiver de l’IA” : les financements ont diminué, les investisseurs ont détourné le regard pendant quelques décennies.

Dans les années 90, les réseaux de neurones sont revenus à la mode avec le machine learning. Ces modèles fonctionnent sur des données, contrairement aux systèmes experts qui se basent sur des règles prédéfinies. La puissance de calcul s’est démultipliée, permettant aux programmes de reproduire des schémas basés sur des milliers d’exemples passés. Ces avancées ont abouti, en 1997, à la victoire d’une machine contre Kasparov aux échecs. On estime qu’il existe 10 puissance 50 coups aux échecs, et il “suffit” de trouver le chemin à partir d’une position pour gagner. Un humain n’est pas en mesure de modéliser autant de coups, Kasparov a logiquement perdu la partie. C’était une première médiatique, mais ça n’avait (déjà) rien à voir avec de l’intelligence.

La consommation d’électricité et de données en question

Dans les années 2000, Internet s’est démocratisé. Conséquence directe : on a pu accéder à de très nombreuses données, un carburant nécessaire à l’entraînement desdites intelligences artificielles. Sur Internet, il y a beaucoup d’images de chats et ces photos sont généralement annotées (« c’est mon chat »). Ces associations permettent d’entraîner les IA : des algorithmes de deep learning ont ainsi pu être validés avec ces images de chats et leurs légendes. Les machines étaient capables de “reconnaître” un chat avec 98% d’acuité, grâce à l’analyse d’une centaine de milliers de photos de chats.

Pourquoi cela n’a rien à voir avec de l’intelligence ? Parce qu’on estime qu’un enfant a besoin de voir deux chats pour être capable de les reconnaître à vie, avec près de 100% de réussite, même dans des conditions inhabituelles (de nuit, en peinture…).

Autre exemple : en 2016, une autre machine (Deep Mind) a battu le champion du monde de Go. Le Go est bien plus complexe que les échecs car ce jeu n’est pas mathématiquement fini. On ne connaît donc même pas le nombre de combinaisons (mais on sait qu’elles sont bien plus nombreuses qu’aux échecs). Pour arriver à cet exploit, inimaginable quelques années auparavant, il a fallu construire une machine ultra-puissante, composée de 1200 CPUs, 176 GPUs et plusieurs TPUs (tensor processing units, des puces conçues pour TensorFlow). Résultat : une consommation impressionnante de plus de 400 kWh – soit 20 000 fois plus qu’un cerveau humain, qui ne consomme que 20 Wh. Toute cette débauche d’énergie a été concentrée sur un seul objectif : maîtriser le jeu de Go. Cette machine ne sait rien faire d’autre ; le champion du monde de Go, lui, fait d’autres choses dans sa vie. Des arguments forts qui prouvent une fois de plus que ces algorithmes n’ont rien à voir avec de l’intelligence.

Les ratés et les limites de l’intelligence artificielle

Comparé à l’homme, la machine a d’autres limites et consomme une énergie démesurée pour effectuer des tâches plus ou moins équivalentes. Comme l’homme, elle n’est pas infaillible, mais cette imperfection ne correspond en rien à quelque humanité. La machine est imparfaite car ce sont des hommes qui l’ont conçue. On peut évidemment évoquer la fameuse histoire de Tay, le bot Twitter de Microsoft lancé en 2016 – et débranché 16 heures après. En seulement quelques heures, ce bot était devenu l’un des comptes les plus racistes et les plus misogynes du réseau social. Pourquoi ? Parce qu’un robot se base sur la donnée qu’on lui présente : dans ce cas précis, les réponses d’utilisateurs mal intentionnés sur Twitter combinées à un échantillon de base de données, rassemblant des conversations enregistrées dans le sud des USA, dans les années 50. Ces données biaisées ont abouti à la création de ce bot beaucoup trop énervé. Mais rien d’inexplicable n’est survenu : le programme a simplement apporté des réponses adaptées aux données précédemment analysées.

D’autres ratés peuvent être évoqués. Il y a quelques années, on nous annonçait que d’ici peu, les voitures autonomes rendraient obsolètes nos bonnes vieilles voitures. Les projections sont désormais moins enthousiastes. Luc Julia estime que “la voiture complètement autonome, capable de toujours prendre la bonne décision et tout faire toute seule, n’existera jamais”. Il propose de visualiser la place de l’Étoile à 18h, en ce vendredi de mouvement social à la RATP. À cette heure-ci, ce n’est plus de la conduite, c’est de la négociation. Il y a tellement de paramètres à prendre en compte qu’on risque rapidement de se retrouver bloqués dans nos voitures autonomes, qui n’oseront pas prendre les mêmes risques que nous. L’autre exemple qui réduit notre optimisme est directement transmis par Waymo, la filiale d’Alphabet dédiée aux voitures autonomes. C’est sans doute la société la plus avancée sur ce sujet, avec plus de 11 millions de miles parcourus. Mais même son PDG le reconnaît : la voiture autonome n’est pas prête pour nos routes. Les vidéos des voitures de Waymo qui parcourent les rues californiennes sont disponibles sur YouTube. On y trouve quelques pépites, comme cette voiture qui n’arrête pas de s’arrêter… car un piéton transporte un panneau Stop sur le trottoir. C’est un événement inhabituel, la machine ne l’a pas bien interprété car elle n’avait jamais été confrontée à cette situation. Depuis, les ingénieurs ont sans doute intégré cette possibilité dans les systèmes. Mais cet exemple montre que la machine ne s’adapte pas, contrairement à l’humain : seul ce dernier est en mesure de réagir lorsqu’il est confronté à une situation singulière, pour la première fois.

L’IA, de l’intelligence artificielle à l’intelligence augmentée

Luc Julia n’aime pas le terme d’intelligence artificielle et nous ne pouvons que lui donner raison sur ce point : les systèmes basés sur des données et des algorithmes de machine learning ou deep learning n’ont pas de conscience, ils font simplement des choix parfaitement logiques qui dépendent des données et des règles édictées par leurs concepteurs. Il préfère le terme d’intelligence augmentée : ces systèmes augmentent nos capacités, à nous les humains. Ils nous permettent de mieux faire, faire plus rapidement ou plus facilement, ce que nous faisions déjà avant. L’IA n’est pas magique, c’est l’homme qui la conçoit, qui la contrôle et qui décide.

L’homme est relativement moyen dans toutes ses actions ; alors qu’une intelligence artificielle ne peut qu’être experte d’un domaine très particulier (le jeu de Go, les échecs, la conduite…). Elle n’est pas multifonctionnelle. Elle exécute des tâches très précises, qui correspondent à des algorithmes écrits par des humains et un référentiel de données limité. Dans quelques années, il est vrai qu’il sera préférable d’être ramené au domicile par une voiture autonome plutôt que de conduire sous l’emprise de l’alcool. La machine peut être meilleure que l’humain, mais toujours dans des cas très précis.

Et surtout, la machine n’est pas en mesure de s’adapter au futur. Lorsque de nouveaux éléments seront inventés, lorsque notre écosystème évoluera, l’homme s’adaptera. La machine, elle, ne pourra “faire des choix” qu’en fonction de données anciennes qui ne seront pas toujours cohérentes avec cette nouvelle donne. L’IA n’invente pas. Elle peut faire des erreurs lorsque les humains qui écrivent ses algorithmes et lui transmettent des données en font. Les choix des machines sont tous explicables mathématiquement, même si parfois cela prend du temps. On ne peut donc décemment pas parler d’intelligence. Les machines n’ont pas de conscience et ne peuvent pas s’adapter aux situations futures, une faculté propre à l’humanité.

Sur le même sujet, nous vous conseillons l’interview d’Églantine Schmitt : « il n’y a pas une once d’intelligence dans ce que font les machines ».

Share Button

En continuant à utiliser le site, vous acceptez l’utilisation des cookies. Plus d’informations

Les paramètres des cookies sur ce site sont définis sur « accepter les cookies » pour vous offrir la meilleure expérience de navigation possible. Si vous continuez à utiliser ce site sans changer vos paramètres de cookies ou si vous cliquez sur "Accepter" ci-dessous, vous consentez à cela.

Fermer