Deux ouvrages remarquables et très complémentaires livrent leur vison de l’intelligence artificielle, l’IA. Tous deux sont écrits par des auteurs particulièrement compétents en ce domaine et leurs conclusions se rejoignent sans ambages pour remettre l’IA à sa juste place.
L’intelligence artificielle n’existe pas (First Editions, janvier 2019) titre l’ouvrage de Luc Julia, co-créateur de Siri. Scientifique, Luc Julia fait part de son expérience professionnelle de chercheur aux Etats-Unis dans plusieurs grandes entreprises du numérique. Il y a trouvé la liberté d’échange et d’innovation et l’exigence qui permettent d’expliquer pourquoi les Gafa sont américains plutôt qu’européens. En France, note-t-il, les chercheurs ne sont pas suffisamment payés, les créations d’entreprises restent compliquées, les réglementations trop lourdes et les levées de fonds moins faciles qu’outre Atlantique. Il dénonce l’effet pervers des aides publiques françaises et la peur de l’échec. Il critique sévèrement l’emploi du terme « Intelligence artificielle » qui est « une vaste fumisterie ». Tout au plus pourrait-on parler d’Intelligence augmentée. « Le mythe de la fabrication de l’intelligence s’inscrit dans un contexte historique nourri par les fantasmes populaires autour de créatures qui se retourneraient contre leurs créateurs…Tout a commencé avec le désir d’imiter ou de devenir Dieu ».
Aux échecs, le programme de Deep Blue a battu Kasparov « non pas en « réfléchissant », mais en ayant une capacité de mémoire phénoménale où étaient stockés des milliers de parties d’échec ». Luc Julia est très affirmatif sur le fait « qu’il n’y pas d’intelligence, de remise en question ou de sens critique des machines, et que toutes les responsabilités et les défaillances incombent à l’homme ». Il ajoute qu’un robot ne peut pas « en créer un autre et encore moins développer un langage ». L’intelligence, c’est la capacité créatrice alors que l’IA relève de la copie. Ce qui ne veut pas dire que l’IA ne produira pas des moyens exceptionnels pour assister l’homme dans son travail de création et le décharger de nombreuses tâches. La voiture autonome sera plus sûre que la voiture pilotée par les hommes. La machine sera même capable de s’humaniser en partie en apprenant et en enregistrant la récurrence de nos comportements. Cette robotisation sera utile à la société : c’est en Allemagne qu’il y a le plus de robots et le moins de chômage. Mais le robot ne prend pas d’initiatives, n’a pas d’idées propres.
C’est aussi, différemment, le constat de Jean-Louis Dessalles, enseignant-chercheur à ParisTech dans son ouvrage Des intelligences TRES artificielles publié chez Odile Jacob (février 2019). Il n’exclut pas définitivement la possibilité pour une super intelligence artificielle de prendre un jour notre contrôle, car, dit-il, on ne peut rien « exclure totalement ». Mais en l’état et pour longtemps, à horizon imaginable, les « intelligences artificielles restent très limitées ». Un abîme sépare l’intelligence humaine des IA actuelles. Certes, celles-ci ont une capacité et une vitesse de calcul ou de recherche de données exceptionnelles, mais leur capacité de mise en relation, d’intuition, de connectivité entre les problèmes, de créativité, est très inférieure en bien des domaines à celles d’un enfant de 6 ans. « Les systèmes numériques d’apprentissage automatiques sont incapables de repérer la différence et la nouveauté », ils sont aveugles à ce qui fait de chaque situation un cas unique. Ils sont incapables d’effectuer des négations, ne perçoivent pas les incohérences et sont sourds aux éléments de connaissance qu’on pourrait leur donner, un alibi par exemple. Ils ne réfléchissent pas. Plus encore, l’auteur s’interroge : « Une machine qui ignore que la mort est un état définitif peut-elle avoir une discussion intéressante et nous aider à prendre des décisions sensées ? » La conclusion de l’auteur est tranchée : « Les systèmes d’intelligence artificielles actuels … sont loin de pouvoir produire une intelligence générale. Ils n’en sont même pas l’embryon ».
Il faut se résoudre à ne voir dans l’IA « qu’un ensemble de techniques géniales pour apprendre le monde par cœur ». Contrairement au vivant, l’IA n’évolue que dans le cadre qui lui est donné par l’homme. Cela n’empêcherait pas l’IA de représenter des dangers, « d’acquérir un pouvoir considérable, en contrôlant par exemple les finances mondiales ou la manière de penser de communautés entières dans les réseaux sociaux. Mais cela ne suffit pas pour créer une intelligence incontrôlée ». Le danger de ces machines n’est pas « de prendre le pouvoir sur les humains ».
Ces ouvrages remettent l’Eglise au milieu du village et l’homme au cœur de la création. « Comme toute nouvelle technologie, conclut Jean-Louis Dessalles, le rôle futur de l’IA dépend de ce que l’on en fera ».
2 commentaires
"intelligence" artificielle : un appeau à pognon
Ceux qui s'agenouillent devant les "progrès de l'IA" devraient faire une petit détour par le logiciel Eliza : ce "logiciel poids plume" (qui date des années 60, quand la mémoire était rare et chère) vous psychanalyse les doigts dans le nez, uniquement en reformulant tout ce que vous lui dite. Comme un vrai ! Et quand il est coincé (par exemple en le noyant sous les auto-références), il pose une question sur votre mère. Comme un vrai !
Cf. en https://fr.wikipedia.org/wiki/ELIZA et téléchargeable sur divers sites. À noter, au passage, l'excellent http://chrisferon.free.fr/technologies-langage/pipotron-discours-ena.php… Si Macron cherche une "plume"…
Depuis, on a énormément progressé dans le domaine de l'imbécilité artificielle : de nos jours, on saurait parfaitement émuler un petit bureaucrate obtus, incapable de penser à quoi ce ce soit d'autre que ses formulaires et ses procédure. Je ne crois pas que ce soit un progrès, d'autant qu'on perd au passage le sens du ridicule : vous pouvez rire au nez d'un robot, il continuera à s'enfoncer dans sa stupidité. Tandis qu'un humain, une fois passé le stade de la "grosse colère", pourra peut-être "arrêter ses conneries"…
En fait, toutes les IA ne fonctionnent (au mieux) que dans le cadre strict d'un système fermé. Un jeu, avec des règles exhaustives que tous les "joueurs" respectent. Dans un monde de voiture sans conducteur, un piéton qui traverse exprès pour provoquer un accident et détrousser les cadavres des occupants, ça n'existe pas… Une des astuces d'Eliza était de se borner à l'univers clos du langage psychologique.
Pourquoi mentir ? Parce que c'est vendeur, et que ça attire le pognon… Un peu comme la "loi" de Moore, simple constat qui, dès lors que les banquiers y ont cru, ont permis de d'alimenter en pognon les recherches sur les circuit intégré, donnant une apparence de vérité à la "loi"…
Un peu de lucidité.
Tout à fait d'accord, l'IA est un leurre. Il faut grandement se méfier, déjà, du numérique. L'aveuglement est total : c'est un progrès donc c'est bien, essaye t on de nous faire croire. Quelques contre exemples :
1-Le logiciel de payement Louvois qui a mis en grande difficulté un nombre important de militaires en raison de son dysfonctionnement.
2- Le nombre notable de personnes tuées parce qu'on a confié le contrôle des régimes moteurs des avions, ou même la récupération d'un incident de vol, à un logiciel. Boeing en sait quelque chose.
3- Les grandes difficultés que nous avons à obtenir, désormais, une simple caret grise, ou autre document, en passant par internet que l'on nous OBLIGE à utiliser.
4- Les faillites d'entreprise dues, par exemple, à un dysfonctionnement non réparé rapidement.
5- Les erreurs de prescriptions à l'hôpital ( je sais de quoi je parle) dues à des logiciels qu'il faut surveiller de très, très près.
6- Et cette superbe imbécilité de la téléconsultation, chère et inefficace, qui représente, en fait, une consultation au rabais et de mauvaise qualité, le patient n'étant pas là, ce qui reste indispensable. Il n'est pas là : on le voit sur un écran, et un écran, par définition, ça empêche de voir.
Etc…etc…
Le numérique et donc l'IA doivent absolument être contrôlés et utilisés à bon escient. Il y a des domaines où il ne faut certainement pas s'en servir. Deux dangers sont là :
Le premier est cet aveuglement qui entraîne des dysfonctionnements graves, voire des morts.
Le deuxième est l'utilisation politique de l'outil : le numérique est un instrument de soumission du citoyen, on nous oblige à l'utiliser et, de cette façon, nous sommes parfaitement sous contrôle.