Révolution quantique (3/5): l’arme fatale de l’informatique future

Par

Aujourd’hui, les chercheurs ne se demandent pas si la machine pense, mais si elle pense assez vite, et IBM, Google et Microsoft sont lancées dans une « course aux armements » de l’intelligence artificielle. Mais le projet de l’ordinateur quantique n’est pas seulement technologique, il engage une mutation culturelle.

Cet article est en accès libre. Découvrez notre offre spéciale ! S'abonner

Construire des ordinateurs qui puissent voir, écouter, dialoguer. Développer des moteurs de recherche intelligents, qui comprennent la demande de l’utilisateur et ne l’encombrent pas de réponses hors sujet. Élaborer des systèmes experts capables de traduire des langues, d’analyser des séquences génétiques, d’aider au diagnostic des maladies. Concevoir des programmes de robotique qui pilotent des voitures autonomes, sans conducteur et sans danger.

Telles sont quelques-unes des promesses de l’intelligence artificielle quantique, le nouvel horizon technologique de Google, Microsoft ou IBM. Leur projet : combiner la puissance des machines quantiques avec l’astuce des programmes intelligents, comme Alphago, le joueur de go artificiel de Google, qui a récemment flanqué une rouste inattendue au Coréen Lee Sedol, l’un des plus grands champions actuels, en faisant preuve de qualités de jeu remarquables (lire nos articles ici et ).

Pour les géants de la high-tech, l’intelligence artificielle quantique est la nouvelle arme fatale. Elle est à l’intelligence artificielle classique ce que la bombe H est à la bombe A. Le Washington Post parle même de « course aux armements de l’intelligence artificielle ». Elle a été lancée par Google et IBM en mai dernier. Google a créé, en association avec la Nasa, le Quantum Artificial Intelligence Laboratory (Quail), laboratoire d’intelligence artificielle qui exploite un ordinateur quantique construit par la société canadienne D-Wave (voir l’épisode précédent).

IBM, qui mène des recherches sur le domaine depuis trente-cinq ans, a inauguré une plateforme ouverte au public, accessible à tout ordinateur et permettant à des utilisateurs non professionnels d’exécuter des algorithmes et de pratiquer des expériences sur un processeur quantique. La plateforme, appelée IBM Quantum Experience, se veut une base d’exploration des applications potentielles des futurs ordinateurs quantiques intelligents.

Plus discret, Microsoft est, sur le plan scientifique, la plus ambitieuse des trois sociétés. La firme de Redmond a créé dès 2005, en Californie, un laboratoire voué au calcul quantique, Station Q, dirigé par un mathématicien de premier plan, Michael Freedman, médaille Fields en 1986. Puis Microsoft a formé en 2011 un groupe de recherche sur le calcul et l’architecture quantiques (QuArC), qui travaille avec des universités européennes : celle de Delft, aux Pays-Bas, celle de Copenhague, au Danemark, et l’École polytechnique fédérale de Zurich.

L’intelligence artificielle (IA) a fait irruption sur la scène médiatique il y a presque vingt ans, en mai 1997, lorsque le programme Deeper Blue d’IBM a battu le champion russe Garry Kasparov aux échecs. Près de vingt ans plus tard, un autre programme d’IA, AlphaGo, a remporté une nouvelle victoire symbolique sur l’intelligence humaine dans un jeu de stratégie, le go, que beaucoup considéraient comme un bastion imprenable de la suprématie humaine sur la machine.

Paradoxalement, la victoire d’AlphaGo, bien que plus significative que celle de Deeper Blue, n’a pas été perçue comme une défaite tragique de l’homme face à la machine. À la crainte que l’IA ne surpasse le cerveau biologique succède peu à peu le sentiment que les machines s’introduisent inéluctablement dans notre environnement immédiat et que leur puissance n’est que le prolongement de nos propres facultés.

Cette situation a transformé la discussion sur l’IA. Le terme d’intelligence artificielle a été introduit en 1955 par l’Américain John McCarthy, l’un des fondateurs de la discipline, qui la définit comme la science de « faire qu’une machine se comporte d’une manière qui serait qualifiée d’intelligente si le même comportement était celui d’un humain ». Selon un autre fondateur de l’IA, Marvin Minsky, l’intelligence artificielle consiste à faire accomplir par des machines des tâches « qui supposent de l’intelligence lorsqu’elles sont faites par des humains » (voir le site Internet Encyclopedia of Philosophy).

À l’époque de Minsky et McCarthy, l’enjeu crucial est de savoir si les capacités des machines peuvent être mises sur le même plan que les facultés humaines. Pour les fondateurs de l’IA, si un programme démontre un théorème de mathématiques ou bat un champion d’échecs, on doit admettre qu’il est capable de penser – même s’il ne pense pas comme un cerveau biologique. 

Ce débat métaphysique est dépassé. Aujourd’hui, les chercheurs ne se demandent pas si la machine pense, mais si elle pense assez vite. McCarthy et Minsky ne se souciaient guère de savoir combien de temps il faudrait à l’ordinateur pour calculer le meilleur coup à jouer dans une position donnée aux échecs. Jusqu’à une période récente, la supériorité de la machine, du point de vue de la puissance de calcul, semblait si évidente que l’on se préoccupait peu de ses limites techniques. D’autant que les progrès des circuits intégrés, qui suivaient la croissance exponentielle décrite par la loi de Moore, garantissaient que les ordinateurs seraient toujours plus performants.

Avec l’essor du Big Data et de la simulation numérique, sont apparus des problèmes qui poussent les machines actuelles les plus puissantes aux limites de leurs possibilités. Certains de ces problèmes sont assez ésotériques, comme le calcul de l’état fondamental d’une molécule, c’est-à-dire de son état d’énergie minimale. Ou la modélisation exacte d’une réaction chimique. D’autres problèmes paraissent plus concrets comme celui, pour la Nasa, consistant à optimiser les trajectoires de vol des missions interstellaires ; ou, pour une société de transport, à organiser au mieux sa flotte de camions et d’avions de livraison ; ou, pour une compagnie pharmaceutique, à perfectionner la recherche d’un nouveau médicament.

De tels problèmes ont en commun le fait que leur traitement par les ordinateurs classiques, même les plus performants, peut demander un temps excessif : « La durée de vie de l’univers, ou plus », explique la directrice du groupe QuArC, Krysta Svore, sur le blog de Microsoft. Elle ajoute : « Nous pensons qu’un ordinateur quantique pourrait être exponentiellement plus rapide et traiter ce type de problèmes en un intervalle de temps plus raisonnable, de quelques années à quelques jours ou quelques secondes. »

Prolongez la lecture de Mediapart Accès illimité au Journal contribution libre au Club Profitez de notre offre spéciale