Un ordinateur bat un champion du jeu de go

 

L’intelligence artificielle a fait des progrès considérables, comme le prouve AlphaGo, un logiciel de Google.

INFORMATIQUE Rien ne semble arrêter les progrès de l’intelligence artificielle  ! Plus fort encore que Deep Blue d’IBM qui a battu le champion du monde d’échecs Garry Kasparov en 1997 ou que Watson, toujours d’IBM, qui a gagné en 2007 au jeu de questions « Jeopardy » contre les meilleurs joueurs du moment. AlphaGo, un logiciel conçu par des chercheurs de Google DeepMind, vient d’écraser 5 à 0 Fan Hui, le champion européen en titre du go. Ce jeu asiatique de stratégie, où deux adversaires s’affrontent, consiste à conquérir le maximum de territoire à l’aide de pions blancs ou noirs sur un plateau qui compte 361 cases.

Au vu des premières parties, publiées mercredi 27 janvier dans la revue ­Nature, « le logiciel montre un jeu étonnamment mature, solide, patient mais incisif quand il le faut  », commente Motoki ­Noguchi, l’un des meilleurs joueurs de go en France.

« Le nombre de combinaisons possibles est incroyablement plus élevé au jeu de go qu’aux échecs  », rappelle Olivier ­Teytaud, chercheur à l’Inria qui a travaillé sur le sujet. Il y a 10 puissance 600 parties sérieuses possibles au go (un 1 suivi de six cents zéros), contre 10 puissance 120 aux échecs, qui compte déjà davantage de possibilités que de nombre de particules dans l’Univers. C’est donc un exploit si l’ordinateur a enfin battu un humain professionnel au jeu de go, sans handicap, sur un damier de taille ­normale (19 × 19 intersections). « Dans les années 1980-1990, la quasi-totalité des programmeurs du jeu de go estimaient qu’il ne serait pas possible d’y arriver avant au moins un siècle. J’en faisais ­partie  », rappelle Bruno Bouzy, maître de conférences à l’université ­Paris-Descartes et l’un des auteurs d’une méthode utilisée pour AlphaGo.

Démarche originale

La démarche originale de Google et de ses équipes de recherches a été de « combiner dans son algorithme plusieurs ingrédients d’intelligence artificielle  », ajoute Olivier Teytaud. « Les méthodes ne sont pas nouvelles prises isolément, et plusieurs combinaisons ont été appliquées au jeu de go par le passé par d’autres équipes  », complète le français Yann LeCun, directeur de la recherche en intelligence artificielle de Facebook, et considéré comme l’inventeur du « deep learning », une autre composante d’AlphaGo.

Le programme de Google utilise l’approche dite de Monte-Carlo, qui est « une simulation pour évaluer une position et savoir quel coup doit être joué associé à de nombreuses simulations aléatoires dont une moyenne est effectuée  », précise Bruno Bouzy. Ce qui est plus compliqué à réaliser qu’aux échecs, car au go toutes les pièces ont la même valeur. Cette méthode a été complétée, en 2006, avec ce que les experts appellent un « arbre de recherches, afin d’anticiper les coups à court terme  », ajoute Bruno Bouzy. Le Français Rémi Coulom, ex-chercheur à l’Inria et à l’université de Lille, a contribué il y a dix ans à l’article scientifique fondateur de la méthode dite du « Monte Carlo Tree Search  » appliquée au jeu de go. Les premières parties, en donnant quatre coups d’avance à l’ordinateur, ont ainsi pu être remportées par des machines sur de petits damiers (9 × 9) face à de bons joueurs humains.

Pour améliorer encore l’algorithme, le logiciel a été associé à la notion dite de « deep learning  », c’est-à-dire qui mime le fonctionnement du cerveau, en mettant en série de nombreux petits réseaux de neurones (informatiques). Une technique utilisée par exemple pour la reconnaissance d’images ou de formes.

En 2014, l’équipe de recherches de Google conduite par David Silver avait déjà employé cette approche pour le jeu de go. En perfectionnant ces méthodes, notamment en apprenant au programme des parties de go effectuées par de grands joueurs et en faisant en sorte que l’ordinateur effectue de nombreuses parties contre lui-même (plusieurs centaines de milliers), l’algorithme a été amélioré.

Les conséquences sont immenses. Car des problèmes qui semblaient insolubles à la communauté scientifique pourraient être résolus. « On peut rêver que des ordinateurs pourront démontrer des théorèmes, comprendre un texte ou même regarder un film et le résumer  », ajoute Olivier Teytaud. En soi, le réseau d’ordinateurs utilisé par Google (qui dispose de 1 200 microprocesseurs et de 176 processeurs graphiques) n’a rien d’extraordinaire. Toute l’intelligence réside dans le logiciel.

Pour prouver que son programme tient la route, de nouvelles parties ­seront effectuées en mars par AlphaGo, contre le Sud-Coréen Lee Se-dol, un des meilleurs joueurs de go des dix dernières années.

Le Figaro 29/01/2016