Accueil / Tic & Telecoms / L’intelligence artificielle a-t-elle cessé d’être bête ?

L’intelligence artificielle a-t-elle cessé d’être bête ?

L’intelligence artificielle a-t-elle cessé d’être bête ?

La victoire du logiciel AlphaGo sur le champion du jeu de go est-elle le signe que l’intelligence artificielle, soixante ans après sa naissance, a enfin atteint l’âge de raison ?

Depuis soixante ans qu’elles existent, les recherches en intelligence artificielle (IA) ont connu leurs « printemps » et leurs « hivers ». Dans les années qui ont suivi la célèbre conférence de Dartmouth, organisée durant l’été 1956 par deux jeunes diplômés de Princeton, Marvin Minsky et John McCarthy, et deux chercheurs chevronnés, Claude Shannon des Bell Labs et Nathan Rochester d’IBM, véritable acte de naissance de cette nouvelle discipline scientifique, l’ambiance générale était à l’euphorie. Au début des années 1960, les informaticiens ne doutaient pas qu’ils allaient donner naissance, en quelques décennies, à des cerveaux « in silico » aussi – voire plus – intelligents que les esprits humains qui les avaient conçus.

Cela ne s’est pas produit, en partie parce que l’intelligence humaine s’est révélée être une notion bien plus complexe et protéiforme qu’on ne l’avait d’abord cru. Le milieu des années 1980 voit l’IA entrer dans une ère glaciaire ; les sources de financement gèlent, les meilleurs doctorants s’en détournent. Mais la roue semble avoir une nouvelle fois tourné. « Nous sommes en train de passer de l’hiver au printemps de l’intelligence artificielle », claironnait tout récemment Jeannette Wing, une des responsables de la recherche en ce domaine chez Microsoft.

A l’origine de ce renouveau se trouve un ensemble de méthodes d’apprentissage automatique apparues il y a environ cinq ans et regroupées sous le nom géné­rique de « deep learning » (apprentissage profond). Une percée dont l’un des principaux artisans se trouve être un chercheur français, Yann LeCun, qui a rallié en 2013 la bannière de Facebook.

Le deep learning a fait beaucoup parler de lui, y compris dans ces colonnes, lors de l’éclatante victoire du système AlphaGo développé par DeepMind , filiale de Google, sur le champion sud-coréen du jeu de go Lee Se-dol (« Les Echos » des 9, 10 et 15 mars). Mais ses promesses ne se limitent pas au domaine du jeu. L’apprentissage automatique est aussi à l’origine des progrès spectaculaires réalisés ces dernières années par les machines en matière de reconnaissance d’images et de compréhension du langage naturel.

De la lecture à l’interprétation

Yann LeCun, guère susceptible d’être classé parmi les technoprophètes à l’enthousiasme béat, estime que, grâce à la montée en puissance des systèmes d’assistance à la conduite, comme celui déjà déployé par l’israélien Mobileye dans les Tesla, d’ici dix à quinze ans toutes les voitures seront autonomes (et qu’une décennie plus tard, il sera même interdit de conduire manuellement sa voiture, l’homme étant moins fiable que l’ordinateur). D’ici dix à vingt ans, estime-t-il encore, les applications de commande vocale équipant nos smartphones (Siri, Google Now…), dont les services se limitent pour l’instant à dicter un SMS ou rechercher une séance de cinéma, auront évolué en de véritables assistants virtuels universels, capables de répondre aux questions les plus diverses – un nouvel outil qui modifiera radicalement notre rapport au savoir. Que ceux qui en doutent aillent faire un tour sur le site WolframAlpha, lancé par le physicien et mathématicien britannique Stephen Wolfram. Posez-lui une question d’ordre scientifique (par exemple : « qu’est-ce que pi ? »). Vous serez surpris.

Professeur à Télécom Bretagne et membre de l’Académie des sciences, Claude Berrou n’est pas moins optimiste que Yann LeCun sur les potentialités du deep learning. Après avoir appris à lire un texte manuscrit (si tarabiscotée l’écriture soit-elle), les machines, grâce au deep learning, « seront bientôt capables d’en pénétrer le sens. Et par exemple de dire, s’il s’agit, mettons, d’une critique de cinéma, si la tonalité en est plutôt positive ou négative, ou si le texte est bien ou mal écrit ».

Bien que d’apparition récente, le deep learning plonge ses racines très avant dans l’histoire de l’IA. Cet ensemble de méthodes d’apprentissage repose en effet sur les réseaux de neurones artificiels, l’un des fils rouges des recherches en IA depuis la fin des années 1950.

Le premier et le plus simple de ces réseaux neuronaux artificiels est le perceptron, mis au point dès 1957 par Frank Rosenblatt, un psychologue qui travaillait alors à l’université Cornell. Malgré son nom semblant sorti tout droit d’un épisode de « Star Trek », le perceptron n’a rien de matériel. C’est un modèle de calcul imitant (très grossièrement) ce qui se passe dans notre cerveau, où chaque neurone est connecté à 10.000 autres par le biais des synapses, le tout formant un réseau inextricable. Cette structure réticulaire a pour conséquence qu’un neurone donné peut être activé si plusieurs quelconques des 10.000 neurones auxquels le relient ses synapses lui transmettent un message électrique assez fort.

C’est cette organisation que reproduit, à travers ses lignes de code assurant l’interconnexion de toutes les unités de calcul élémentaires (ou neurones artificiels), le perceptron de Frank Rosenblatt. Celui-ci restait cependant beaucoup trop rudimentaire pour pouvoir produire des résultats autres que triviaux. Mais les choses ont changé quand on a commencé d’intercaler entre la « couche d’entrée » et la « couche de sortie » des niveaux intermédiaires, appelés « couches cachées ». Cet empilage façon millefeuille a démultiplié la puissance de calcul, et donc les performances du perceptron : les systèmes actuels de deep learning ne sont rien d’autre que des perceptrons multicouches. « Avec 5 ou 6 couches, un “deep learner” est capable de reconnaître des chiffres manuscrits avec une marge d’erreur de 0,3 % », indique Claude Berrou – un système aujourd’hui utilisé pour la lecture automatique des chèques ou des codes postaux, dont Yann LeCun fut l’un des inventeurs.

Plus le système de deep learning possède de couches cachées – plus il a de « profondeur » –, plus complexes sont les tâches qu’il peut apprendre. Reconnaître un objet dans une image n’a l’air de rien ; mais il ne faut pas oublier qu’entre un quart et un tiers de la phénoménale puissance de calcul du cerveau est dédié à la seule vision.

Le deep learning a cependant ses limites. La principale en est sans doute que la phase d’apprentissage préalable à la réalisation d’une tâche reste supervisée par l’homme : il a fallu inscrire plusieurs dizaines de millions de parties dans la mémoire d’AlphaGo avant que le système ne puisse commencer à jouer contre des professionnels ou contre lui-même. Ce « gavage » est devenu possible depuis que nous sommes entrés dans l’ère du Big Data – d’aucuns définissent d’ailleurs le renouveau actuel de l’IA comme le fruit du mariage du calcul intensif et du Big Data. C’est efficace, mais ce n’est pas ainsi qu’apprennent les cerveaux des bébés et enfants. Ils le font tout seuls, en observant le spectacle du monde. Or, en matière d’IA, cet apprentissage complètement non supervisé reste pour l’instant du ressort de la science-fiction.

Yann Verdo / Journaliste
lesechos.fr

Aller en haut