Avec les progrès réalisés en technologies de l’information, les grandes compagnies investissent de plus en plus dans l’intelligence artificielle et entretiennent ainsi le rêve de construire des machines «intelligentes». Ce rêve peut-il devenir réalité ? Qu’est-ce que l’intelligence artificielle (IA) et à quelles compétences fait-elle appel ?

Les prémices de l’IA, un peu d’histoire

Dans les années 1940, les travaux des neurologues McCulloch et Pitts ont introduit un modèle de neurones artificiels puis deux étudiants de Harvard Minsky et Edmonds ont développé le premier réseau de neurones qui optimisait la connexion entre ces derniers. À la même époque le mathématicien britannique Turing écrit un article (« Computing machinery and intelligence ») introduisant le « jeu de l’imitation » qui explique le test qu’il a conduit : un homme converse par écrit avec une personne et un ordinateur qui ne sont pas visibles. S’il n’arrive pas à distinguer l’homme de l’ordinateur cela signifie alors que le logiciel de l’ordinateur a passé le test avec succès puisqu’il a une apparence sémantique humaine. Pour Turing, l’IA consiste donc à un ensemble de procédés informatiques permettant de simuler la psychologie humaine. En  1956 les chercheurs en intelligence artificielle se regroupent pour la première fois  lors d’un séminaire de deux mois à Dartmouth organisé par McCarthy, personnalité majeure de l’IA. Les fondements de l’IA sont alors établis et son nom fut évoqué pour la première fois.

Un concept complexe

L’intelligence artificielle se définit comme un « ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine».

Pour les informaticiens Stuart Russel et Peter Norvig dans Artificial Intelligence : A Modern Approach, il existe en fait quatre grandes façons d’envisager l’intelligence artificielle et ses objectifs en créant des systèmes qui sont capable de :

  • se comporter comme les êtres humains (test de Turing)
  • penser comme des êtres humains. Il faut alors dans un premier temps étudier le raisonnement humain, l’IA sera donc une science expérimentale
  • penser rationnellement
  • posséder des comportements rationnels

Il existe alors plusieurs sous domaines de l’IA qui sont interreliés:

  • La représentation des connaissances et le raisonnement automatique
  • La résolution de problème général
  • Le traitement du langage
  • La vision artificielle
  • La robotique
  • L’apprentissage automatique

L’illustration avec le jeu d’échecs

Le cas du jeu d’échecs illustre bien la complexité de l’IA.

Dès 1957 le mathématicien Bernstein met au point au MIT un programme pour jouer deux parties d’échecs.

Deux ans plus tard, le scientifique Simon annonce son programme révolutionnaire le General Problem Solver qui est battu aux échecs par un adolescent en 1960.

En 1975, même si l’ordinateur Belle peut calculer 100 000 coups par seconde, il est toujours battu par les maîtres du domaine.

De même, en 1989 le champion du monde Garry Kasparov bat le supercalculateur Deep Thought d’IBM.

Il faudra attendre 1997 pour que Deeper Blue l’emporte sur Garry Kasparov, même si son jeu est critiqué. Cette nouvelle machine est alors capable de calculer environ 200 millions de coups par seconde et peut désormais les calculer à l’avance, elle fait même le sacrifice spéculatif d’un cavalier afin d’obtenir un avantage stratégique ce qui était jusqu’à présent propre à l’Homme.

En 2002 Vladimir Kramnik, champion du monde, fait un match nul contre le logiciel Deep Fritz.

Les limites de l’IA

L’exemple des jeux d’échecs démontrent bien qu’aussi complexes les calculs effectués par une machine soient ils et malgré les efforts de l’homme pour créer une machine à son image, l’IA rencontre plusieurs limites. La principale limite tient de la résolution de problème en elle-même. En effet, pour résoudre un problème il existe deux méthodes possibles : celle de l’algorithme ou celle de l’heuristique.

Les algorithmes sont une méthode systématique, ils résultent de procédures mathématiques de résolution qui donne des résultats fiables. À l’opposé, l’heuristique est une méthode stratégique indirecte, utilisée au quotidien. Elle est notamment utilisée lors de résolution de problème complexe, lorsque seules les informations essentielles doivent être prises en compte. Même si son résultat n’est pas fiable elle fait cependant gagner un temps considérable.

Les logiciels ne sont actuellement pas capables d’analyser des systèmes complexes afin de déterminer une solution favorable. Ainsi, une machine est programmée d’après un algorithme, elle épuisera toutes les solutions possibles d’un arbre mathématique  alors que l’Homme aura une vision à long terme.

De plus, L’IA est dépendante du savoir de l’Homme dans la mesure où elle se base sur des données prédéfinie par l’Homme pour trouver des réponses au problème posé. De même, il existe une limite technologique puisque, même si l’ordinateur dispose d’une vitesse de propagation largement supérieure à celle du cerveau humain (300 000km/s contre 130m/s pour l’homme), il ne dispose pas de sa complexité. En effet,  le cerveau humain peut permettre l’interconnexion entre 10 000 cellules contre 2 seulement pour l’ordinateur (source) Enfin, certaines caractéristiques humaines semblent impossibles à reproduire tels que les sentiments.

Quel avenir?

L’IA se trouve donc à la croisée de l’informatique, de l’électronique et des sciences cognitives. Elle entretient ainsi des liens forts avec d’autres domaines tels que la linguistique, la philosophie, l’économie ou les neurosciences. Aujourd’hui les recherches en IA se concentrent principalement sur le «deep learning», ou apprentissage automatique, c’est-à-dire la capacité pour une machine d’apprendre de son expérience. L’Université de Montréal compte d’ailleurs le plus grand nombre de chercheurs présent en un seul endroit et étudiant le «deep learning» avec le MILA: l’Institut de Montréal des algorithmes d’apprentissage. Les recherches dans ce domaine avancent à grand pas et mènent à l’analyse prédictive voire l’analyse des sentiments. Par exemple, le Google Brain, projet dirigé par le Professeur Andrew Ng de l’université de Stanford, qui a pour objectif de reproduire le cerveau humain, est désormais capable de distinguer les visages d’un humain et d’un chat sur des vidéos. D’autre part, les capacités cognitives de l’ordinateur Watson d’IBM vont être mises au profil de la recherche contre le cancer. En effet, Watson permet d’accélérer le séquençage génétique des tumeurs et ainsi l’interprétation des mutations afin de déterminer des traitements personnalisés. Les données sont donc de mieux en mieux analysées et le développement des objets connectés, en fournissant davantage d’informations, va renforcer la précision de ces analyses.

Les problématiques soulevées

L’IA peut donc être appliquée à de nombreux domaines et des progrès remarquables ont été réalisés au cours des dix dernières années. Ces avancées soulèvent alors les questions de la législation et de l’éthique. Comment peut-on encadrer l’IA ? Les fameuses lois d’Asimov [1] seront-elles un jour utilisées ?

Pour en savoir plus:

Un ouvrage clé : Intelligence Artificielle: une approche moderne, 3ème édition, Stuart Russell et Peter Norvig 2009

[1] Exposées pour la première fois dans sa nouvelle Cercle vicieux (Runaround, 1942):«Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la Première loi. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.»