Dans l’imaginaire collectif, l’Intelligence Artificielle nourrit le fantasme, souvent dystopique, de l’émergence de machines dotées de volonté propre. Entre l’IA classique et le Deep Learning contemporain, si la promesse de machines capables de s’adapter à leur environnement est devenue tangible, nous sommes encore très loin de savoir implémenter une conscience artificielle.
L’intelligence artificielle classique : une approche symbolique et désincarnée de la cognition
Les projets d’intelligence artificielle développés dans la seconde moitié du 20ème siècle visaient à mécaniser les raisonnements afférents à différents domaines de compétences et de connaissances, préalablement formulées par un expert du domaine en question. Dans la droite ligne de la philosophie rationaliste du 17ème siècle, l’intelligence était alors synonyme d’analyse et de calcul.
Cette intelligence artificielle dite « classique » entend ainsi se passer de toute investigation du support neurobiologique ; elle ne définit les état mentaux que par leur rôle ou leur fonction, c’est-à-dire indépendamment de la structure cérébrale qui les supporte. L’intelligence est conçue comme un ensemble de processus informationnels, qui opèrent la transformation de symboles selon des règles logiques. Elle devient donc implémentable dans une machine, et il est alors permis d’envisager l’automatisation de tout raisonnement intelligent.
Cette conception « symbolique » de l’intelligence trouve sa justification dans les avancées spectaculaires de l’informatique des années 1950. Les recherches en intelligence artificielle vont alors s’exercer dans de multiples domaines tels que les programmes de jeu d’échecs, de géométrie, de résolution de problèmes mathématiques ou encore de traduction automatique.
La victoire de l’ordinateur d’IBM Deep Blue sur le joueur d’échec Kasparov en 1997, représente le couronnement de l’approche symbolique de l’intelligence artificielle. Pourtant, si l’IA symbolique domine entre 1960 et 1990, un paradigme concurrent se développe déjà : le connexionnisme.
L’essor du connexionnisme ou l’architecture neuronale comme modèle pour l’IA
Contre la modélisation symbolique de l’intelligence, le connexionnisme réaffirme la pertinence de l’étude de l’architecture neuronale pour la compréhension et l’automatisation des processus cognitifs. Un nouveau modèle de programmation apparaît, les réseaux « neuromimétiques » : de multiples agents logiciels représentent des cellules nerveuses extrêmement simplifiées, leurs connexions simulent les synapses. Chaque « neurone » est un agent autonome ; son comportement n’est pas dicté par un programme central mais déterminé par les connexions qui le relient aux autres agents. Le fonctionnement dynamique est massivement parallèle : à chaque étape de traitement, il y aura autant d’opérations indépendantes que d’agents.
Ces architectures connexionnistes sont caractérisées par leur capacité d’adaptation. Le réseau d’agents s’organise et devient fonctionnellement plus compétent selon un apprentissage par essai/erreur. À l’image du cerveau, les capacités d’apprentissage du système correspondent aux changements du poids des connexions : deux nœuds connectés activés ensemble renforceront le poids de leur connexion. Les machines deviennent ainsi progressivement aptes à sélectionner leurs réponses à l’environnement, sans qu’il soit nécessaire de les doter d’un programme intelligent préétabli.
Le Perceptron de Frank Rosenblatt (1957-1961), conçu pour la reconnaissance d’images, est désigné comme la première machine connexionniste. Mais l’implémentation de l’algorithme de Rosenblatt se heurtera aux limites techniques de l’époque et l’échec du Perceptron induira la mise en veille des recherches sur les réseaux neuronaux artificiels.
Deep learning et réseaux neuronaux profonds : les ressorts d’une machine inductive exceptionnelle
Dans les années 2010, la puissance de calcul colossale d’ordinateurs capables d’implémenter des réseaux de neurones artificiels multi-couches et la disponibilité de bases de données gigantesques, vont permettre l’avènement du Deep learning, ou apprentissage profond et amorcer la transformation digitale de nos manières de vivre et de travailler. Les machines devenues inductives parviennent à faire émerger des programmes intelligents à partir du traitement brut de nombreuses données, et à construire des modèles de prédiction aux résultats spectaculaires. L’architecture connexionniste s’impose alors dans de nombreux domaines pour permettre l’automatisation de la reconnaissance des visages, des diagnostics médicaux, de l’analyse d’investissements financiers, des prévisions météorologiques ou encore des prévisions comportementales en psychologie…
Comme exemple d’intelligence artificielle émergeant à partir d’une architecture connexionniste et capable d’apprentissage profond, on peut mentionner GPT-3 (Generative Pre-trained Transformer 3) développée par OpenAI. Cette IA permet l’automatisation de tâches qui semblaient jusqu’ici spécifiquement humaines : elle propose de résumer ou traduire des textes, écrire des articles d’actualité et même de créer des poèmes ou des récits de fiction. Seuls quelque problèmes de répétitions ou biais logiques, permettent de démasquer l’origine artificielle de cette intelligence. Sur le plan technique, GPT-3 repose sur un réseau de neurones artificiels comptant près de 175 milliards de synapses.
À l’instar de GPT-3, les projets d’intelligence artificielle ne peuvent plus se réduire à la conception de programmes experts, ils doivent aujourd’hui envisager l’intelligence comme la fonction émergente d’un réseau d’agents distribués capable de s’adapter à leur environnement.
La transformation digitale de la société et du travail, implique la robotisation de processus métiers complexes, et nécessite de surmonter un défi majeur : l’automatisation de l’apprentissage machine.
A propos de StoryShaper :
StoryShaper est une start-up innovante qui accompagne ses clients dans la définition de leur stratégie digitale et le développement de solutions d’automatisation sur-mesure.
Sources : StoryShaper, Daniel Goossens (Les limites de l’intelligence artificielle connexionniste), Dominique Cardon (La revanche des neurones. L’invention des machines inductives et la controverse de l’intelligence artificielle), Daniel Andler (Connexionnisme et cognition. A la recherche des bonnes questions)