Pour beaucoup, les systèmes d’IA générative tels que ChatGPT peuvent sembler magiques. Ces modèles linguistiques sont d’abord formés sur un très grand nombre de données extraites du web. Ils sont ensuite affinés pour mieux répondre aux instructions textuelles, ce qui permet d’obtenir un modèle final entièrement formé. Le nombre de paramètres de ces modèles est très élevé et le processus de formation global est long. L’apprentissage d’un tel modèle peut prendre jusqu’à un an sur de nombreux ordinateurs.
Une fois formé, il suffit à l’utilisateur de poser une question ou de faire une demande pour que le modèle réponde. Par exemple, il écrit le code informatique approprié ou rédige un essai en réponse à une demande de l’utilisateur. Les résultats sont souvent créatifs et parfois remarquablement « humains ».
Il n’est pas surprenant que plus de 100 millions de personnes, des PDG aux étudiants, aient adopté des modèles génératifs dans leur vie et leur travail. Cependant, il est important que les organisations comprennent comment ces systèmes fonctionnent. Malgré le battage médiatique, l’IA n’est ni magique, ni infaillible. Reconnaître ses limites aidera les entreprises à déployer une IA sûre, puissante et révolutionnaire.
Démystifier l’IA générative
Les progrès du matériel et les nouvelles techniques d’IA telles que les transformateurs ont conduit à la création des grands modèles de langage (LLM) d’aujourd’hui. Il s’agit de modèles d’apprentissage automatique à grande échelle formés sur d’immenses quantités de données textuelles en utilisant d’énormes niveaux de puissance de calcul.
Ces modèles sont entraînés à prédire simplement le mot suivant, compte tenu d’un contexte de mots vus Par exemple, dans le contexte « le temps passe vite », le modèle essaiera de prédire le mot suivant. Compte tenu des données d’apprentissage, le modèle peut apprendre à donner une forte probabilité de prédire le mot suivant comme « comme », et une forte probabilité pour « et ». Le modèle sélectionne au hasard l’une de ces options et l’ajoute au contexte. Par exemple, si « et » est sélectionné, le contexte devient « le temps vole et ».
Nous répétons maintenant ce processus. Demander au modèle de prédire la distribution du mot suivant sur la base du contexte « le temps passe et », pour lequel le modèle pourrait donner une forte probabilité au mot « jamais ». De cette manière, le LLM génère la sortie mot par mot en échantillonnant la distribution des mots prédits. Les paramètres du LLM sont appris pour maximiser l’objectif de prédire, aussi précisément que possible, le mot suivant dans les données d’apprentissage.
Malgré la simplicité de l’objectif d’apprentissage, les LLM démontrent une compréhension et des capacités de raisonnement émergentes. On peut soutenir qu’il est plus efficace pour le modèle d’apprendre la structure du langage et les relations dans nos informations culturelles et scientifiques, plutôt que de simplement les stocker sans apprendre ce qu’elles « signifient ». Par exemple, il est plus efficace pour un LLM d’apprendre les règles de l’arithmétique pour répondre à une question telle que « qu’est-ce que 27 plus 176 » plutôt que d’essayer de stocker la réponse à chaque question arithmétique dans les données d’apprentissage.
Ces LLM ont atteint le point où l’on peut dire qu’ils ont vaincu le test de Turing. Ils ont de longues mémoires fonctionnelles, une variante de GPT-4 étant capable de traiter 32 768 jetons – environ 50 pages de texte – et de rédiger une réponse cohérente.
Aussi étonnants soient-ils, les modèles d’IA générative ne sont pas sensibles ou conscients d’eux-mêmes. Bien entendu, cela ne les rend pas moins utiles. Ces systèmes s’améliorent constamment et ont rapidement prouvé leur valeur dans un contexte commercial. Le ChatGPT offre déjà de nombreuses possibilités d’automatisation, libérant des capacités et améliorant la productivité. Les travailleurs du savoir peuvent les utiliser pour résumer rapidement de longs documents, rédiger des courriels et même écrire du code. L’IA générative redonne un temps précieux aux gens pour qu’ils se concentrent sur les choses qu’ils aiment et sur le travail qui compte le plus.
Une automatisation de nouvelle génération
Avec ces garanties en place, les progrès des LLM et de l’IA générative pourraient permettre un grand bond en avant dans l’automatisation. Créer des systèmes fiables et évolutifs qui changent notre façon de travailler. Les derniers LLM surpassent systématiquement les humains en matière de compréhension de la lecture. Aujourd’hui, des organisations de premier plan combinent les résultats et la compréhension des systèmes d’IA avec la capacité d’agir.
L’objectif ici n’est pas de remplacer les humains dans leur travail, mais de les compléter. Malgré toute sa sophistication, l’IA peine à automatiser les tâches les plus complexes et les plus créatives sans l’intervention de l’homme. Qu’il s’agisse d’apprentissage actif ou de révision manuelle. Ainsi, l’IA sert d’agent d’automatisation intelligent. Elle permet aux travailleurs humains de créer des automatisations nouvelles et plus complexes en s’appuyant sur des modèles d’IA.
A propos de StoryShaper :
StoryShaper est une start-up innovante qui accompagne ses clients dans la définition de leur stratégie digitale et le développement de solutions d’automatisation sur-mesure.
Sources : StoryShaper, UiPath