
Cet article est le deuxième d'une série de trois articles intitulée "Démystifier l'IA : comprendre les concepts fondamentaux d'AllAi". AllAi est la plateforme de productivité alimentée par l'IA créée par OSF Digital pour améliorer les services de Salesforce.
Dans cet article, nous allons nous plonger dans le monde des grands modèles linguistiques (LLM) et dans l'art fascinant du prompting. Au fil des pages, nous verrons comment une technologie telle qu'AllAi peut révolutionner votre productivité au sein de l'écosystème Salesforce.
À la base, un LLM est conçu pour comprendre et générer des textes de type humain. C'est un peu comme si vous aviez un interlocuteur incroyablement intelligent, bien que limité au texte. La magie du LLM réside dans la modélisation du langage, un processus par lequel le modèle prédit la probabilité d'une séquence de mots. Lorsque vous fournissez une entrée (invite), le LLM génère un texte, un jeton (ou mot) à la fois, en se basant sur ce qu'il a appris à partir de vastes quantités de données Internet. Imaginez ceci : Vous commencez par la phrase "Salesforce révolutionne la façon dont les entreprises...", et le modèle prédit la suite en se basant sur les probabilités qu'il a attribuées à différents mots. Pourrait-il s'agir de "fonctionnent", "gèrent" ou "se développent" ? Le réglage de la "température" influe sur cette prédiction : des valeurs faibles conduisent à des réponses plus déterministes, tandis que des valeurs élevées introduisent la créativité et la variabilité.
Temperature influences the token probability distribution. Values greater than 1 make the distribution more uniform (flatter), increasing randomness. Values smaller than 1 make the distribution sharper, reducing randomness. Temperature equal to 1 means the model behaves normally (learned distribution). Source.
À l'origine, les LLM étaient principalement axés sur la génération de texte, c'est-à-dire qu'ils complétaient des phrases ou des expressions en fonction des données d'entrée. Bien que cette méthode soit impressionnante, elle n'est pas toujours semblable à celle des humains ou précise sur le plan contextuel. C'est là qu'intervient le réglage des instructions. Cette approche améliore considérablement les capacités du LLM en guidant les modèles pour qu'ils suivent des instructions explicites de manière transparente. Le réglage des instructions permet au LLM de comprendre des commandes telles que "Générer un rapport sur les ventes trimestrielles", plutôt que de se contenter de terminer des phrases. Ce changement est essentiel pour les applications pratiques, car il rend les interactions avec des outils comme AllAi plus intuitives et plus efficaces.
L'adaptation de l’IA via ses instructions ouvre la voie à deux concepts essentiels : l'apprentissage en contexte et l'apprentissage pondéré.
1. Apprentissage par pondération : Les connaissances du modèle sont stockées dans ses paramètres ou "poids" appris au cours de la formation. Ces connaissances sont statiques à moins que le modèle ne soit réentraîné ou affiné.
2. Apprentissage en contexte : Cet apprentissage dynamique se produit au cours de l'interaction lorsque le modèle s'adapte en fonction du contexte fourni dans l'invite (instructions de l'utilisateur). Nous exploitons ces méthodes au sein de la suite AllAi afin d'offrir des expériences personnalisées aux utilisateurs de Salesforce, ce qui permet à des outils comme AllAi Chat et AllAi DevOps d'être extrêmement réactifs et précis sur le plan contextuel.
In-weight vs in-context learning. In the first one, all tasks the model can execute were seen during training. For the latter, a prompt dictates the task that needs to be done.
La véritable magie s'opère au niveau du prompt : la manière dont vous présentez votre tâche au LLM peut conduire à différents niveaux de performance. Décortiquons trois types de stratégies de prompting à l'aide d'exemples centrés sur Salesforce :
Apprentissage Zero-Shot
Ici, vous ne fournissez aucun contexte ou exemple supplémentaire sur la manière de résoudre une tâche donnée. En théorie, le modèle n'a pas été exposé à des exemples de la tâche pendant la formation. Il doit donc utiliser ses connaissances antérieures et s'appuyer sur des relations analogiques pour déduire la solution à la tâche en question. Par exemple :
Prompt :
"Donne-moi un guide étape par étape qui m'explique comment créer un flux Salesforce envoyant un e-mail aux clients tous les 30 jours."
Apprentissage One-Shot
Ici, vous donnez au modèle un seul exemple de la manière dont il doit résoudre le problème. Le modèle doit être capable de généraliser à partir d'une quantité très limitée de données, imitant la capacité humaine à reconnaître de nouveaux concepts/notions à partir d'une seule observation. Par exemple, le modèle doit être capable de généraliser à partir d'un nombre très limité de données :
Prompt :
"Agis en tant qu'assistant capable de répondre aux questions des utilisateurs concernant Salesforce Marketing Cloud.
Exemple :
Question de l'utilisateur : Est-il possible d'annuler les prix par ligne pour un produit donné ?
Réponse : Seulement s'il existe un ensemble standard d'enregistrements de prix par ligne parmi lesquels choisir, tel qu'un modèle de prix standard pour l'argent/l'or/le platine"
Apprentissage Few-Shot
Vous donnez ici quelques exemples pour augmenter les chances d'orienter correctement le comportement du LLM.
Prompt :
"Explique-moi comment intégrer Salesforce à une plateforme tierce d’e-mail marketing définie par l'utilisateur.
Exemple 1 : la plateforme d’e-mail marketing est Mailchimp. Solution : pour intégrer Salesforce à Mailchimp, suivez ces étapes simples : [étapes nécessaires à l'intégration avec Mailchimp].
Exemple 2 : la plateforme d’e-mail marketing est Constant Contact. Solution : pour relier Salesforce à Constant Contact, suivez ces étapes simples : [étapes nécessaires à l'intégration avec Constant Contact]."
Dans cet article, nous avons exploré les nuances des LLM, de leur fonctionnement fondamental à l'ajustement des instructions et aux techniques de prompting plus avancées. La compréhension de ces concepts est essentielle pour développer des outils sophistiqués tels qu'AllAi afin d'accroître la productivité et l'efficacité dans les environnements Salesforce. Ne manquez pas notre prochain article, dans lequel nous aborderons des sujets encore plus avancés, tels que la génération améliorée par récupération (RAG), le réglage fin et bien d'autres encore.
Rodrigo C. Barros, PhD, est directeur de l'IA chez OSF Digital, spécialisé dans les solutions d'intelligence artificielle pour la transformation numérique. Il est titulaire d'un doctorat en informatique et en mathématiques computationnelles de l'Université de São Paulo, au Brésil, et est également professeur associé à la PUCRS.