VOLVER
Demystifying AI: Understanding the Core Concepts behind AllAi Part II – LLMs and The Art of Prompting

Desmitificar la IA: los conceptos básicos de AllAi Parte II - Los LLM y el arte del prompting

Este artículo es el segundo de una serie de 3 artículos titulada «Desmitificar la IA: los conceptos básicos de AllAi». AllAi es la plataforma de productividad impulsada por IA creada por OSF Digital para mejorar los servicios impulsados por Salesforce.

En este artículo, nos adentraremos en el mundo de los modelos de lenguaje de gran tamaño (LLM) y en el fascinante arte del prompting. Mientras desentrañamos este tema, examinaremos cómo una tecnología como AllAi puede revolucionar su productividad dentro del ecosistema de Salesforce.

Detrás de los LLM

En esencia, un LLM está diseñado para comprender y generar texto similar al humano. Es como tener un compañero de conversación increíblemente inteligente, aunque limitado a texto. Su magia reside en el modelado del lenguaje, un proceso en el que el modelo predice la probabilidad de una secuencia de palabras. Cuando le das una entrada (prompt), el LLM genera texto de uno en uno basándose en lo que ha aprendido de grandes cantidades de datos de Internet. Imagínate esto: empiezas con la frase «Salesforce está revolucionando la forma en que las empresas...», y el modelo predice lo que podría venir a continuación basándose en las probabilidades que ha asignado a diferentes palabras. ¿Podría ser «operar», «gestionar» o «crecer»? El ajuste de «temperatura» influye en esta predicción: los valores más bajos conducen a respuestas más deterministas, mientras que los valores más altos introducen creatividad y variabilidad.

Demystifying AI: Understanding the Core Concepts behind AllAi Part II – LLMs and The Art of Prompting
Temperature influences the token probability distribution. Values greater than 1 make the distribution more uniform (flatter), increasing randomness. Values smaller than 1 make the distribution sharper, reducing randomness. Temperature equal to 1 means the model behaves normally (learned distribution). Source.

Evolución: de la compleción de tokens al ajuste de instrucciones

Al principio, los LLM se centraban sobre todo en la generación de texto, es decir, en completar frases u oraciones a partir de los datos introducidos. Aunque esto es impresionante, no siempre se asemeja a un ser humano ni es preciso desde el punto de vista contextual.. Entonces aparece el ajuste de instrucciones (instruction-tuning). Este enfoque mejora significativamente las capacidades del LLM al guiar a los modelos para que sigan instrucciones explícitas sin problemas. El ajuste de instrucciones permite al LLM comprender órdenes como «genera un informe sobre las ventas trimestrales», en lugar de limitarse a terminar frases. Este cambio es esencial para las aplicaciones prácticas, ya que hace que las interacciones con herramientas como AllAi sean más intuitivas y eficientes.

Navegar por el conocimiento: In-Context vs. In-Weight Learning

La adaptación de las instrucciones abre la puerta a dos conceptos fundamentales: el aprendizaje en contexto (ICL) y el aprendizaje en peso (IWL).

1. In-Weight Learning: El conocimiento del modelo se almacena en sus parámetros o «pesos» aprendidos durante el entrenamiento. Este conocimiento es estático a menos que el modelo se vuelva a entrenar o a ajustar.

2. In-Context Learning: Este aprendizaje dinámico se produce durante la interacción, cuando el modelo se adapta en función del contexto proporcionado en el prompt (instrucciones del usuario). Utilizamos estos métodos en la suite AllAi para ofrecer experiencias personalizadas a los usuarios de Salesforce, lo que permite que herramientas como AllAi Chat y AllAi DevOps tengan una gran capacidad de respuesta y sean contextualmente precisas.

Demystifying AI: Understanding the Core Concepts behind AllAi Part II – LLMs and The Art of Prompting
In-weight vs in-context learning. In the first one, all tasks the model can execute were seen during training. For the latter, a prompt dictates the task that needs to be done.

El arte del prompting: aprendizaje zero-shot, one-shot y few-shot

La verdadera magia se produce con los estímulos: la forma de plantear la tarea al LLM puede conducir a diferentes niveles de rendimiento. Analicemos tres tipos de estrategias de incitación utilizando ejemplos centrados en Salesforce:

Aprendizaje Zero-Shot
En este caso, no se proporciona ningún contexto adicional ni ejemplos sobre cómo resolver una tarea determinada. En teoría, el modelo no estuvo expuesto a ningún ejemplo de la tarea durante el entrenamiento, por lo que necesita utilizar conocimientos previos y confiar en relaciones analógicas para inferir la solución para la tarea en cuestión. Por ejemplo:
Prompt:
"Dame una guía paso a paso que me enseñe a crear un flujo de Salesforce que envíe un correo electrónico a los clientes cada 30 días"

Aprendizaje One-Shot
Aquí, le das al modelo un único ejemplo de cómo resolver un problema de interés. El modelo debe ser capaz de generalizar a partir de una cantidad muy limitada de datos, imitando la capacidad humana de reconocer nuevos conceptos/abstracciones a partir de una única observación. Por ejemplo:
Prompt:
"Actúa como un asistente capaz de responder a las preguntas de los usuarios sobre Salesforce Marketing Cloud.
Ejemplo:
Pregunta de usuario: ¿Puedo anular los precios de bloque para una determinada partida con precio de bloque?
Respuesta: Sólo si existe un conjunto estándar de registros de precios de bloque entre los que elegir, como un modelo estándar de precios plata/oro/platino."

Aprendizaje Few-Shot
Aquí, proporcionas algunos ejemplos para aumentar las posibilidades de dirigir correctamente el comportamiento del LLM.
Prompt:
"Explica cómo integrar Salesforce con una plataforma de marketing por correo electrónico de terceros especificada por el usuario.
Ejemplo 1: La plataforma de marketing por correo electrónico es Mailchimp. Solución: para integrar Salesforce con Mailchimp, sigue estos sencillos pasos: [pasos necesarios para la integración con Mailchimp].
Ejemplo 2: La plataforma de marketing por correo electrónico es Constant Contact. Solución: para vincular Salesforce con Constant Contact, sigue estos sencillos pasos: [pasos necesarios para la integración con Constant Contact]».

Conclusión

En este artículo, hemos explorado los matices de los LLM, desde su funcionamiento básico hasta el ajuste de instrucciones y técnicas de prompting más avanzadas. Comprender estos conceptos es fundamental a la hora de desarrollar herramientas sofisticadas como AllAi para aumentar la productividad y la eficacia en entornos Salesforce. No te pierdas nuestro próximo artículo, en el que profundizaremos en temas aún más avanzados, como la generación aumentada por recuperación (RAG), fine-tuning y mucho más.

Rodrigo C. Barros

Author: Rodrigo C. Barros

Rodrigo C. Barros, PhD, es AI Director en OSF Digital, especializado en soluciones de inteligencia artificial para la transformación digital. Es doctor en Informática y Matemáticas Computacionales por la Universidad de São Paulo (Brasil) y profesor asociado de PUCRS.