VOLTAR
Demystifying AI: Understanding the Core Concepts behind AllAi Part II – LLMs and The Art of Prompting

Desmistificando a IA: os principais conceitos por trás do AllAi Parte II - LLMs e a arte do prompting

Este artigo é o segundo de uma série de três artigos intitulada “Desmistificando a IA: os principais conceitos por trás do AllAi”. A AllAi é a plataforma de produtividade alimentada por IA criada pela OSF Digital para aprimorar os serviços baseados na Salesforce.

Neste artigo, vamos nos aprofundar no mundo dos grandes modelos de linguagem (LLMs) e na fascinante arte do prompting. Ao abordarmos esse tópico, examinaremos como tecnologias como o AllAi podem revolucionar sua produtividade no ecossistema da Salesforce.

Por trás das cortinas dos LLMs

Em sua essência, um LLM é projetado para entender e gerar texto semelhante ao de um ser humano. Pense nisso como ter um parceiro de conversa incrivelmente inteligente, embora limitado a textos. A mágica por trás disso está na modelagem de linguagem - um processo em que o modelo prevê a probabilidade de uma sequência de palavras. Quando você fornece uma entrada (prompt), o LLM gera um texto, um token (ou palavra) por vez, com base no que aprendeu com grandes quantidades de dados da Internet. Imagine o seguinte: Você começa com a frase “A Salesforce está revolucionando a maneira como as empresas...”, e o modelo prevê o que pode vir a seguir com base nas probabilidades que atribuiu a diferentes palavras. Poderia ser “operam”, 'gerenciam“ ou ”crescem"? A configuração de “temperatura” influencia essa previsão: valores mais baixos levam a respostas mais determinísticas, enquanto valores mais altos introduzem criatividade e variabilidade.

Demystifying AI: Understanding the Core Concepts behind AllAi Part II – LLMs and The Art of Prompting
Temperature influences the token probability distribution. Values greater than 1 make the distribution more uniform (flatter), increasing randomness. Values smaller than 1 make the distribution sharper, reducing randomness. Temperature equal to 1 means the model behaves normally (learned distribution). Source.

Evolução: do preenchimento de tokens ao ajuste de instruções

Inicialmente, os LLMs se concentravam principalmente na geração de texto - completando sentenças ou frases com base nas entradas fornecidas. Embora isso seja impressionante, nem sempre é semelhante ao humano ou contextualmente preciso. Aqui entra o ajuste de instruções. Essa abordagem aprimora significativamente os recursos de LLM, orientando os modelos a seguirem instruções explícitas sem problemas. O ajuste de instruções permite que o LLM compreenda comandos como “Gerar um relatório sobre vendas trimestrais”, em vez de apenas terminar frases. Essa mudança é essencial para aplicações práticas, tornando as interações com ferramentas como o AllAi mais intuitivas e eficientes.

Navegando pelo conhecimento: Aprendizado in-context vs. aprendizado in-weight

O ajuste da instrução abre as portas para dois conceitos essenciais: aprendizado contextualizado e aprendizado in-weight.

1. Aprendizado In-Weight: O conhecimento do modelo é armazenado em seus parâmetros ou “pesos” aprendidos durante o treinamento. Esse conhecimento é estático, a menos que o modelo seja treinado novamente ou ajustado.

2. Aprendizado In-Context: Esse aprendizado dinâmico ocorre durante a interação, quando o modelo se adapta com base no contexto fornecido no prompt (instruções do usuário). Aproveitamos esses métodos no pacote AllAi para oferecer experiências personalizadas aos usuários da Salesforce, permitindo que ferramentas como o AllAi Chat e o AllAi DevOps sejam altamente responsivas e contextualmente precisas.

Demystifying AI: Understanding the Core Concepts behind AllAi Part II – LLMs and The Art of Prompting
Temperature influences the token probability distribution. Values greater than 1 make the distribution more uniform (flatter), increasing randomness. Values smaller than 1 make the distribution sharper, reducing randomness. Temperature equal to 1 means the model behaves normally (learned distribution). Source.

A arte do prompting: Zero, One e Few-Shot Learning

A verdadeira mágica acontece com o prompt - a forma como você apresenta sua tarefa ao LLM pode levar a diferentes níveis de desempenho. Vamos detalhar três tipos de estratégias de solicitação usando exemplos centrados na Salesforce:

Zero-Shot Learning
Aqui, você não fornece nenhum contexto ou exemplo adicional sobre como resolver uma determinada tarefa. Em teoria, o modelo não foi exposto a nenhum exemplo da tarefa durante o treinamento, portanto, ele precisa utilizar o conhecimento prévio e confiar em relações analógicas para inferir a solução para a tarefa em questão. Por exemplo:
Prompt:
“Dê-me um guia passo a passo que me ensine a criar um fluxo da Salesforce que envie um e-mail aos clientes a cada 30 dias.”

One-Shot Learning
Aqui, você dá ao modelo um único exemplo de como resolver um problema de interesse. O modelo precisa ser capaz de generalizar a partir de uma quantidade muito limitada de dados, imitando a capacidade humana de reconhecer novos conceitos/abstrações a partir de uma única observação. Por exemplo:
Prompt:
"Atue como um assistente capaz de responder às perguntas dos usuários sobre o Salesforce Marketing Cloud.
Exemplo:
Pergunta do usuário: Posso substituir os blocos de preços de um determinado item de linha com preço de bloco?
Resposta: Somente se houver um conjunto padrão de registros de preços de blocos para escolher, como um modelo padrão de preços de prata/ouro/platina."

Few-Shot Learning
Aqui, você fornece alguns exemplos para aumentar as chances de orientar adequadamente o comportamento do LLM.
Prompt:
"Explique como integrar a Salesforce com uma plataforma de e-mail marketing de terceiros especificada pelo usuário.
Exemplo 1: a plataforma de e-mail marketing é o Mailchimp. Solução: para integrar a Salesforce ao Mailchimp, siga estas etapas simples: [etapas necessárias para a integração com o Mailchimp].
Exemplo 2: a plataforma de e-mail marketing é a Constant Contact. Solução: para vincular a Salesforce à Constant Contact, siga estas etapas simples: [etapas necessárias para a integração com a Constant Contact]."

Conclusão

Neste artigo, exploramos as nuances dos LLMs, desde seu funcionamento básico até o ajuste de instruções e técnicas mais avançadas de prompting. A compreensão desses conceitos é fundamental para o desenvolvimento de ferramentas sofisticadas, como o AllAi, para aumentar a produtividade e a eficiência nos ambientes da Salesforce. Fique atento ao nosso próximo artigo, no qual abordaremos tópicos ainda mais avançados, como Retrieval-Augmented Generation (RAG), ajuste fino e muito mais.

Rodrigo C. Barros

Autor: Rodrigo C. Barros

Rodrigo C. Barros, PhD, é Diretor de IA da OSF Digital, especializado em soluções de inteligência artificial para transformação digital. Ele é PhD em Ciência da Computação e Matemática Computacional pela Universidade de São Paulo, Brasil, e também atua como Professor Associado na PUCRS.