
Dieser Artikel ist der zweite Teil einer dreiteiligen Serie mit dem Titel „Künstliche Intelligenz entmystifizieren: Die Kernkonzepte hinter AllAi verstehen“. AllAi ist die KI-gestützte Produktivitätsplattform von OSF Digital, die von OSF Digital entwickelt wurde, um Salesforce Services zu verbessern.
In diesem Artikel tauchen wir in die Welt der Large Language Models (LLMs) und die faszinierende Kunst des Promptings ein. Wir untersuchen, wie Technologien wie AllAi Produktivität im Salesforce-Ökosystem revolutionieren können.
AIm Kern ist ein LLM darauf ausgelegt, menschenähnlichen Text zu verstehen und zu generieren. Man kann es sich als einen außergewöhnlich intelligenten, wenn auch textgebundenen Gesprächspartner vorstellen. Die Magie dahinter liegt im Sprachmodellierungsprozess – einem Prozess, bei dem das Modell die Wahrscheinlichkeit einer Wortsequenz vorhersagt. Wenn man eine Eingabe (Prompt) bereitstellt, generiert das LLM Text ein Token (oder Wort) basierend auf dem, was er aus riesigen Mengen von Internetdaten gelernt hat. Stell dir vor: Du beginnst mit dem Satz „Salesforce revolutioniert die Art und Weise, wie Unternehmen...“, und das Modell sagt voraus, was als nächstes kommen könnte, basierend auf den Wahrscheinlichkeiten, die es verschiedenen Wörtern zugewiesen hat. Könnte es „funktionieren“, „verwalten“ oder „wachsen“ sein? Die „Temperatur“-Einstellung beeinflusst diese Vorhersage: Niedrigere Werte führen zu deterministischeren Antworten, während höhere Werte Kreativität und Variabilität ermöglichen.
Temperature influences the token probability distribution. Values greater than 1 make the distribution more uniform (flatter), increasing randomness. Values smaller than 1 make the distribution sharper, reducing randomness. Temperature equal to 1 means the model behaves normally (learned distribution). Source.
Ursprünglich waren LLMs hauptsächlich auf die Textgenerierung ausgerichtet, das heißt, sie vervollständigten Sätze oder Phrasen basierend auf den Eingabedaten. Obwohl diese Methode beeindruckend ist, wirkt sie nicht immer menschlich oder ist kontextuell präzise. Hier kommt das Anweisungstuning ins Spiel. Dieser Ansatz verbessert die Fähigkeiten des LLM erheblich, indem er das Modell gezielt darauf trainiert, expliziten Anweisungen nahtlos zu folgen. Durch Anweisungstuning kann das LLM Befehle wie „Erstelle einen Bericht über die Quartalsumsätze“ verstehen, anstatt nur Sätze zu vervollständigen. Dieser Wandel ist entscheidend für praktische Anwendungen, da sie die Interaktion mit Tools wie AllAi intuitiver und effizienter macht.
Die Anpassung der KI durch ihre Anweisungen ebnet den Weg für zwei wesentliche Konzepte: das Lernen im Kontext und das Lernen mit Gewichtung.
1. Lernen mit Gewichtung: Das Wissen des Modells wird in seinen Parametern oder „Gewichten“ gespeichert, die während des Trainings gelernt wurden. Dieses Wissen bleibt statisch, bis das Modell neu trainiert oder feinabgestimmt wird.
2. Lernen im Kontext: Dieses dynamische Lernen erfolgt während der Interaktion, wenn das Modell sich basierend auf dem im Prompt bereitgestellten Kontext (Benutzeranweisungen) anpasst. Wir nutzen diese Methoden in der AllAi-Suite, um personalisierte Erlebnisse für Salesforce-Nutzer zu bieten. Dadurch können Tools wie AllAi Chat und AllAi DevOps besonders reaktionsschnell und kontextgenau arbeiten.
Temperature influences the token probability distribution. Values greater than 1 make the distribution more uniform (flatter), increasing randomness. Values smaller than 1 make the distribution sharper, reducing randomness. Temperature equal to 1 means the model behaves normally (learned distribution). Source.
Die wahre Magie geschieht durch das Prompting: Wie du deine Aufgabe dem LLM präsentierst, kann zu unterschiedlichen Leistungsniveaus führen. Schauen wir uns drei Strategien des Promptings anhand von Salesforce-bezogenen Beispielen genauer an:
Zero-Shot Learning
Hier gibst du keinen zusätzlichen Kontext oder Beispiele dafür, wie eine bestimmte Aufgabe gelöst werden kann. Theoretisch wurde das Modell während des Trainings nicht explizit mit dieser Aufgabe konfrontiert. Es muss daher auf sein vorhandenes Wissen zurückgreifen und mithilfe analoger Beziehungen eine Lösung ableiten. Zum Beispiel:
Prompt:
"Gib mir eine Schritt-für-Schritt-Anleitung, die erklärt, wie man einen Salesforce-Flow erstellt, der alle 30 Tage eine E-Mail an Kunden sendet."
One-Shot Learning
Hier gibst du dem Modell ein einziges Beispiel dafür, wie es ein Problem lösen soll. Das Modell muss in der Lage sein, aus einer sehr begrenzten Menge an Daten zu generalisieren – ähnlich wie Menschen neue Konzepte aus nur einer einzigen Beobachtung ableiten können. Zum Beispiel:
Prompt:
"Agiere als Assistent, der Nutzerfragen zu Salesforce Marketing Cloud beantworten kann.
Beispiel:
Nutzerfrage: Kann ich Blockpreise für einen bestimmten Blockpreis-Artikel überschreiben?
Antwort: Nur, wenn eine standardisierte Auswahl an Blockpreis-Datensätzen zur Auswahl verfügbar ist, wie etwa ein Standardpreismodell für Silber, Gold oder Platin."
Few-Shot Learning
Hier gibst du dem Modell mehrere Beispiele, um die Chancen zu erhöhen, das Verhalten des LLM richtig auszurichten.
Prompt:
"Erkläre mir, wie man Salesforce in eine benutzerdefinierte E-Mail-Marketing-Plattform eines Drittanbieters integriert.
Beispiel 1: E-Mail-Marketing-Plattform ist Mailchimp. Lösung: Um Salesforce mit Mailchimp zu integrieren, folge diesen einfachen Schritten: [Schritte für die Integration mit Mailchimp].
Beispiel 2: Die E-Mail-Marketing-Plattform ist Constant Contact. Um Salesforce mit Constant Contact zu verbinden, folge diesen einfachen Schritten: [Schritte für die Integration mit Constant Contact]."
In diesem Artikel haben wir die Nuancen von LLMs untersucht, von ihren grundlegenden Funktionsweisen bis hin zum Anweisungstuning und fortgeschritteneren Prompting-Techniken. Das Verständnis dieser Konzepte ist entscheidend für die Entwicklung leistungsstarker Tools wie AllAi, die die Produktivität und Effizienz in Salesforce-Umgebungen steigern. Verpasse nicht unseren nächsten Artikel, in dem wir noch weiter in die Tiefe gehen und Themen wie Retrieval-Augmented Generation (RAG), Fine-Tuning und vieles mehr behandeln.
Rodrigo C. Barros, PhD ist AI Director bei OSF Digital und spezialisiert auf KI-Lösungen für die digitale Transformation. Er hat einen PhD in Computer Science und Computational Mathematics von der Universität São Paulo, Brasilien, und ist außerdem Associate Professor an der PUCRS.