Prompting

Große Sprachmodelle (LLMs) sind darauf ausgelegt, natürliche Sprache zu verstehen und zu verarbeiten. Daher ist es am effektivsten, sie mit natürlichen Formulierungen zu „prompten“ (also Anweisungen zu geben). Dabei gilt: Je präziser die Anweisung, desto präziser das Ergebnis. Probieren Sie sich ein wenig aus. Spezifische Prompts brauchen Sie dafür nicht zu lernen oder kopieren.

Was können LLMs (nicht)?

  1. LLMs haben kein semantisches Verständnis. Sie verstehen nicht die Bedeutung der Wörter und Sätze, die sie verarbeiten oder generieren.
  2. LLMs generieren „Halluzinationen“, d.h. die produzieren manchmal Ergebnisse, die keine Entsprechung in der Realität haben. Dies können Inhalte oder Quellenangaben sein, die aufgrund einer Anfrage ausgegeben werden und dem Muster entsprechen, mit dem ein KI-System trainiert wurde, die jedoch faktisch nicht als richtig zu bewerten sind. KI-Halluzinationen entstehen, da Sprachmodelle Texte generieren, die zwar kohärent und flüssig klingen, aber nicht auf einem Verständnis der tatsächlichen Gegebenheiten basieren.

Diese beiden Punkte führen dazu, dass der Output eines LLMs nicht korrekt sein muss. Das LLM kann den generierten Output nicht verifizieren. Der Output wird auf Grundlage von Wahrscheinlichkeit und Zufall erstellt und ist zusätzlich limitiert durch die Qualität der im Training verwendeten Daten.

Wie sprechen wir über LLMs?

Um die Eigenschaften der Sprachmodelle nahbar zu machen, werden oft vermenschlichende Begriffe wie „(nach)denken“ verwendet, die insbesondere die menschlicher Kognition beschreiben. Die Verwendung solcher Begriffe suggeriert jedoch Fähigkeiten, die KI-Systeme nicht besitzen, und ist somit irreführend. Tech-Unternehmen nutzen dies zu ihrem Vorteil und setzen vermenschlichende Begriffe strategisch zu Marketingzwecken ein.