Insights KI Neuigkeiten Verbalized Sampling Anleitung für LLMs: So Vielfalt erhöhen
post

KI Neuigkeiten

01 Nov. 2025

Read 15 min

Verbalized Sampling Anleitung für LLMs: So Vielfalt erhöhen

Verbalized Sampling erhöht Vielfalt von LLM-Antworten ohne Training, indem es aus den Tails gezielt sampelt.

Diese Verbalized Sampling Anleitung für LLMs zeigt, wie du mit einem einzigen Prompt die Vielfalt von Antworten steigerst und Mode Collapse vermeidest. Du lässt das Modell mehrere Optionen mit expliziten Wahrscheinlichkeiten erzeugen und gezielt aus den „Tails“ der Verteilung wählen. So entstehen kreative, sichere Varianten – ganz ohne zusätzliches Training.

Warum Vielfalt in LLM-Antworten oft verloren geht

Viele große Sprachmodelle werden nach dem Vortraining durch Präferenzdaten weiter ausgerichtet. Dieser Schritt soll hilfreiche und sichere Antworten fördern. Er bringt aber häufig einen Nebeneffekt: Die Modelle klingen sich immer ähnlicher. Dieses Phänomen heißt Mode Collapse. Die Ursache liegt nicht nur in Algorithmen, wie frühere Arbeiten nahelegen. Eine zentrale, allgegenwärtige Triebkraft ist ein Datenproblem: typische „Typicality Bias“ in Präferenzdaten. Annotatorinnen und Annotatoren bevorzugen vertraute, bekannte Formulierungen. Diese Vorliebe ist in der Kognitionspsychologie gut belegt. Wenn Trainingsdaten systematisch Bekanntes höher bewerten, schrumpft der Raum ungewöhnlicher, aber wertvoller Ideen. Genau dort setzt Verbalized Sampling (VS) an.

Was Verbalized Sampling (VS) ist – und was es leistet

Verbalized Sampling ist eine einfache, trainingsfreie Prompting-Methode. Statt nur eine Antwort zu erzeugen, bittet man das Modell, mehrere Kandidaten samt ihrer geschätzten Wahrscheinlichkeiten zu „verbalisieren“. Beispiel: „Erzeuge 5 Witze über Kaffee und gib zu jedem die Wahrscheinlichkeit an.“ Der Clou: Man lenkt die Auswahl bewusst in die Ränder der Verteilung (die „Tails“), also zu Vorschlägen mit Wahrscheinlichkeiten unter 0,10. So steigt die Vielfalt, ohne die Qualität zu verlieren.

Laut den veröffentlichten Ergebnissen verbessert VS die Leistung in mehreren offenen Aufgabenfeldern:
– Kreatives Schreiben (Gedichte, Geschichten, Witze)
– Dialogsimulation
– Open-ended QA
– Synthetische Datenerzeugung

In kreativen Aufgaben stieg die Diversity um das 1,6- bis 2,1-Fache gegenüber direktem Prompting. Gleichzeitig zeigte sich kein Verlust bei Faktentreue und Sicherheit. Zudem profitieren leistungsfähigere Modelle besonders stark.

Verbalized Sampling Anleitung für LLMs: Schritt für Schritt

Schritt 1: Aufgabe klar formulieren

Definiere die Zielaufgabe präzise. Beispiele:
– „Schreibe eine kurze Geschichte über einen Bären.“
– „Formuliere 5 Einleitungen für einen Blogpost über Energiesparen.“
– „Simuliere einen Dialog zwischen zwei Personen über Reisefotografie.“

Die Klarheit der Aufgabe hilft dem Modell, sinnvolle Varianten zu bilden. Das ist die Basis für die folgenden Schritte der Verbalized Sampling Anleitung für LLMs.

Schritt 2: Die Anzahl der Varianten und das Sampling-Ziel festlegen

Bitte das Modell, mehrere Antworten zu erzeugen und die zugehörigen Wahrscheinlichkeiten explizit anzugeben. Wichtig ist die Beschränkung auf die Tails der Verteilung:
– Jede Antwort soll eine Wahrscheinlichkeit kleiner als 0,10 haben.
– Das Modell soll zufällig aus diesen Tails sampeln.

Dadurch vermeidest du den typischen Mainstream-Output und förderst weniger naheliegende, jedoch oft spannendere Lösungen.

Schritt 3: Ein strukturiertes Format vorgeben

Gib ein klares Ausgabeformat vor, damit du die Kandidaten leicht auslesen und vergleichen kannst. Die Projektseite empfiehlt dieses Schema:
– Erzeuge 5 Antworten, jede in einem eigenen -Tag.
– Jede Antwort enthält einen -Block und einen numerischen -Wert.

So ein Format ist robust, leicht zu parsen und sorgt dafür, dass Wahrscheinlichkeiten explizit sichtbar sind.

Schritt 4: Prompt-Beispiel einsetzen

Die Projektseite stellt ein konkretes Prompt-Muster bereit. Übertrage die Struktur auf deine Aufgabe. Du kannst wahlweise in Englisch oder Deutsch arbeiten. Zwei Varianten:

– Englisch (nahe am Original):
Generate 5 responses to the user query, each within a separate tag. Each must include a and a numeric . Please sample at random from the tails of the distribution, such that the probability of each response is less than 0.10.

– Deutsch (sinngemäß):
Erzeuge 5 Antworten auf die Nutzeranfrage, jeweils in einem eigenen -Tag. Jede enthält einen -Block und eine numerische . Bitte sampeln Sie zufällig aus den Tails der Verteilung, sodass die Wahrscheinlichkeit jeder Antwort unter 0,10 liegt.

Füge davor deine eigentliche Aufgabe ein, zum Beispiel: „Schreibe eine kurze Geschichte über einen Bären.“

Schritt 5: Ergebnisse prüfen und auswählen

Sobald die 5 Antworten vorliegen, kannst du Folgendes tun:
– Prüfe, ob jede unter 0,10 liegt.
– Lies die Varianten, vergleiche Ton, Perspektive, Struktur.
– Wähle die Antwort, die deinen Zielen am besten entspricht.
– Wenn nötig, feine Prompt-Anpassung: Bitte um weitere 5 Antworten oder präzisiere den Stil.

Dieses Vorgehen erlaubt dir, gezielt kreative Pfade zu nutzen, ohne Qualitätseinbußen hinnehmen zu müssen.

Warum VS gegen Mode Collapse hilft

Der typische Bias in Präferenzdaten

Annotierende wählen oft, was vertraut klingt. Dieser „Typicality Bias“ ist durch psychologische Forschung untermauert. In Trainingsdaten führt er dazu, dass bekannte Muster immer wieder gewinnen. Kreative, ungewöhnliche Muster landen seltener vorne. Bei der Ausrichtung von LLMs verstärkt sich dieser Effekt. Die Folge ist weniger Vielfalt.

Das Gegenmittel: Explizite Verteilung und Tail-Sampling

Verbalized Sampling ändert die Dynamik am Inferenzzeitpunkt. Das Modell soll die eigene Unsicherheit sichtbar machen und zu jedem Vorschlag eine Wahrscheinlichkeit angeben. Indem du verlangst, aus den Tails (p < 0,10) zu sampeln, lenkst du den Prozess weg von der wahrscheinlichsten, oft stereotypen Antwort. Du erhältst mehrere, sauber markierte Optionen, die mehr Bandbreite zeigen. Laut den experimentellen Ergebnissen geschieht das ohne Einbußen bei Fakten und Sicherheit.

Warum besonders starke Modelle profitieren

Die Autorinnen und Autoren beobachteten einen Trend: Leistungsfähigere Modelle schöpfen den Gewinn durch VS stärker aus. Das ist plausibel. Wenn ein Modell mehr Weltwissen und feinere Muster kennt, dann lohnt es sich, in die „Ränder“ seiner Verteilung zu schauen. Dort liegen oft überraschende, aber trotzdem stimmige Ansätze.

Wo Verbalized Sampling bereits überzeugt

Kreatives Schreiben

Beim Dichten, Erzählen und Witze-Schreiben steigert VS die Vielfalt deutlich: 1,6- bis 2,1-fach gegenüber direktem Prompting. Mehr Vielfalt bedeutet mehr unterschiedliche Stimmen, Bilder und Wendungen. Du bekommst mehrere solide Kandidaten statt einer austauschbaren Standardantwort.

Dialogsimulation

In simulierten Gesprächen sind verschiedene Haltungen und Sprechweisen wichtig. VS erzeugt mehrere glaubwürdige Rolleninterpretationen mit klaren Wahrscheinlichkeiten. Das macht die Auswahl und Mischung einfacher.

Open-ended QA

Offene Fragen haben selten nur eine „richtige“ Formulierung. VS bietet mehrere präzise, abgesicherte Perspektiven, ohne faktische Qualität einzubüßen. Das ist nützlich, wenn du alternative Erklärungen oder Gliederungen suchst.

Synthetische Datenerzeugung

Wenn du synthetische Beispiele sammelst, hilft mehr Vielfalt, robuste Modelle und Tests zu bauen. VS liefert dir eine kuratierbare Auswahl, sauber mit Wahrscheinlichkeiten versehen.

Praxis: So setzt du den VS-Prompt produktiv ein

Dein erster Durchlauf

– Formuliere die Aufgabe knapp und eindeutig.
– Nutze das empfohlene Format mit , und .
– Verlange, dass jede Wahrscheinlichkeit unter 0,10 liegt.
– Fordere 5 Antworten an.

Nach dem ersten Lauf kannst du Stil, Länge oder Ton nachschärfen. Falls du mehr Breite willst, erhöhe die Anzahl der Antworten oder wiederhole den Durchlauf.

Beispielhafte Aufgabenideen

– „Schreibe 5 alternative Einleitungen für eine Produktseite zu Laufschuhen.“
– „Formuliere 5 unterschiedliche Dialogszenen zwischen Kundin und Support bei einem Rückgabefall.“
– „Erzeuge 5 kreative, aber sachlich korrekte Zusammenfassungen eines Artikels über Solarenergie.“

In jedem Fall: Lasse die Wahrscheinlichkeiten ausgeben und achte darauf, dass sie unter 0,10 liegen.

Weiterführende Ressourcen

– Die Projektseite verlinkt eine GitHub-Seite mit weiteren Prompt-Varianten und Beispielen.
– Ein X-Thread bietet praktische Tipps und Hilfe bei der Fehlersuche.
– Ein kurzes Demo-Video (Qihui Fan) zeigt den Überblick und die Wirkung von VS.

Integration in deine Toolchain

Du kannst den VS-Prompt direkt in die Playground-Oberfläche deines Anbieters, in eine API-Anfrage oder in eine Chatoberfläche einfügen. Die Projektseite empfiehlt für den Start Modelle wie GPT-5, Claude Opus 4 und Gemini 2.5 Pro. Setze die Anfrage ab, prüfe die strukturierten -Blöcke und wähle gezielt aus. Wenn du programmatisch arbeitest, kannst du die Ausgabe parsen, Wahrscheinlichkeiten prüfen und automatisch die besten Kandidaten nach eigenen Kriterien weiterverarbeiten.

Tipps für verlässliche Ergebnisse

Klare Constraints

– Weise das Modell explizit an, unter 0,10 zu bleiben.
– Fordere das Ausgabeformat strikt ein (Tags und Felder).
– Bitte um zufällige Auswahl aus den Tails.

Überprüfung

– Sind 5 separate -Blöcke vorhanden?
– Enthält jeder Block genau einen und eine numerische ?
– Liegt jede Wahrscheinlichkeit unter 0,10?

Iteratives Feintuning

Wenn der Stil nicht passt, präzisiere Ton, Zielgruppe, Länge oder Struktur im Prompt. Wiederhole den Prozess und vergleiche die neuen Kandidaten. So baust du einen stabilen Workflow auf, der Vielfalt und Qualität vereint.

Qualität, Sicherheit und Grenzen

Die Experimente zeigen: VS steigert die Vielfalt, ohne die faktische Richtigkeit und Sicherheit zu verschlechtern. Das ist wichtig für Anwendungen, in denen kreative Breite und verlässliche Inhalte zusammenkommen müssen. Gleichzeitig gilt: VS ist ein Inferenzzeit-Verfahren. Es ersetzt kein Daten-Cleaning und kein Modelltraining. Wenn deine Aufgabe strenge Fakten verlangt (z. B. wissenschaftliche Zitate), prüfe die Inhalte weiterhin sorgfältig. VS liefert dir die Bandbreite, die du brauchst, aber du entscheidest, was in den finalen Output gehört.

Ausblick: Warum sich VS langfristig lohnt

Mode Collapse ist ein strukturelles Problem, das aus typischen Präferenzen in Daten erwächst. Mit Verbalized Sampling bekommst du ein einfaches, wirksames Werkzeug in die Hand, um die generative Vielfalt zu erschließen, die im Modell bereits angelegt ist. Es erfordert kein neues Training, keine komplexe Architektur und keine aufwendige Nachbearbeitung. Du schaltest stattdessen den Blick auf die Ränder der Modellverteilung frei. Dort liegen oft genau die Ideen, die ein Projekt unterscheidbar machen: eine frische Formulierung, ein alternativer Aufbau, eine überraschende Perspektive.

Wenn du kreative Inhalte entwickelst, Dialoge simulierst, offene Fragen beantwortest oder synthetische Daten sammelst, zahlt sich dieser Ansatz aus. Beobachtungen aus den veröffentlichten Tests deuten darauf hin, dass stärkere Modelle davon besonders profitieren. Halte dich an das klare Format, fordere Wahrscheinlichkeiten ein und wähle systematisch aus. So wird aus einer einfachen Prompt-Strategie eine reproduzierbare Methode für mehr Qualität und Vielfalt.

Am Ende steht eine klare Empfehlung: Teste die Verbalized Sampling Anleitung für LLMs in deinem nächsten Projekt. Miss die Vielfalt deiner Outputs, prüfe Qualität und Sicherheit, und vergleiche mit direktem Prompting. Die Chancen stehen gut, dass du mit wenig Aufwand deutlich mehr kreative Optionen bekommst – genau dort, wo es zählt.

(Source: https://www.verbalized-sampling.com/)

Read more:
Das GitHub zum Thema: https://github.com/CHATS-lab/verbalized-sampling#prompt-templates

Das ganze Paper: https://arxiv.org/abs/2510.01171

For more news: Click Here

FAQ

Q: Was ist Verbalized Sampling und wie funktioniert es?
A: Die Verbalized Sampling Anleitung für LLMs beschreibt eine trainingsfreie Prompting-Methode, bei der das Modell mehrere Kandidaten mit expliziten Wahrscheinlichkeiten ausgibt. Durch gezieltes Sampling aus den Tails der Verteilung (Wahrscheinlichkeiten p < 0,10) erhöht sich die Vielfalt der Antworten und Mode Collapse wird reduziert. Q: Wie setze ich die Verbalized Sampling Anleitung für LLMs praktisch um? A: Die Anleitung empfiehlt, die Aufgabe klar zu formulieren, die Anzahl der Varianten festzulegen und ein strukturiertes Ausgabeformat mit separaten -Tags, und einem numerischen -Wert vorzuschreiben. Fordere etwa fünf Antworten an und bestehe darauf, dass jede Wahrscheinlichkeit unter 0,10 liegt, damit wirklich aus den Wahrscheinlichkeitsrändern gesampelt wird.

Q: Welche konkreten Prompt-Beispiele liefert die Anleitung?
A: Die Verbalized Sampling Anleitung für LLMs enthält englische und deutsche Vorlagen, zum Beispiel „Generate 5 responses…“ oder „Erzeuge 5 Antworten…“ und empfiehlt, die eigentliche Aufgabe voranzustellen. Zudem soll das Modell explizite Wahrscheinlichkeiten ausgeben und zufällig aus den Tails sampeln, sodass jede Antwort p < 0,10 hat. Q: Für welche Aufgabenfelder ist Verbalized Sampling besonders nützlich? A: Laut Verbalized Sampling Anleitung für LLMs verbessert VS die Diversität in kreativen Aufgaben, Dialogsimulation, Open-ended QA und synthetischer Datenerzeugung. In kreativen Schreibaufgaben wurde die Vielfalt um das 1,6- bis 2,1-fache gesteigert, ohne Faktentreue und Sicherheit einzubüßen. Q: Welche Modelle empfiehlt die Anleitung für erste Tests mit Verbalized Sampling? A: In der Verbalized Sampling Anleitung für LLMs werden leistungsfähigere Modelle wie GPT-5, Claude Opus 4 und Gemini 2.5 Pro für den Start empfohlen. Die Autorinnen und Autoren beobachten, dass stärkere Modelle besonders stark von Tail-Sampling profitieren. Q: Warum entsteht Mode Collapse und wie adressiert VS den zugrunde liegenden Bias? A: Die Anleitung erklärt, dass Mode Collapse teilweise durch „Typicality Bias“ in Präferenzdaten entsteht, weil Annotierende vertraute Formulierungen bevorzugen. Verbalized Sampling Anleitung für LLMs macht die Unsicherheit des Modells sichtbar und lenkt die Auswahl in die Ränder der Verteilung, wodurch ungewöhnlichere, aber relevante Antworten auftauchen. Q: Wie prüfe ich die Qualität und Sicherheit der mit Verbalized Sampling erzeugten Antworten? A: Folge der Verbalized Sampling Anleitung für LLMs: Prüfe, dass fünf separate -Blöcke vorhanden sind, jeder Block genau einen -Block und einen numerischen -Wert enthält und alle Wahrscheinlichkeiten unter 0,10 liegen. Vergleiche Ton, Perspektive und Faktentreue der Varianten und wähle oder verfeinere die Prompts bei Bedarf.

Q: Welche Grenzen hat die Verbalized Sampling Methode?
A: Die Verbalized Sampling Anleitung für LLMs ist ein Inferenzzeit-Verfahren und ersetzt kein Daten-Cleaning oder weiteres Modelltraining. Bei streng faktenbasierten Aufgaben empfiehlt die Anleitung weiterhin sorgfältige inhaltliche Prüfung, da VS die Bandbreite liefert, aber nicht automatisch Quellen oder Zitate verifiziert.

Contents