Prompt-Engineering Grundlagen

Bessere Prompts Schreiben: ein Praktisches Framework für ChatGPT, Claude und Gemini

Ein belastbares Framework für bessere Prompts mit Ziel, Kontext, Grenzen, Ausgabeformat, Beispielen und Qualitätssicherung.

Aktualisiert: 4. April 202616 Min. LesezeitPrompt Engineering Leitfaden

Kontext

Warum dieser Leitfaden wichtig ist

Schwache KI-Ausgaben sind selten ein Modellproblem. Meist ist das eigentliche Problem die Spezifikation: Die Aufgabe ist zu vage, der Kontext ist unklar, die Grenzen fehlen oder das gewünschte Format wurde nicht sauber definiert. Das Modell füllt diese Lücken dann mit generischem Text, und genau dort entstehen Inkonsistenz, Rework und unnötige Qualitätsverluste.

Ein guter Prompt funktioniert deshalb eher wie ein kompaktes Arbeitsbriefing als wie eine spontane Frage. Er definiert Ziel, Einsatzkontext, harte Einschränkungen, zulässige Annahmen und die gewünschte Form des Ergebnisses. Genau diese Art von Klarheit wird auch in den Leitlinien der großen Modellanbieter immer wieder empfohlen.

Dieser Leitfaden gibt dir ein wiederverwendbares System für Marketing, SEO, Content, Reporting und Strategiearbeit. Nicht um einfach mehr Text zu erzeugen, sondern um verlässlichere Outputs zu bekommen, die in echten Workflows bestehen.

Zusammenfassung

Wichtigste Erkenntnisse

  • Nenne Aufgabe, Zielgruppe und Erfolgskriterium direkt am Anfang.
  • Gib nur den Kontext mit, den das Modell wirklich braucht.
  • Definiere das Ausgabeformat, bevor du inhaltliche Qualität erwartest.
  • Beispiele helfen nur dann, wenn sie echte Präzision schaffen.
  • Trenne Generierung und Validierung in zwei saubere Schritte.
1

Operativer Block

1) Starte mit dem gewünschten Ergebnis, nicht mit einer unscharfen Anfrage

Eine Aufforderung wie „gib mir ein paar Ideen“ produziert fast immer mittelmäßige Antworten. Viel stärker ist es, das genaue Deliverable zu benennen: zum Beispiel zehn Blogwinkel für B2B-SaaS-Entscheider mit Suchintention, ICP und CTA-Ansatz. Dadurch muss das Modell nicht raten, was du wirklich brauchst.

Ein besonders hilfreiches Muster ist: Rolle + Aufgabe + Zielgruppe + Entscheidungskontext. Im Marketingkontext gehören dazu häufig Tonalität, Funnel-Stufe, Kanal, Compliance-Grenzen und das Ziel, das optimiert werden soll.

Rolle: welche fachliche Perspektive das Modell einnehmen soll.
Aufgabe: welches konkrete Ergebnis jetzt geliefert werden muss.
Zielgruppe: wer das Ergebnis liest oder verwendet.
Erfolg: woran du ein gutes Ergebnis erkennst.
2

Operativer Block

2) Strukturiere Kontext in Blöcken statt in einem langen Mischtext

Auch bei großen Kontextfenstern bleibt Struktur entscheidend. Wenn Instruktionen, Daten, Präferenzen und Ausnahmen in einem einzigen Block vermischt werden, steigt die Wahrscheinlichkeit für Missverständnisse. Klar getrennte Abschnitte wie KONTEXT, INPUT, GRENZEN und AUSGABEFORMAT funktionieren deutlich besser.

Diese Disziplin hilft nicht nur dem Modell, sondern auch dem Team. Gut aufgebaute Prompts sind leichter zu pflegen, zu testen und iterativ zu verbessern.

Trenne Anweisungen klar von Quellmaterial.
Halte harte Restriktionen getrennt von weichen Präferenzen.
Bitte das Modell, Annahmen explizit zu markieren, wenn Daten fehlen.
3

Operativer Block

3) Definiere die Form der Ausgabe im Voraus

Wenn Outputs in Dokumente, Dashboards oder operative Prozesse fließen, ist Form genauso wichtig wie Inhalt. Eine offene Vorgabe wie „antworte ausführlich“ ist zu unpräzise. Besser ist es, Rubriken, Tabellen, Wortgrenzen oder feste Bullet-Anzahlen vorzugeben.

Das reduziert Nachbearbeitung, erhöht Vergleichbarkeit und macht wiederkehrende Workflows robuster.

Lege feste Abschnittsnamen und Reihenfolge fest.
Gib Wort- oder Zeichenlimits pro Block vor.
Fordere konkrete, operative Sprache statt abstrakter Formulierungen.
4

Operativer Block

4) Nutze Beispiele nur dann, wenn sie echte Präzision erzeugen

Few-Shot-Prompting hilft vor allem dann, wenn Stil, Klassifikation oder Grenzfälle entscheidend sind. Ein oder zwei starke Beispiele können viel wirksamer sein als zehn zusätzliche Instruktionszeilen.

Zu viele mittelmäßige Beispiele erhöhen Kosten und verwässern die eigentliche Zielrichtung. Deshalb gilt: wenige Beispiele mit hoher Signalqualität sind besser als viele durchschnittliche.

5

Operativer Block

5) Ergänze immer einen Qualitätscheck vor der finalen Antwort

Erfahrene Teams behandeln die erste Modellantwort nicht als Endprodukt. Stattdessen folgt nach der Generierung eine zweite Prüfung auf Vollständigkeit, Markenkonsistenz, fehlende Teile und unbelegte Behauptungen.

Dieses einfache Zwei-Schritt-Muster reduziert Fehler in öffentlichen Inhalten, Berichten und internen Entscheidungsdokumenten deutlich.

Vorlagenbibliothek

Wiederverwendbare Vorlagen

Universelles Prompt-Grundgerüst

Für die meisten Business-Tasks, bei denen Qualität und Wiederholbarkeit wichtig sind.

Du bist [ROLLE].
Aufgabe: [GENAUES DELIVERABLE].
Zielgruppe: [WER DAS ERGEBNIS NUTZT].
Business-Ziel: [WAS OPTIMIERT WERDEN SOLL].

Kontext:
"""
[RELEVANTE FAKTEN, INPUTS, GRENZEN]
"""

Harte Grenzen:
- [Grenze 1]
- [Grenze 2]
- Erfinde keine Quellen, Kennzahlen oder Zitate.

Ausgabeformat:
1) [Abschnitt A] (max [X] Wörter)
2) [Abschnitt B] (genau [N] Bullet Points)
3) [Abschnitt C] (Tabelle mit Spalten: ...)

Qualitätscheck vor der finalen Antwort:
- Prüfe, ob alle Abschnitte vorhanden sind.
- Markiere unbekannte Daten als unbekannt.
- Nutze klare, entscheidungsfähige Sprache.

Vorlage für Marketing-Briefings

Für Kampagnen, Briefings und strukturierte Wachstumsplanung.

Verhalte dich wie ein Senior Growth Strategist.
Erstelle ein Kampagnenbriefing für [PRODUKT] für [ICP] in [MARKT].
Primärer KPI: [KPI]. Sekundärer KPI: [KPI].

Enthalten sein sollen:
- Problemdefinition
- Message Pillars (3)
- Offer Angles (3)
- Kanalplan (owned / paid / community)
- Risiken und Gegenmaßnahmen

Gib das Ergebnis aus als:
- 1 Executive Summary Absatz
- 1 Tabelle (Kanal, Ziel, Botschaft, CTA)
- 5 direkte nächste Schritte

Qualitätskontrolle

Häufige Fehler und Korrekturen

Zu breite Aufgabenstellung

Problem: Das Modell liefert generische Antworten, weil das eigentliche Ziel nicht klar genug ist.

Korrektur: Verankere jeden Prompt in Deliverable, Zielgruppe und Erfolgskriterium.

Keine Beweisgrenze

Problem: Fehlende Informationen werden mit plausiblen, aber unbelegten Annahmen aufgefüllt.

Korrektur: Weise das Modell an, unbekannte Punkte ausdrücklich als unbekannt zu markieren.

Offenes Ausgabeformat

Problem: Die Struktur ändert sich von Run zu Run und ist schwer wiederverwendbar.

Korrektur: Definiere Format, Länge und Abschnitte im Voraus.

FAQ

Häufige Fragen

Sollten Prompts kurz oder lang sein?

Nicht die Länge entscheidet, sondern die Klarheit. Ein gut strukturierter längerer Prompt ist oft deutlich besser als ein kurzer, aber unpräziser Prompt.

Wann sollte ich Beispiele hinzufügen?

Wenn Stil, Klassifikation oder Grenzfälle kontrolliert werden müssen. Für einfache Aufgaben reichen oft klare Instruktionen.

Funktioniert dieses Framework modellübergreifend?

Ja. ChatGPT, Claude und Gemini unterscheiden sich in Nuancen, aber klare Ziele, guter Kontext und definierte Formate verbessern jedes Modell.

Quellen

Referenzen und weiterführende Hinweise