Klare Zielsetzung
Was genau soll am Ende herauskommen? Eine konkrete Aufgabe ist immer besser als eine vage Bitte. „Schreibe einen 200-Wort-Newsletter-Hook für CRM-Entscheider:innen“ schlägt „Schreibe einen Text“ jeden Tag.
Beschreibe dein Ziel oder füge einen bestehenden Prompt ein. Der KI Weekly Prompt-Generator erzeugt eine klare, strukturierte Vorlage für ChatGPT, Claude, Gemini und Co.
Ein guter Prompt ist kein Zufall. Er beschreibt klar, was erreicht werden soll, gibt der KI den Kontext, den sie braucht, und legt fest, wie das Ergebnis aussieht. So bekommst du verlässlich gute Ergebnisse, nicht nur einmal, sondern reproduzierbar.
Was genau soll am Ende herauskommen? Eine konkrete Aufgabe ist immer besser als eine vage Bitte. „Schreibe einen 200-Wort-Newsletter-Hook für CRM-Entscheider:innen“ schlägt „Schreibe einen Text“ jeden Tag.
Welche Persona soll die KI annehmen? Was ist die Zielgruppe? Welche Daten gibt es? Trenne feste Anweisungen von variablen Inhalten, mit klaren Sektionen oder Variablen-Platzhaltern.
Markdown, Tabelle, JSON, Aufzählung? Lege das Format explizit fest. Bei strukturierten Daten lohnt sich ein JSON-Schema. Das spart Nachbearbeitung.
Was soll explizit NICHT enthalten sein? Marketing-Floskeln vermeiden, keine Code-Halluzinationen, keine Quellen erfinden. Negative Constraints sind genauso wichtig wie positive.
Konkrete Anforderungen produzieren konkrete Ergebnisse. Lege Länge, Tonalität und Zielgruppe fest. Lieber zu detailliert als zu offen.
Statt: „Schreibe einen Text über KI.“ Besser: „Schreibe einen 180-Wort-Newsletter-Hook über generative KI im Mittelstand. Zielgruppe: CRM-Entscheider:innen. Ton: nüchtern, ohne Buzzwords. Schließe mit einer konkreten Frage.“
Variablen wie {{ZIELGRUPPE}}, {{TONALITÄT}}, {{LÄNGE}} machen Prompts wiederverwendbar. Du erstellst einen Prompt einmal und füllst ihn beliebig oft mit neuen Werten.
Schreibe einen Hook für {{ZIELGRUPPE}} mit {{TONALITÄT}}. Länge: {{LÄNGE}} Wörter. Aufhänger: {{AUFHÄNGER}}.Halte feste Anweisungen oben, variable Inhalte unten. Markiere Daten klar mit XML-Tags oder Sektionen. So weiß die KI, was Anweisung und was Eingabe ist.
<context>{{KUNDEN_FEEDBACK}}</context>
<task>Fasse die drei häufigsten Beschwerden zusammen.</task>Beschreibe, wann der Output gut genug ist. Klare Kriterien helfen der KI, ihre eigene Antwort zu prüfen, und dir, das Ergebnis schnell zu bewerten.
Erfolgreich ist die Antwort, wenn sie: a) maximal 200 Wörter umfasst, b) eine konkrete Frage enthält, c) ohne Marketing-Floskeln auskommt, d) auf das Persona-Detail eingeht.
Few-Shot-Beispiele beschleunigen die Konvergenz auf den gewünschten Stil massiv. Zwei oder drei Beispiele für gewünschte und unerwünschte Ergebnisse reichen oft aus.
„Sachlich, ohne Buzzwords, in der Du-Form, max. 12 Wörter pro Satz.“ Solche Constraints prägen den Stil zuverlässiger als ein „freundlicher“ Hinweis.
Bessere Prompts entstehen durch zwei bis drei Runden gezielter Anpassung: „Mach es kürzer“, „Füge ein Beispiel hinzu“, „Schärfe das Output-Format als JSON“. Schreibe deine Wünsche direkt in den Prompt-Editor und generiere neu.
Reasoning + strict JSON
Reasoning-Effort gezielt steuern, Verbosity-Parameter nutzen, lange System-Prompts mit Caching versehen, strict JSON-Schema für strukturierte Outputs. Lange Kontexte sind kein Problem; nutze sie für ausführliche Persona- und Stilvorgaben.
XML-Tags und Detailtiefe
Claude liebt klare XML-Sektionen wie <context>, <task>, <constraints>. Ausführliche Instruktionen zahlen sich aus. Exzellent für Code-Editing, Refactoring und nuancierte Lektorate.
Multimodal und live
Gemini glänzt bei multimodalen Eingaben (Bild, Audio, Video) und Live-Tools. Wenn dein Prompt Bilder oder Tabellen einschließt, ist Gemini eine starke Wahl. Function-Calling unterstützt strukturierte Workflows.
Such-fokussiert mit Quellen
Perplexity ist auf Recherche und Quellenarbeit optimiert. Verlange explizit Quellen, fordere mindestens drei voneinander unabhängige Belege und beschränke den Output auf das, was die Quellen tatsächlich hergeben.
Code-Editor mit @-Mentions
In Cursor sind kurze, fokussierte Anweisungen ideal. Nutze @-Mentions für Dateien, fordere Diff-/Patch-Format und beschränke die Anweisung auf konkrete Änderungen. Halluzinationen werden so minimiert.
Funktioniert überall
Klare Anweisungen, sprechende Variablen-Platzhalter und sauber getrennte Abschnitte (z. B. Aufgabe, Kontext, Format) funktionieren in jedem KI-Tool. Verzichte auf werkzeugeigene Sonderzeichen oder Befehle, die nur ChatGPT, Claude oder Cursor verstehen, wenn der Prompt überall einsetzbar bleiben soll.
Sage in eigenen Worten, was der Prompt leisten soll. Je konkreter, desto besser, inklusive Zielgruppe, Tonalität und gewünschtem Format.
„Erstellen“ entwirft einen neuen Prompt aus deiner Beschreibung. „Verbessern“ schärft einen bestehenden Prompt, ohne die Absicht zu ändern.
Du erhältst einen direkt einsetzbaren Prompt mit Titel, Tags und Variablen-Platzhaltern. Klick auf eine Variable im Output zeigt dir den Namen zum Einsetzen.
Speichere den Prompt in deiner Bibliothek oder veröffentliche ihn in der Galerie, damit andere davon profitieren.
Alles, was du zum KI Weekly Prompt-Generator wissen musst: von Limits über Modellauswahl bis Veröffentlichung.
Der KI Weekly Prompt-Generator ist ein kostenloses Werkzeug, das aus deiner Beschreibung einen sofort einsetzbaren KI-Prompt erstellt: mit klarer Zielsetzung, Kontext, Variablen und Stoppkriterien. Du kannst neue Prompts entwerfen oder bestehende Prompts schärfen lassen.
In allen gängigen LLM-Tools: ChatGPT, Claude, Gemini, Perplexity, Mistral, Cursor und vielen weiteren. Die Best Practices, die der Generator anwendet (klare Anweisungen, Variablen-Platzhalter, getrennte Sektionen), sind plattform-agnostisch und funktionieren überall.
Ja, die Nutzung ist vollständig kostenlos. Ein Account ist optional. Ohne Anmeldung kannst du frei generieren und deine letzten Generations werden ausschliesslich lokal in deinem Browser gespeichert. Nur das Speichern in der Bibliothek, das Veröffentlichen und das Voten in der Galerie sind eingeloggten Nutzer:innen vorbehalten.
Deine letzten 10 Generationen werden ausschliesslich in deinem Browser (localStorage) abgelegt. Sie verlassen dein Gerät nicht und sind für niemanden sonst sichtbar, auch nicht für uns. Eingeloggte Nutzer:innen können Prompts zusätzlich gezielt in ihrer persönlichen Bibliothek ablegen oder öffentlich in die Galerie stellen. Du behältst jederzeit die Kontrolle und kannst Prompts wieder löschen oder privat schalten.
Im Modus „Erstellen“ beschreibst du, was der Prompt leisten soll. Die KI entwirft einen neuen Prompt von Grund auf. Im Modus „Verbessern“ fügst du einen bestehenden Prompt ein und die KI schärft Zielsetzung, Kontext, Variablen und Stoppkriterien, ohne deine Absicht zu verändern. Ideal, um eigene Prompts auf das nächste Niveau zu heben.
Variablen-Platzhalter machen Prompts wiederverwendbar. Du ersetzt sie beim Einsatz durch konkrete Werte, z. B. {{ZIELGRUPPE}} durch „CRM-Entscheider:innen im Mittelstand“. Klick im Output auf eine Variable, um den Namen zu kopieren oder dir notiert zu bekommen.
Eingeloggte Nutzer:innen können öffentliche Prompts mit einem Up- oder Downvote bewerten. Pro Account zählt eine Stimme; ein zweiter Klick auf denselben Vote nimmt ihn zurück. Trending-Prompts werden nach Wochen-Score sortiert, sodass aktuell beliebte Prompts oben stehen.
Klicke nach dem Generieren auf „Veröffentlichen“. Du gibst Titel, eine kurze öffentliche Beschreibung und Tags an und kannst den Prompt in deiner Bibliothek behalten. Veröffentlichte Prompts erscheinen in der Galerie unter /prompt-generator/galerie und können von der Community bewertet und kopiert werden. Du kannst sie jederzeit wieder privat schalten.
Unter /prompt-generator/galerie findest du im Tab „Meine Prompts“ alle deine gespeicherten Prompts. Per Klick kannst du einzelne Prompts veröffentlichen, privat schalten oder endgültig löschen. Beim Löschen wird auch eine eventuell gepostete Galerie-Version mitsamt aller Stimmen entfernt.
3 Prompts in den letzten 14 Tagen erstellt.
Jannikvor 56 Min.
A prompt that asks an AI for one overlooked, logically grounded insight about the user, delivered in simple direct language and ending with a strong next-step instruction.