Wer einem KI-Chatbot die Frage stellt, ob seine Geschäftsidee tragfähig ist, bekommt in der Regel eine höfliche, aber wenig verwertbare Einschätzung zurück. Das liegt weniger an der Technologie selbst als an der Art der Fragestellung: Ohne klare Struktur und relevanten Kontext liefern Sprachmodelle generische Antworten, die kaum über ein aufmunterndes Schulterklopfen hinausgehen. Wer das ändern will, muss anders fragen und dem Modell eine präzisere Ausgangsbasis geben.

Warum vage Prompts zu vagem Feedback führen

Große Sprachmodelle wie ChatGPT, Claude oder Gemini sind darauf trainiert, hilfreich und zustimmend zu wirken. Das führt dazu, dass sie auf unspezifische Eingaben mit ebenso unspezifischen, oft wohlwollenden Rückmeldungen reagieren. Dieses Verhalten wird in der Forschung zur Mensch-KI-Interaktion als „Sycophancy“ beschrieben: Das Modell neigt dazu, die Erwartungen des Nutzers zu bestätigen, anstatt eine unabhängige, kritische Einschätzung zu liefern.

Dieses Phänomen ist kein Einzelfall, sondern ein strukturelles Merkmal moderner Sprachmodelle. Es ist in mehreren Studien dokumentiert worden, unter anderem von Forschern bei Anthropic sowie in der wissenschaftlichen Literatur zu Large Language Models. Die Systeme optimieren auf Nützlichkeit und Zustimmung – nicht zwingend auf Widerspruch oder kritische Distanz.

Der Ausweg liegt in der Promptgestaltung. Wer ein Sprachmodell zwingt, eine klar definierte Rolle einzunehmen – etwa die eines kritischen Marktanalysten, Investors oder direkten Konkurrenten –, verändert den Rahmen der Antwort grundlegend. Das Modell orientiert sich dann nicht mehr an der impliziten Erwartung des Nutzers, sondern an der explizit formulierten Aufgabe. Dadurch steigt die Wahrscheinlichkeit, dass auch Schwächen und Risiken offen benannt werden.

Strukturierte Prompts als Methode

Ein funktionierender Ansatz kombiniert mehrere Elemente: eine klare Rollenzuweisung, eine präzise Beschreibung der eigenen Idee inklusive Zielgruppe und Marktumfeld sowie konkrete Fragen zur Wettbewerbssituation. Besonders wichtig ist eine explizite Aufforderung, Schwächen, Risiken und Gegenargumente herauszuarbeiten. In der praktischen Anwendung zeigt sich, dass sich die Qualität der Antworten deutlich verbessert, wenn das Modell aufgefordert wird, kritisch zu argumentieren statt zu bestätigen.

Solche Rollenspiel-Techniken sind im Bereich des Prompt-Engineerings gut dokumentiert und werden unter anderem in Leitfäden von OpenAI sowie in Fachpublikationen empfohlen. Entscheidend ist dabei, dass der Prompt nicht auf Bestätigung abzielt, sondern gezielt nach Problemen sucht. Nur so entsteht ein realistisches Bild der eigenen Idee.

Marktdaten als notwendige Ergänzung

Ein weiterer zentraler Faktor ist die Datengrundlage. Sprachmodelle verfügen über ein Trainingsdaten-Cutoff und kennen aktuelle Marktentwicklungen nur eingeschränkt. Wer fundiertes Feedback erhalten möchte, sollte relevante Informationen direkt in den Prompt integrieren: Wer sind die wichtigsten Wettbewerber? Welche Preismodelle existieren? Wie sieht das Nutzerverhalten aus?

Das gilt auch für die Zielgruppenbeschreibung. Ein unscharfer Begriff wie „Startup-Gründer“ führt zu oberflächlichen Antworten, während eine detaillierte Beschreibung – etwa Branche, Erfahrungslevel, Budget und konkrete Probleme – das Modell zu präziseren Einschätzungen zwingt. Diese Präzision macht die Antwort nicht nur brauchbarer, sondern auch überprüfbarer.

Der Ansatz, KI nicht als wohlwollenden Berater, sondern als strukturierten Gegenpol zu nutzen, setzt sich zunehmend durch. Ob als Vorbereitung auf ein Investorengespräch oder als früher Stresstest für eine Produktidee: Wer seine Schwachstellen früh erkennt, bevor der Markt sie aufdeckt, verschafft sich einen messbaren strategischen Vorteil im Wettbewerb.