12 Min. Lesezeit AI Data Stream Team

Bessere Fragen für KI-Analytics-Tools formulieren

Ungenaue Fragen liefern ungenaue Antworten – und bei BYOK-KI-Tools kosten sie auch mehr. So stellen Sie Ihrer Analytics-KI Fragen, die sie wirklich beantworten kann.

Sie fragen Ihre Analytics-KI „Wie entwickelt sich mein Traffic?” und erhalten drei Absätze voller vager Allgemeinplätze. Oder Sie fragen, warum der Traffic gesunken ist, und die KI verbringt die halbe Antwort damit, ihre eigenen Annahmen zu erläutern – um dann zu einem frustrierend unklaren Ergebnis zu kommen.

Die Versuchung liegt nahe, das Tool für unzulänglich zu halten. Aber das Tool tut genau das, worum es gebeten wurde – das Problem liegt bei der Frage.

Es geht hier nicht darum, „Prompts” zu schreiben. Es geht schlicht darum zu verstehen, wie diese Tools funktionieren, und Fragen so zu formulieren, dass die KI damit arbeiten kann.

Was die KI eigentlich tut

Wenn Sie eine Frage stellen, denkt die KI nicht nach – sie ruft Daten ab. Sie greift auf Ihre verbundenen Datenquellen zu, holt sich, was sie braucht, und formuliert eine Antwort. Die Frage bestimmt, was abgerufen wird und wie sicher die Antwort ausfallen kann.

Eine präzise Frage führt direkt zu konkreten Daten. „Wie haben sich die organischen Sitzungen letzte Woche im Vergleich zur Vorwoche entwickelt?” hat eine klare Antwort – organischen Traffic für zwei Zeiträume abrufen, vergleichen, fertig.

Eine vage Frage zwingt die KI dazu, zu raten und mehrere Möglichkeiten zu prüfen. „Wie entwickelt sich mein Traffic?” kann alles bedeuten: Gesamtsitzungen, nur organisch, nur bezahlt, ein bestimmter Kanal, eine bestimmte Seite, diese Woche, diesen Monat, im Vergleich zum Vormonat, im Vergleich zum Vorjahr. Die KI weiß nicht, was davon Sie interessiert – also wählt sie entweder eine Option (oft die falsche), versucht alle abzudecken, oder bittet um Klärung. Letzteres ist die ehrlichste Reaktion, aber auch die frustrierendste, wenn man eigentlich nur eine schnelle Antwort wollte.

Das hat bei BYOK-Tools direkte Kosten

Bei den meisten KI-Analytics-Plattformen werden die KI-Nutzungskosten vom Anbieter übernommen – Sie zahlen ein Pauschalabonnement und denken nicht weiter darüber nach. Bei Bring-Your-Own-Key-Tools wie AI Data Stream verwenden Sie Ihren eigenen API-Schlüssel, was bedeutet, dass jede Frage direkte Kosten in API-Tokens verursacht – und Sie können genau sehen, wie viele Tokens jede Konversation verbraucht.

Vage Fragen sind teuer. Nicht exorbitant – eine gut formulierte Frage kostet vielleicht einen Bruchteil eines Cents – aber der Unterschied zwischen einer präzisen und einer vagen Frage betrifft nicht nur die Antwortqualität, sondern auch die Anzahl der Datenabrufe, die die KI vor ihrer Antwort durchführen muss.

Eine spezifische Frage löst ein oder zwei gezielte Abfragen an Ihre Datenquellen aus. Eine vage Frage kann fünf oder sechs auslösen – die KI fischt herum, prüft GA4, dann die Search Console, vergleicht beliebig gewählte Zeiträume und gibt am Ende unsichere Antworten, weil sie nicht sicher ist, ob sie das Richtige untersucht hat. Das alles kostet Tokens, und die Antwort am Ende ist immer noch weniger nützlich als das, was eine gut gezielte Einzelfrage geliefert hätte.

Das ist keine Kritik an der Funktionsweise von BYOK-Tools – es ist einfach nützlich zu wissen. Bei einem Tool, bei dem Kosten verborgen sind, würden Sie es nie bemerken. Mit Ihrem eigenen API-Schlüssel fragen Sie sich vielleicht gelegentlich, warum eine Konversation mehr Tokens als erwartet verbraucht hat. Meistens liegt es daran, dass die Fragen zu unspezifisch waren.

Was eine Frage schwer beantwortbar macht

Es gibt einige Muster, die konsequent schlechte Ergebnisse liefern – und die alle leicht zu beheben sind, sobald man sie erkennt.

Kein Zeitrahmen. „Mein Traffic ist gesunken” sagt der KI nicht wann, wie lange oder im Vergleich wozu. „Traffic ist gesunken” ist keine Datenabfrage – es ist ein Gefühl. Die KI muss einen Zeitrahmen erfinden, was bedeutet, dass sie möglicherweise einen Zeitraum betrachtet, der Sie nicht interessiert, oder mit einer Baseline vergleicht, die nicht Ihrer Vorstellung entspricht.

Keine Metrik. „Wie läuft es?” kann Sitzungen, Rankings, Conversions, Werbeausgaben, Absprungrate oder alles zusammen bedeuten. Die KI versucht meist, einen allgemeinen Überblick zu geben, was zu vielen Worten führt, die Ihre eigentliche Frage nicht wirklich beantworten.

Kein Vergleichspunkt. „Ist mein Traffic gut?” hat keine Antwort ohne zu wissen, was für Ihre Website, Ihre Branche und Ihre Geschichte als „gut” gilt. Die KI kann Ihnen sagen, wie hoch Ihr Traffic ist. Ob das zufriedenstellend ist, kann sie ohne Kenntnis Ihrer Benchmarks nicht beurteilen.

Erklärung ohne Kontext anfordern. „Warum ist der Traffic gesunken?” ist eine schwierige Frage, wenn die KI nicht weiß, dass Sie letzte Woche ein Redesign gestartet haben, eine Google Ads-Kampagne pausiert haben oder ein Google Core Update stattgefunden hat. Sie sucht nach Korrelationen in den sichtbaren Daten – und findet vielleicht eine – arbeitet aber ohne die halbe Grundlage. Hier machen Annotationen einen echten Unterschied. Wenn Sie Ereignisse festhalten, sobald sie eintreten – ein Kampagnenstart, eine Website-Aktualisierung, ein bekanntes Algorithmus-Update – hat die KI diesen Kontext verfügbar, wenn sie Fragen zu diesen Zeiträumen beantwortet. Statt zu spekulieren, was eine Veränderung erklären könnte, kann sie prüfen, was Sie bereits notiert haben. „Warum ist der Traffic am 14. gesunken?” ist eine viel günstigere Frage, wenn bereits eine Annotation besagt, dass der GA4-Tracking-Code während einer Website-Aktualisierung ausgefallen ist. Wir kommen weiter unten ausführlicher darauf zurück.

Ein nützlicher Test: Wenn Sie die Frage nicht aus dem Gedächtnis beantworten könnten, ohne mehrere Berichte zu öffnen, kann es die KI auch nicht. Sie kann schneller antworten und gleichzeitig mehr Quellen prüfen – aber sie muss trotzdem wissen, wonach sie sucht.

Die vier Dinge, die eine Frage beantwortbar machen

Nicht jede Frage braucht alle diese Elemente – manchmal reichen zwei oder drei. Aber das sind die Zutaten:

Eine Metrik. Was messen Sie eigentlich? Sitzungen, Klicks, Impressionen, Conversions, Cost-per-Click, Rankings, Absprungrate. Benennen Sie es konkret.

Ein Zeitrahmen mit Vergleich. Nicht nur „letzten Monat”, sondern „letzten Monat im Vergleich zum Vormonat” oder „die letzten 28 Tage im Vergleich zum gleichen Zeitraum des Vorjahres.” Der Vergleich ist oft das Wichtigste – eine Zahl ohne Kontext ist nur eine Zahl.

Ein Scope. Gesamte Website? Eine bestimmte Seite oder ein Bereich? Ein bestimmter Kanal (organisch, bezahlt, E-Mail)? Eine bestimmte Kampagne? Ein bestimmtes Land oder Gerätetyp? Die Einschränkung des Scope führt oft zu einer schnelleren, fokussierteren Antwort.

Eine Hypothese. Das ist optional, aber der Aspekt, der den größten Unterschied macht. Wenn Sie eine Vermutung haben, was passiert ist – „Ich denke, die Rankings auf unseren Produktseiten sind gefallen” oder „Ich frage mich, ob die pausierte Kampagne die organischen Impressionen beeinflusst” – sagen Sie es. Die KI kann prüfen, ob Ihre Hypothese zutrifft, wesentlich effizienter, als wenn sie alles nach etwas Interessantem durchsucht. Und selbst wenn Sie falsch liegen, ist das Ausschließen einer plausiblen Erklärung nützlich.

Bessere Fragen in der Praxis

Hier sind einige typische vage Fragen und wie sie aussehen, wenn sie genug Substanz haben. Das sind keine Skripte – nur Beispiele für die Art von Spezifität, die eine nützliche Antwort liefert.

Statt: „Wie entwickelt sich mein Traffic?” Besser: „Wie haben sich die organischen Gesamtsitzungen letzten Monat im Vergleich zum Vormonat entwickelt? Gab es Seiten, die gegen den Trend lagen?”

Statt: „Warum ist der Traffic gesunken?” Besser: „Der organische Traffic scheint im Vergleich zu vor zwei Wochen gesunken zu sein. Hat sich in der Search Console rund um diesen Zeitraum etwas verändert, besonders bei unseren Blog-Beiträgen?”

Statt: „Funktionieren meine Google Ads?” Besser: „Wie hoch waren die Kosten pro Conversion bei Google Ads letzte Woche, und wie verhält sich das zu den vier vorherigen Wochen?”

Statt: „Was soll ich mir ansehen?” Besser: „Ich habe am Montag ein Kunden-Meeting zur Q1-Performance. Was waren die größten organischen Erfolge und Rückschläge in Q1 im Vergleich zu Q4?”

Statt: „Wie ist meine SEO?” Besser: „Haben sich unsere zehn wichtigsten Ranking-Keywords in den letzten 30 Tagen verändert? Verlieren wir bei Suchanfragen mit hohen Impressionen an Boden?”

Das Muster ist jedes Mal dasselbe: benennen, was gemessen wird, einen Zeitrahmen mit Vergleichspunkt angeben und sagen, wo die KI suchen soll.

Folgefragen sind oft besser als eine große Frage

Die meisten Menschen nähern sich KI-Tools wie einer Suchmaschine – Frage eingeben, Antwort erhalten, Konversation beendet. Aber die besten Analytics-Gespräche funktionieren eher wie ein Gespräch mit einem Kollegen. Man beginnt irgendwo Konkretem, schaut, was zurückkommt, und vertieft dann.

Das funktioniert gut aus mehreren Gründen. Eine enge Einstiegsfrage ist günstig und schnell. Die Antwort sagt meist etwas, auch wenn es nur bestätigt, dass dort nichts Interessantes ist. Und jede Folgefrage baut auf einem zunehmend eingegrenzten Kontext auf – statt alles zu durchsuchen, verfeinert die KI, was sie bereits gefunden hat.

Ein Beispiel, wie das ablaufen könnte:

„Welche Seiten haben letzten Monat im Vergleich zum Vormonat den meisten organischen Traffic verloren?”

Das gibt Ihnen etwas zum Arbeiten. Dann:

„Waren diese Rückgänge auf allen Geräten oder hauptsächlich auf Mobilgeräten?”

Dann:

„Haben diese Seiten Annotationen – Website-Änderungen, Algorithmus-Updates, irgendetwas aus diesem Zeitraum?”

Jede Frage ist klein. Das Gespräch baut sich zu einer Schlussfolgerung auf, die mit einer einzigen weitschweifigen Frage viel länger gedauert hätte – und mehr gekostet hätte.

Dieselbe Logik gilt, wenn Sie nicht wissen, worauf Sie achten sollen. „Hat sich beim organischen Traffic in den letzten zwei Wochen etwas Auffälliges ereignet?” ist ein besserer Einstieg als „Gib mir einen vollständigen Performance-Überblick.” Sie kommen zum Überblick, wenn Sie ihn brauchen – aber Sie finden vielleicht schneller, was Sie suchen, indem Sie die KI eine Sache nach der anderen prüfen lassen.

Annotationen: die Kontextschicht, die alles einfacher macht

Es gibt eine Kategorie von Fragen, die einfach wirken, die KI aber viel mehr Arbeit aufzwingen, als nötig wäre: alles, was die Korrelation von Datenveränderungen mit realen Ereignissen erfordert.

„Warum hat der Traffic am 22. einen Spike gehabt?” ist eine einfache Frage, wenn die KI bereits weiß, dass Sie an diesem Tag einen Newsletter an 15.000 Abonnenten verschickt haben. Ohne diesen Kontext muss sie auf Suche gehen – GA4-Trafficquellen prüfen, Search Console abgleichen, nach Algorithmus-Updates scannen, herausfinden, was an diesem konkreten Datum anders war. Mehr Tool-Aufrufe, mehr Spekulation, weniger Sicherheit in der Antwort.

Annotationen lösen das an der Wurzel. Wenn Sie Ereignisse festhalten, sobald sie eintreten – Kampagnenstarts, Website-Deployments, Tracking-Änderungen, Algorithmus-Updates, alles, was Ihre Daten beeinflussen könnte – bauen Sie eine Kontextschicht auf, auf die die KI für jede zukünftige Frage zu diesen Zeiträumen zurückgreifen kann. Nicht als visueller Marker in einem Diagramm, sondern als echte Information, die beeinflusst, wie sie die Daten interpretiert.

Die Dinge, die es wert sind, annotiert zu werden, sind nicht nur die dramatischen. Ein Kampagnenstart, der genau wie erwartet verlief. Ein Redesign, das keine messbare Wirkung hatte. Eine Werbepause während einer Aktion. Diese fühlen sich im Moment unscheinbar an, aber drei Monate später, wenn Sie versuchen, eine Datenform zu verstehen, die Sie nicht erkennen, ist es wichtig zu wissen, was damals passierte. Ohne Annotationen verlassen Sie sich auf das Gedächtnis – und niemand erinnert sich zuverlässig, was an welchem Datum vor zwei Quartalen deployed wurde.

In AI Data Stream sind Annotationen eine verbundene Datenquelle wie jede andere – die KI fragt sie als Tool ab, wenn sie beurteilt, dass die Frage es erfordert. Fragen Sie nach einer Traffic-Veränderung in einem bestimmten Zeitraum, prüft sie wahrscheinlich, ob Sie rund um diese Daten etwas Relevantes notiert haben – genauso, wie sie die Search Console abgleichen oder nach Algorithmus-Updates suchen würde. Je mehr Sie im Laufe der Zeit festgehalten haben, desto wahrscheinlicher findet sie etwas Konkretes, statt aus den Zahlen allein spekulieren zu müssen.

Wenn Sie neu starten, sind die wertvollsten Annotationen Ihre eigenen Ereignisse – Kampagnenstarts, Website-Änderungen, Tracking-Updates, alles, was Sie wissen, was passiert ist. Zwei Kategorien von Annotationen werden automatisch für Sie verwaltet. Die erste kommt direkt aus Googles eigenem Incident-Feed: Algorithmus-Updates und Such-Infrastrukturvorfälle werden automatisch täglich synchronisiert, ohne manuellen Aufwand. Die zweite ist eine SEO-Kontextschicht – wenn wichtige SEO-Publikationen analysieren, was ein bestimmtes Update beeinflusst hat und warum, wird diese Analyse als globale Annotation veröffentlicht, die Nutzer ein- oder ausschalten können. Zwischen diesen beiden Schichten und Ihrem eigenen Ereignisverlauf haben die meisten „Warum hat sich das verändert?”-Fragen einen konkreten Ausgangspunkt.

System-Prompts: der KI beibringen, wie Sie arbeiten

Alles oben Genannte betrifft die Formulierung einzelner Fragen. System-Prompts sind etwas anderes: Sie definieren, wie die KI in allen Ihren Konversationen agiert, damit Sie sich nicht ständig wiederholen müssen.

Ein System-Prompt ist ein Satz von Anweisungen, der hinter jeder Konversation steht – Ihr ständiges Briefing an die KI über Ihre Prioritäten, Ihre bevorzugte Arbeitsweise und alle Verknüpfungen, die Sie etablieren möchten. Sie legen ihn einmal fest, und er gilt jedes Mal.

Die einfachste Anwendung ist das Festlegen eines Standardverhaltens. Wenn Sie immer möchten, dass Vergleiche über denselben Zeitraum laufen, können Sie das festhalten. Wenn Antworten mit dem Hauptbefund statt mit der Methodik beginnen sollen, sagen Sie das. Wenn es eine bestimmte Seite oder Kampagne gibt, die Sie als Benchmark für Ihre Website-Performance betrachten, machen Sie das zum Teil des Prompts. Die KI arbeitet dann innerhalb dieser Parameter, ohne dass Sie sie jedes Mal neu formulieren müssen.

Sie können System-Prompts auch nutzen, um Verknüpfungen für komplexere Workflows zu erstellen. Etwas wie „Wenn ich frage, was rund um ein Ereignis passiert ist, vergleiche immer die zwei Wochen davor und danach” verwandelt einen mehrstufigen Analyseprozess in eine einzige ungezwungene Frage. Die KI weiß, was Sie meinen.

AI Data Stream enthält eine Reihe von Starter-System-Prompts für gängige Rollen – Datenanalyst, SEO-Spezialist, Marketing-Manager, Content-Stratege, E-Commerce-Analyst und einen Executive-Summary-Modus für übergeordnete Übersichten. Sie können jeden davon unverändert importieren, ihn an Ihre tatsächliche Situation anpassen oder sie gänzlich ignorieren und Ihren eigenen von Grund auf neu schreiben. Es sind Ausgangspunkte, keine Vorschriften.

System-Prompts werden auf Team-Ebene festgelegt und über Properties hinweg geteilt. Wenn Sie also mehrere Websites verwalten oder im Team arbeiten, agiert jeder mit demselben Grundverhalten.

Der praktische Effekt eines gut formulierten System-Prompts: Der Aufwand verlagert sich von der Frage zur Einrichtung. Statt bei jeder Frage daran zu denken, Ihr bevorzugtes Datums-Vergleichsformat anzugeben, definieren Sie es einmal. Statt in jeder Sitzung Ihre Reporting-Prioritäten zu erklären, sind sie bereits da. Es ist der Unterschied zwischen dem Briefing eines neuen Auftragnehmers jeden Montag und der Arbeit mit jemandem, der bereits weiß, wie Sie arbeiten.

Was die KI gut und weniger gut kann

KI-Analytics-Tools sind schnell darin, Daten zusammenzuführen und Korrelationen über Quellen hinweg zu prüfen. Die manuelle Arbeit, die sie ersetzen – vier Tools öffnen, übereinstimmende Zeiträume einstellen, Zahlen gedanklich vergleichen, prüfen, ob eine zeitliche Korrelation aussagekräftig ist – braucht tatsächlich Zeit, und die KI erledigt das in Sekunden.

Weniger gut sind sie darin, Ihr Unternehmen zu kennen. Die KI weiß nicht, dass die Seite, die gerade 40 % ihres Traffics verloren hat, bereits für eine Überarbeitung vorgesehen war. Sie weiß nicht, dass der Conversion-Einbruch durch eine Preisänderung Ihres Vertriebsteams letzte Woche erklärt wird. Sie weiß nicht, dass der Traffic-Spike aus Deutschland von einer Erwähnung in einem Newsletter stammt, von dem Sie nicht wussten, dass er verschickt wurde.

Deshalb kommt es auf die Kombination aus spezifischen Fragen und guten Annotationen an. Die KI bringt die Daten; Sie bringen den Unternehmenskontext. Wenn diese beiden Dinge zusammenwirken, sind die Antworten wirklich nützlich. Wenn Sie vage Fragen ohne Kontext-Annotationen stellen, bitten Sie die KI zu spekulieren – und sie wird es tun, aber die Antworten werden entsprechend unsicher sein.

Stellen Sie sich vor, Sie arbeiten mit einem sehr schnellen Analysten, der Zugang zu all Ihren Daten hat, aber Ihre Geschichte nicht kennt. Je mehr Sie ihm mitteilen, was wichtig ist und was passiert ist, desto besser wird die Analyse.

Praktische Zusammenfassung

Das sind die Gewohnheiten, die einen konstanten Unterschied machen:

  • Bei jeder Frage zu Veränderungen (rauf, runter, besser, schlechter) einen Zeitrahmen und einen Vergleichspunkt angeben
  • Die Metrik nennen, die Sie interessiert, statt nach einem allgemeinen Gesundheitscheck zu fragen
  • Sagen, wo die KI suchen soll – gesamte Website, ein bestimmter Kanal, eine bestimmte Seite
  • Hypothese äußern, wenn Sie eine haben – die KI kann sie schneller bestätigen oder ausschließen, als eine Antwort von Grund auf zu finden
  • Spezifisch einsteigen und mit Folgefragen vertiefen, statt alles auf einmal zu fragen
  • Ereignisse annotieren, wenn sie eintreten – Kampagnen, Website-Änderungen, Algorithmus-Updates – damit zukünftige Fragen Kontext haben
  • Einen System-Prompt verwenden, um Standardpräferenzen und Verknüpfungen zu definieren, damit Sie Kontext nicht jede Sitzung wiederholen müssen

Das ist alles andere als kompliziert. Es ist derselbe Instinkt, den Sie beim Stellen einer Frage an einen Kollegen verwenden würden, der den Hintergrund nicht kennt. Geben Sie ihm genug, womit er arbeiten kann, und Sie erhalten eine klare Antwort.


Bereit, Ihren Daten bessere Fragen zu stellen? AI Data Stream kostenlos testen →

Verwandte Artikel