15 min de lecture AI Data Stream Team

Formuler de meilleures questions pour les outils d'analyse IA

Des questions vagues donnent des réponses vagues – et avec les outils IA en BYOK, elles coûtent aussi plus cher. Voici comment poser à votre IA analytique des questions auxquelles elle peut vraiment répondre.

Vous demandez à votre IA analytique « comment se porte mon trafic ? » et vous obtenez trois paragraphes de généralités prudentes. Ou vous demandez pourquoi le trafic a chuté, et l’IA passe la moitié de sa réponse à clarifier ses propres hypothèses, pour finir par quelque chose de frustrant et peu concluant.

La tentation est de penser que l’outil n’est pas terrible. Mais l’outil fait exactement ce qu’on lui a demandé – le problème vient de la question.

Il ne s’agit pas d’apprendre à écrire des « prompts ». Il s’agit simplement de comprendre comment ces outils fonctionnent, et de poser des questions qui leur donnent matière à travailler.

Ce que fait réellement l’IA

Quand vous posez une question, l’IA ne réfléchit pas – elle récupère des données. Elle accède à vos sources de données connectées, récupère ce dont elle a besoin, et construit une réponse. La question détermine ce qu’elle récupère et avec quelle confiance elle peut répondre.

Une question précise mène directement à des données spécifiques. « Comment les sessions organiques ont-elles évolué la semaine dernière par rapport à la semaine précédente ? » a une réponse claire – récupérer le trafic organique pour deux périodes, comparer, terminé.

Une question vague oblige l’IA à deviner ce que vous vouliez dire et à vérifier plusieurs possibilités. « Comment se porte mon trafic ? » peut signifier n’importe quoi : sessions totales, organique seulement, payant seulement, un canal spécifique, une page spécifique, cette semaine, ce mois-ci, par rapport au mois dernier, par rapport à l’année dernière. L’IA ne sait pas ce qui vous intéresse, donc elle choisit une option (souvent la mauvaise), couvre toutes les possibilités de façon imprécise, ou vous demande de préciser – ce qui est la réponse la plus honnête, mais aussi la plus frustrante quand vous vouliez juste une réponse rapide.

Cela a un coût direct avec les outils BYOK

Sur la plupart des plateformes d’analyse IA, le coût d’utilisation de l’IA est absorbé par le fournisseur – vous payez un abonnement forfaitaire et n’y pensez plus. Avec les outils Bring Your Own Key comme AI Data Stream, vous utilisez votre propre clé API, ce qui signifie que chaque question a un coût direct en tokens API – et vous pouvez voir exactement combien de tokens chaque conversation consomme.

Les questions vagues coûtent cher. Pas énormément – une question bien formulée peut coûter une fraction de centime – mais la différence entre une question précise et une question vague ne concerne pas seulement la qualité de la réponse : c’est aussi le nombre de récupérations de données que l’IA doit effectuer avant de pouvoir répondre.

Une question spécifique déclenche une ou deux requêtes ciblées vers vos sources de données. Une question vague peut en déclencher cinq ou six – l’IA tâtonnant, vérifiant GA4, puis Search Console, puis comparant des périodes choisies plus ou moins arbitrairement, puis couvrant tout avec incertitude parce qu’elle n’est pas sûre d’avoir regardé au bon endroit. Vous payez tout cela, et la réponse obtenue à la fin est moins utile que ce qu’aurait produit une seule question bien ciblée.

Ce n’est pas une critique du fonctionnement des outils BYOK – c’est simplement utile à comprendre. Avec un outil dont les coûts sont cachés, vous ne le remarqueriez jamais. Avec votre propre clé API, vous pourrez parfois vous demander pourquoi une conversation a consommé plus de tokens que prévu. La plupart du temps, c’est parce que les questions n’étaient pas assez précises.

Ce qui rend une question difficile à répondre

Il existe quelques schémas qui produisent systématiquement de mauvais résultats – et tous sont faciles à corriger une fois qu’on les reconnaît.

Pas de période. « Mon trafic a baissé » ne dit pas à l’IA quand, combien de temps, ni par rapport à quoi. « Le trafic a baissé » n’est pas une requête de données – c’est un ressenti. L’IA doit inventer une période, ce qui signifie qu’elle regarde peut-être une fenêtre qui ne vous intéresse pas, ou compare à une référence qui ne correspond pas à ce que vous aviez en tête.

Pas de métrique. « Comment ça se passe ? » peut signifier sessions, classements, conversions, dépenses publicitaires, taux de rebond ou tout à la fois. L’IA essaiera généralement de donner un aperçu général, ce qui produit beaucoup de mots qui ne répondent pas vraiment à ce que vous vous demandiez.

Pas de point de comparaison. « Mon trafic est-il bon ? » n’a pas de réponse sans savoir ce que « bon » signifie pour votre site, votre secteur et votre historique. L’IA peut vous dire quel est votre trafic. Elle ne peut pas vous dire si c’est satisfaisant sans connaître vos références ou en en inventant une.

Demander une explication sans fournir le contexte. « Pourquoi le trafic a-t-il baissé ? » est une question difficile si l’IA ne sait pas que vous avez lancé une refonte du site la semaine dernière, mis en pause une campagne Google Ads, ou qu’une mise à jour majeure de Google a eu lieu. Elle cherchera des corrélations dans les données qu’elle peut voir – et en trouvera peut-être une – mais elle travaille sans la moitié du tableau. C’est là que les annotations font une vraie différence. Quand vous enregistrez les événements au fur et à mesure – un lancement de campagne, un déploiement de site, une mise à jour d’algorithme connue – l’IA dispose de ce contexte lorsqu’elle répond aux questions sur ces périodes. Au lieu de spéculer sur ce qui pourrait expliquer un changement, elle peut vérifier ce que vous avez déjà noté. « Pourquoi le trafic a-t-il chuté le 14 ? » est une question bien moins coûteuse s’il existe déjà une annotation indiquant que le code de suivi GA4 était cassé lors d’une mise à jour du site. Nous y reviendrons plus en détail ci-dessous.

Un test utile : si vous ne pouviez pas répondre à la question de mémoire sans ouvrir plusieurs rapports, l’IA ne le peut pas non plus. Elle peut répondre plus vite et vérifier davantage de sources simultanément – mais elle a quand même besoin de savoir ce qu’elle cherche.

Les quatre éléments qui rendent une question répondable

Toutes les questions n’ont pas besoin de ces quatre éléments – deux ou trois suffisent parfois. Mais voici les ingrédients :

Une métrique. Que mesurez-vous réellement ? Sessions, clics, impressions, conversions, coût par clic, classements, taux de rebond. Nommez-la précisément.

Une période avec une comparaison. Pas seulement « le mois dernier » mais « le mois dernier par rapport au mois précédent » ou « les 28 derniers jours par rapport à la même période l’année dernière ». La comparaison est souvent l’élément le plus important – un chiffre sans contexte n’est qu’un chiffre.

Un périmètre. L’ensemble du site ? Une page ou une section spécifique ? Un canal spécifique (organique, payant, e-mail) ? Une campagne spécifique ? Un pays ou un type d’appareil particulier ? Restreindre le périmètre donne souvent une réponse plus rapide et plus ciblée.

Une hypothèse. C’est optionnel, mais c’est l’élément qui fait la plus grande différence. Si vous avez une intuition sur ce qui s’est passé – « je pense que les classements ont chuté sur nos pages produits » ou « je me demande si la campagne que nous avons mise en pause affecte les impressions organiques » – dites-le. L’IA peut vérifier si votre hypothèse tient bien plus efficacement qu’en scrutant tout à la recherche de quelque chose d’intéressant. Et même si vous avez tort, écarter une explication plausible est utile.

De meilleures questions en pratique

Voici quelques questions vagues courantes et à quoi elles ressemblent quand elles ont suffisamment de substance. Ce ne sont pas des scripts – juste des exemples du type de précision qui produit une réponse utile.

Au lieu de : « Comment se porte mon trafic ? » Essayez : « Comment les sessions organiques totales ont-elles évolué le mois dernier par rapport au mois précédent ? Y a-t-il des pages qui vont à contre-courant ? »

Au lieu de : « Pourquoi le trafic a-t-il baissé ? » Essayez : « Le trafic organique semble en baisse par rapport à il y a deux semaines. Est-ce que quelque chose a changé dans les classements Search Console autour de cette période, notamment pour nos articles de blog ? »

Au lieu de : « Est-ce que mes Google Ads fonctionnent ? » Essayez : « Quel était le coût par conversion Google Ads la semaine dernière, et comment cela se compare-t-il aux quatre semaines précédentes ? »

Au lieu de : « Qu’est-ce que je devrais regarder ? » Essayez : « J’ai une réunion client lundi sur les performances du T1. Quelles ont été les principales réussites et contre-performances organiques au T1 par rapport au T4 ? »

Au lieu de : « Comment est mon SEO ? » Essayez : « Nos dix premiers mots-clés de classement ont-ils changé ces 30 derniers jours ? Perdons-nous du terrain sur des requêtes à fort volume d’impressions ? »

Le schéma est le même à chaque fois : nommer ce qu’on mesure, donner une période avec quelque chose à comparer, et préciser où l’on veut qu’elle cherche.

Les questions de suivi sont souvent meilleures qu’une grande question

Les gens ont tendance à aborder les outils IA comme un moteur de recherche – on tape sa question, on obtient sa réponse, la conversation est terminée. Mais les meilleures conversations analytiques ressemblent davantage à un échange avec un collègue. On commence par quelque chose de précis, on voit ce qui revient, puis on creuse.

Cela fonctionne bien pour plusieurs raisons. Une question d’ouverture étroite est économique et rapide. La réponse apprend généralement quelque chose, même si c’est juste confirmer qu’il n’y a rien d’intéressant là. Et chaque question de suivi s’appuie sur un contexte de plus en plus précis – au lieu de tout explorer, l’IA affine ce qu’elle a déjà trouvé.

Un exemple de la façon dont cela pourrait se dérouler :

« Quelles pages ont perdu le plus de trafic organique le mois dernier par rapport au mois précédent ? »

Cela vous donne quelque chose sur quoi travailler. Puis :

« Ces baisses concernent-elles tous les appareils ou principalement le mobile ? »

Puis :

« Ces pages ont-elles des annotations – changements de site, mises à jour d’algorithme, quoi que ce soit sur cette période ? »

Chaque question est petite. La conversation aboutit à une conclusion qu’une seule question vaste aurait pris bien plus longtemps à atteindre – et qui aurait coûté plus cher.

La même logique s’applique quand vous ne savez pas trop quoi regarder. « S’est-il passé quelque chose de notable avec le trafic organique ces deux dernières semaines ? » est un meilleur point de départ que « donne-moi un aperçu complet des performances ». Vous arriverez à l’aperçu si vous en avez besoin – mais vous trouverez peut-être ce que vous cherchez plus vite en laissant l’IA vérifier une chose à la fois.

Les annotations : la couche contextuelle qui simplifie tout

Il existe une catégorie de questions qui semblent simples mais qui forcent l’IA à travailler bien plus qu’elle ne le devrait : tout ce qui implique de corréler des changements de données avec des événements réels.

« Pourquoi le trafic a-t-il fait un pic le 22 ? » est une question facile si l’IA sait déjà que vous avez envoyé une newsletter à 15 000 abonnés ce jour-là. Sans ce contexte, elle doit aller chercher – vérifier les sources de trafic GA4, croiser avec Search Console, scanner les mises à jour d’algorithme, essayer de comprendre ce qui était différent à cette date précise. Plus d’appels d’outils, plus de spéculation, moins de confiance dans la réponse.

Les annotations résolvent cela à la source. Quand vous enregistrez les événements au fur et à mesure – lancements de campagnes, déploiements de site, changements de suivi, mises à jour d’algorithme, tout ce qui pourrait affecter vos données – vous construisez une couche de contexte sur laquelle l’IA peut s’appuyer pour toutes les questions futures sur ces périodes. Pas comme un marqueur visuel sur un graphique, mais comme une information réelle qui influence la façon dont elle interprète les données.

Les choses qui méritent d’être annotées ne sont pas seulement les dramatiques. Un lancement de campagne qui s’est déroulé exactement comme prévu. Une refonte qui n’a eu aucun effet mesurable. Une pause publicitaire pendant une promotion. Ces événements semblent anodins sur le moment, mais trois mois plus tard, quand vous essayez de comprendre une forme de données que vous ne reconnaissez pas, savoir ce qui se passait à l’époque a de l’importance. Sans annotations, vous comptez sur votre mémoire – et personne ne se souvient de façon fiable de ce qui a été déployé à quelle date il y a deux trimestres.

Dans AI Data Stream, les annotations sont une source de données connectée comme les autres – l’IA les interroge comme un outil quand elle juge que la question le justifie. Posez une question sur un changement de trafic sur une période donnée et elle vérifiera probablement si vous avez noté quelque chose de pertinent autour de ces dates, de la même façon qu’elle pourrait croiser Search Console ou rechercher des mises à jour d’algorithme. Plus vous avez enregistré au fil du temps, plus elle est susceptible de trouver quelque chose de concret plutôt que de devoir spéculer à partir des seuls chiffres.

Si vous démarrez, les annotations les plus précieuses à ajouter sont vos propres événements – lancements de campagnes, changements de site, mises à jour de suivi, tout ce que vous savez qui s’est passé. Deux catégories d’annotations sont gérées automatiquement pour vous. La première vient directement du propre flux d’incidents de Google : les mises à jour d’algorithme et les incidents d’infrastructure de recherche sont synchronisés automatiquement tout au long de la journée, sans aucune intervention manuelle. La seconde est une couche de contexte SEO – quand les grandes publications SEO analysent ce qu’une mise à jour particulière a affecté et pourquoi, cette analyse est publiée comme annotation globale que les utilisateurs peuvent activer ou désactiver. Entre ces deux couches et votre propre historique d’événements, la plupart des questions « pourquoi est-ce que ça a changé ? » ont un point de départ concret.

Les prompts système : apprendre à l’IA comment vous travaillez

Tout ce qui précède concerne la façon de formuler des questions individuelles. Les prompts système concernent quelque chose de légèrement différent : définir comment l’IA se comporte dans toutes vos conversations, pour ne pas avoir à vous répéter.

Un prompt système est un ensemble d’instructions qui se trouve derrière chaque conversation – votre brief permanent à l’IA sur vos priorités, votre façon de travailler préférée, et les raccourcis que vous souhaitez établir. Vous le définissez une fois et il s’applique à chaque fois.

L’utilisation la plus simple est de définir un comportement par défaut. Si vous voulez toujours que les comparaisons portent sur la même période, dites-le. Si vous voulez que les réponses commencent par la conclusion principale plutôt que la méthodologie, précisez-le. S’il y a une page ou une campagne spécifique que vous considérez comme référence pour les performances de votre site, intégrez-la au prompt. L’IA travaillera dans ces paramètres sans que vous ayez besoin de les reformuler à chaque fois.

Vous pouvez aussi utiliser les prompts système pour créer des raccourcis pour des workflows plus complexes. Quelque chose comme « quand je demande ce qui s’est passé autour d’un événement, compare toujours les deux semaines avant et les deux semaines après » transforme un processus analytique en plusieurs étapes en une simple question informelle. L’IA comprend ce que vous voulez dire.

AI Data Stream inclut un ensemble de prompts système de démarrage construits autour de rôles courants – analyste de données, spécialiste SEO, responsable marketing, stratège de contenu, analyste e-commerce, et un mode résumé exécutif pour les vues d’ensemble. Vous pouvez importer l’un d’eux tel quel, le modifier pour l’adapter à votre situation réelle, ou les ignorer complètement et écrire le vôtre de zéro. Ce sont des points de départ, pas des prescriptions.

Les prompts système sont définis au niveau de l’équipe et partagés entre les propriétés, donc si vous gérez plusieurs sites ou travaillez en équipe, tout le monde opère avec le même comportement de base.

L’effet pratique est qu’un prompt système bien rédigé déplace une partie de l’effort de la question vers la configuration. Au lieu de se rappeler de spécifier votre format de comparaison de dates préféré à chaque fois, vous le définissez une fois. Au lieu d’expliquer vos priorités de reporting à chaque session, elles sont déjà là. C’est la différence entre briefer un nouveau prestataire chaque lundi et travailler avec quelqu’un qui sait déjà comment vous fonctionnez.

Ce que l’IA sait bien faire et moins bien faire

Les outils d’analyse IA sont rapides pour rassembler des données et vérifier des corrélations entre sources. Le travail manuel qu’ils remplacent – ouvrir quatre outils, définir des périodes correspondantes, comparer mentalement des chiffres, vérifier si une corrélation temporelle est significative – prend vraiment du temps, et l’IA le fait en quelques secondes.

Ce qu’ils font moins bien, c’est connaître votre activité. L’IA ne sait pas que la page qui vient de perdre 40 % de son trafic était déjà programmée pour une refonte. Elle ne sait pas que la baisse des conversions s’explique par un changement tarifaire que votre équipe commerciale a fait la semaine dernière. Elle ne sait pas que le pic de trafic en provenance d’Allemagne vient d’une mention dans une newsletter dont vous ne saviez pas qu’elle avait été envoyée.

C’est pourquoi la combinaison de questions précises et de bonnes annotations est importante. L’IA apporte les données ; vous apportez le contexte métier. Quand ces deux éléments fonctionnent ensemble, les réponses sont vraiment utiles. Quand vous posez des questions vagues sans annotations contextuelles, vous demandez à l’IA de spéculer – et elle le fera, mais les réponses seront proportionnellement incertaines.

Imaginez travailler avec un analyste très rapide qui a accès à toutes vos données mais ne connaît pas votre historique. Plus vous lui dites ce qui compte et ce qui s’est passé, meilleure sera son analyse.

Résumé pratique

Voici les habitudes qui font une différence constante :

  • Inclure une période et un point de comparaison dans chaque question portant sur un changement (hausse, baisse, mieux, moins bien)
  • Nommer la métrique qui vous intéresse plutôt que de demander un bilan général
  • Préciser où chercher – l’ensemble du site, un canal spécifique, une page spécifique
  • Formuler votre hypothèse si vous en avez une – l’IA peut la confirmer ou l’écarter plus vite qu’elle ne peut trouver une réponse de zéro
  • Commencer précis et approfondir avec des questions de suivi plutôt que de tout demander en même temps
  • Annoter les événements quand ils se produisent – campagnes, changements de site, mises à jour d’algorithme – pour que les questions futures aient du contexte
  • Utiliser un prompt système pour définir des préférences permanentes et des raccourcis, pour ne pas avoir à répéter le contexte à chaque session

Rien de tout cela n’est compliqué. C’est le même réflexe que vous utiliseriez pour poser une question à un collègue qui ne connaît pas le contexte. Donnez-lui suffisamment pour travailler, et vous obtiendrez une réponse claire.


Prêt à poser de meilleures questions à vos données ? Essayer AI Data Stream gratuitement →

Articles associes