Cette page documente la méthodologie d'audit qui soutient la checklist de readiness. Elle est intentionnellement reproductible : une équipe marchande, un consultant et un partenaire plateforme doivent produire des scores similaires appliqués au même catalogue.
Principes
- Basée sur échantillon. Vous n'avez jamais besoin d'auditer chaque SKU ; vous avez besoin d'un échantillon statistiquement signifiant par catégorie.
- Pondérée. Les items P0 sont bloquants ; P1 et P2 pèsent le score progressivement.
- Observable. Chaque vérification produit un pass/fail concret avec preuve (URL, ligne de flux, capture, payload d'API).
- Reproductible. Deux auditeurs qui jouent la méthode sur la même donnée atterrissent à 5 points de pourcentage près.
Entrées
- Accès au flux catalogue (URL et credentials).
- URLs publiques des PDPs.
- Pages publiques de politiques retours et livraison.
- Accès read-only à la configuration PSP (optionnel mais améliore le scoring transactionnel).
- Logs serveur, 90 jours (optionnel mais habilite le scoring d'observabilité).
Échantillonnage
- Identifiez les 5 top catégories par chiffre d'affaires.
- Pour chaque catégorie, prenez un échantillon aléatoire de 10 SKUs (stratifié par en stock / rupture si possible).
- Pour les catalogues >10 000 SKUs, augmentez l'échantillon à 20 par catégorie.
- Excluez les SKUs en fin de vie et les brouillons.
Catégories de vérification (six)
| Catégorie | Poids | Ce qu'elle mesure |
|---|---|---|
| Identité | 15 % | Couverture et cohérence GTIN / MPN / Marque. |
| Sémantique | 25 % | Données structurées, attributs typés, taxonomie. |
| Fraîcheur | 20 % | Parité prix/stock, cadence de flux, exactitude updated_at. |
| Politique | 15 % | Retours/livraison/garantie comme donnée. |
| Découverte | 15 % | Conformité flux, URLs canoniques, sitemap, accès crawlers IA. |
| Transaction | 10 % | Readiness agent-pay, événements cycle de vie. |
Règles de scoring
- Chaque vérification renvoie 0 (échec), 0,5 (partiel) ou 1 (passé).
- Score catégorie = moyenne des vérifications dans cette catégorie.
- Score global = somme pondérée à travers les catégories.
- Si un P0 échoue, le score catégorie est plafonné à 0,6.
Exigences de preuve
Chaque vérification doit stocker l'une des :
- Une URL (pour vérifications PDP/politique), avec capture d'écran datée.
- Une ligne de flux (anonymisée, stockée en JSON).
- Une réponse API (headers + corps, horodatés).
- Une sortie d'outil (Rich Results Test, diagnostic Merchant Center, requête de logs).
Les audits sans preuve ne sont ni reproductibles ni défendables.
Livrables d'un audit
- Tableau de scores — global, par catégorie, par SKU échantillonné.
- Top 10 items de remédiation — concrets, rangés par impact et effort.
- Plan de remédiation 90 jours — qui porte quoi, lift de score attendu.
- Planning de ré-audit — trimestriel recommandé.
Pièges fréquents en audit
- Auditer des promesses marketing au lieu du comportement système. Une belle prose de page retours ne vaut rien si le JSON-LD manque.
- N'échantillonner que les SKUs héros. Les SKUs longue traîne tombent souvent plus vite.
- Se fier au flux seul. Flux et PDP doivent être croisés.
- Ignorer les variantes régionales — un catalogue peut être prêt agent dans une région et pas dans une autre.
- Noter le markup schema.org sur la présence au lieu de la correctness.
Outils recommandés
- Google Rich Results Test et Schema Markup Validator.
- Diagnostics Google Merchant Center.
- Un linter de flux (Channable, Feedonomics, ou scripts custom).
- Un navigateur headless pour vérifier murs de consentement / rendu.
- Un analyseur de logs pour la segmentation du trafic crawler.
Où aller ensuite
- Jouez la checklist de readiness contre un échantillon de 50 SKUs.
- Appliquez les principes de bonnes pratiques.
- Comparez à l'état cible dans catalogues produits pour IA.