Les 8 agents spécialisés
Ce que chaque agent Pharone analyse, comment il calcule son score et ce qu'un bon résultat signifie.
Chaque audit Pharone lance 8 agents spécialisés en parallèle. Cinq agents utilisent Claude Haiku 4.5 avec des prompts SEO enrichis ; trois sont entièrement déterministes (basés sur des données mesurées). Chaque agent retourne un score de 0 à 100 et une liste d'issues priorisées.
Vue d'ensemble
| Agent | Poids | Type | Ce qu'il mesure |
|---|---|---|---|
| ⚡ Technical SEO | 25% | IA | Crawl, index, sécurité, canonicals, JS SEO |
| ✍ Content Quality | 25% | IA | E-E-A-T, Helpful Content, qualité éditoriale |
| 📄 On-Page SEO | 20% | Déterministe | Title, meta, H1, Open Graph |
| 🔷 Schema & Données | 10% | IA | JSON-LD, validation, opportunités |
| ⚡ Performance | 10% | Déterministe | Core Web Vitals (PageSpeed Insights) |
| 🖼 Images | 5% | Déterministe | Alt text, dimensions, formats |
| 🤖 AI Readiness | 5% | IA | ChatGPT, Perplexity, AI Overviews |
| 🗺 Sitemap | 0% | IA | Couverture, validité (informatif) |
Le sitemap a un poids de 0% dans le score global : ses résultats sont informatifs et n'influencent pas votre note. Les 7 autres agents se partagent 100%.
⚡ Technical SEO — 25%
Type : IA (Claude Haiku 4.5)
L'agent technique analyse tout ce qui détermine la capacité de Google à découvrir, crawler et indexer votre site correctement.
Ce qu'il vérifie
Crawlabilité
robots.txt: présence, syntaxe, directives bloquantes involontaires- Crawlers IA : GPTBot, ClaudeBot, PerplexityBot, Bytespider non bloqués
- Profondeur de crawl et structure des liens internes
Indexabilité
- Balises canonical sur toutes les pages (self-référentielles)
- Conflits canonical (HTTP vs HTTPS, www vs non-www, slash final)
- Directives
noindexinvolontaires - Hreflang (sites multilingues)
Sécurité
- HTTPS : certificat valide, redirection HTTP → HTTPS
- En-têtes de sécurité : HSTS, CSP, X-Frame-Options, X-Content-Type-Options, Referrer-Policy
Structure URL
- URLs propres sans paramètres excessifs
- Longueur raisonnable (< 115 caractères)
- Chaînes de redirections (idéalement aucune, max 1)
- Cohérence slash final
JavaScript SEO
- Détection des sites CSR (rendu côté client uniquement)
- Divergence canonical entre HTML et rendu JS
- Contenu critique caché derrière JavaScript
Mobile
- Balise viewport présente et correcte
- CSS responsive
Scores de référence
| Score | Signification |
|---|---|
| 90+ | Technique irréprochable |
| 70–89 | Quelques ajustements à faire |
| 50–69 | Problèmes bloquants à corriger |
| < 50 | Issues critiques — indexation compromise |
Un Disallow: / dans robots.txt peut désindexer tout votre site en quelques jours. L'agent Technical SEO le détecte en priorité critique.
✍ Content Quality — 25%
Type : IA (Claude Haiku 4.5)
L'agent contenu évalue la qualité éditoriale de votre site selon les critères E-E-A-T de Google (Expérience, Expertise, Autorité, Confiance) et le Helpful Content System.
Ce qu'il vérifie
E-E-A-T (septembre 2025)
- Expérience (20%) : preuves d'expérience directe, témoignages, cas réels
- Expertise (25%) : profondeur du contenu, maîtrise du sujet, cohérence terminologique
- Autorité (25%) : mentions externes, backlinks qualitatifs, réputation de la marque
- Confiance (30%) : CGU/mentions légales, politique de confidentialité, HTTPS, pas de tromperie
Helpful Content System
- Le contenu est-il écrit principalement pour les utilisateurs (pas les moteurs) ?
- Les pages répondent-elles réellement aux questions posées ?
- Y a-t-il des signaux de contenu "AI généré générique" ?
Qualité éditoriale
- Nombre de mots minimum par type de page (homepage ≥ 500, article ≥ 1 500)
- Structure des pages (introduction, développement, conclusion)
- Lisibilité (phrases courtes, titres clairs)
- Originalité et valeur ajoutée
Depuis décembre 2025, Google applique E-E-A-T à toutes les requêtes compétitives — pas seulement les thématiques YMYL (santé, finance, droit).
📄 On-Page SEO — 20%
Type : Déterministe (aucune IA)
L'agent on-page extrait et valide les balises HTML structurelles de chaque page crawlée. Les résultats sont 100% objectifs — pas d'estimation.
Ce qu'il vérifie
| Élément | Ce qui est vérifié |
|---|---|
<title> | Présence, longueur (50–60 caractères recommandés), unicité |
<meta description> | Présence, longueur (140–160 caractères), unicité |
<h1> | Présent, unique par page, contient le mot-clé principal |
<h2> à <h6> | Hiérarchie logique, pas de saut de niveaux |
| Open Graph | og:title, og:description, og:image, og:url |
| Twitter Card | twitter:card, twitter:title, twitter:image |
| Canonical | Cohérence avec l'URL de la page |
Scores de référence
Un site avec tous les éléments on-page correctement renseignés obtient 80–100. Les issues les plus fréquentes : title trop long, meta description absente, plusieurs H1 par page.
🔷 Schema & Données Structurées — 10%
Type : IA (Claude Haiku 4.5)
L'agent schema détecte, valide et recommande des améliorations sur vos données structurées JSON-LD. Le schema est devenu critique pour deux raisons : les rich results Google et les citations dans les moteurs IA.
Ce qu'il vérifie
Détection
- Présence de JSON-LD sur les pages clés
- Types de schema utilisés
Validation
@context: "https://schema.org"présent@typereconnu et approprié au contenu- Propriétés obligatoires complètes
- URLs absolues (pas relatives)
- Dates au format ISO 8601
Types recommandés par type de site
| Type de site | Schema recommandé |
|---|---|
| Business local | LocalBusiness avec address, telephone, openingHours, geo |
| SaaS / Logiciel | Organization + SoftwareApplication |
| E-commerce | Product + Offer avec price et availability |
| Blog / Media | Article ou BlogPosting avec author, datePublished |
| Tout site | BreadcrumbList sur les pages internes |
Types dépréciés à éviter
Ces types ne génèrent plus de rich results depuis 2024–2025 et peuvent être ignorés par Google : HowTo, FAQ (sauf gouvernement/santé), SpecialAnnouncement, CourseInfo, EstimatedSalary.
⚡ Performance — 10%
Type : Déterministe (Google PageSpeed Insights API)
L'agent performance utilise les données réelles de Google PageSpeed Insights (mobile + desktop). Toutes les métriques sont mesurées, jamais estimées.
Core Web Vitals analysés
| Métrique | Bon | À améliorer | Mauvais | Ce que ça mesure |
|---|---|---|---|---|
| LCP | < 2,5s | 2,5–4s | > 4s | Temps de chargement du plus grand élément visible |
| INP | < 200ms | 200–500ms | > 500ms | Réactivité aux interactions utilisateur |
| CLS | < 0,1 | 0,1–0,25 | > 0,25 | Stabilité visuelle (décalages de mise en page) |
| FCP | < 1,8s | 1,8–3s | > 3s | Premier élément visible |
| TBT | < 200ms | 200–600ms | > 600ms | Blocage du thread principal |
| Speed Index | < 3,4s | 3,4–5,8s | > 5,8s | Vitesse de remplissage visuel |
INP (Interaction to Next Paint) a remplacé FID le 12 mars 2024. C'est désormais la métrique d'interactivité officielle des Core Web Vitals.
Opportunités identifiées
L'agent retransmet les opportunités PageSpeed : images non optimisées, ressources render-blocking, JavaScript inutilisé, absence de lazy loading, etc.
Fallback : Si PageSpeed Insights est indisponible (quota API), l'agent utilise une analyse heuristique basée sur les headers HTTP et le poids des pages.
🖼 Images — 5%
Type : Déterministe (extraction HTML)
L'agent images analyse toutes les balises <img> et images de fond détectées pendant le crawl.
Ce qu'il vérifie
| Check | Détail |
|---|---|
| Alt text | Présence sur chaque image (critique pour l'accessibilité et le SEO) |
| Dimensions | Attributs width et height (préviennent le CLS) |
| Format | Détection WebP/AVIF (formats modernes recommandés) |
| Lazy loading | loading="lazy" sur les images hors-écran |
| CLS | Images sans dimensions = risque de layout shift |
Une image sans attribut alt n'est pas indexée par Google Images. Une image sans width/height peut causer un CLS élevé, impactant le score Performance.
🤖 AI Search Readiness — 5%
Type : IA (Claude Haiku 4.5)
L'agent AI Readiness mesure votre visibilité dans les moteurs de recherche de nouvelle génération : ChatGPT, Perplexity, Google AI Overviews.
Ce qu'il vérifie
Crawlers IA
- GPTBot, ChatGPT-User, ClaudeBot, PerplexityBot, Google-Extended, Bytespider non bloqués dans robots.txt
- Distinction entre crawlers d'entraînement (GPTBot, ClaudeBot) et crawlers de navigation (ChatGPT-User)
llms.txt
- Présence du fichier
/llms.txt(guide les LLMs sur votre contenu prioritaire) - Structure et contenu (URLs importantes, description du site)
Citabilité
- Schema.org complet (facilite les citations factuelles)
- Contenu structuré en Q&A ou FAQ (format préféré des AI Overviews)
- Réponses directes aux questions dans le texte visible (sans JS)
- Sources et auteurs identifiables (E-E-A-T)
GEO (Generative Engine Optimization)
- Votre site est-il structuré pour être cité ?
- Les informations clés (nom, adresse, services) sont-elles dans le HTML statique ?
Qu'est-ce qu'un bon score ?
Un score ≥ 75 indique que votre site est structuré pour apparaître dans les réponses des moteurs IA. Un score < 40 signifie que vos pages sont probablement invisibles de ChatGPT et Perplexity même si elles rankent bien sur Google.
🗺 Sitemap — 0% (informatif)
Type : IA (Claude Haiku 4.5)
L'agent sitemap vérifie la couverture et la qualité de votre sitemap.xml. Son score n'est pas pris en compte dans le score global — ses résultats sont informatifs pour vous aider à améliorer la découverte de vos pages.
Ce qu'il vérifie
- Présence et accessibilité du sitemap (HTTP 200)
- Validité XML
- Déclaration dans
robots.txt - Couverture : pages crawlées présentes dans le sitemap
- Qualité des URLs (pas de paramètres, pas de duplicats)
- Pages importantes manquantes
Agents déterministes vs agents IA
| Caractéristique | Déterministe | IA (Claude Haiku) |
|---|---|---|
| Source des données | HTML, headers HTTP, API PageSpeed | HTML crawlé + analyse sémantique |
| Badge dans le rapport | Aucun | ✦ badge "IA" avec tooltip |
| Fiabilité | 100% objective | Très haute — peut nécessiter vérification |
| Agents | On-Page, Performance, Images | Technical, Content, Schema, Sitemap, AI Readiness |