24
Webinaire #oncrawlwebinar Segmentation avancées et code source : méthodologie Par Erlé Alberton, Customer Success Manager

OnCrawl Webinar - La segmentation avancée

  • Upload
    oncrawl

  • View
    225

  • Download
    1

Embed Size (px)

Citation preview

Webinaire

#oncrawlwebinar

Segmentation avancées et

code source : méthodologie

Par Erlé Alberton,

Customer Success Manager

Webinar

#oncrawlwebinar

J’adore quand un segment est tiré de votre code source …

ERLE

ALBERTONCUSTOMER

SUcCESS manager10 ans de dev / 5 ans de SEO dont 2

ans en tant que responsable SEO des

boutiques en ligne Orange et Sosh

spécialiste schema.orgseo monk

ONCRAWL

TRAinER

customer climax & GOOD IDEAS

Webinar

#oncrawlwebinar

1. Introduction aux segmentations

2. La segmentation classique par urls

3. La segmentation custom filtrée sur les métriques

... des segmentations cadeaux

4. Les Custom Fields : créer une data personnalisée et dynamique

5. Quelles données extraire du code source REGEX ou XPATH comment choisir ?

6. Tests, Tips and Tricks

7. La donnée dans le Data Explorer et ses Filters

8. Catégorisation sur les Custom Fields

9. Utiliser les nouvelles segmentations

De la méthode à l’exploitation

Webinar

#oncrawlwebinar

Introduction aux segmentations

La segmentation permet de regarder vos data OnCrawl sous

différents angles

Elles peuvent être faites sur n’importe quelle donnée présente dans le Data Explorer

Elles sont dynamiques car à chaque crawl les ensembles de pages sont mis à jour automatiquement

Oncrawl permet de créer 10 sets de 15 groupes de pages (plus sur simple demande à votre CS)

Cela permet de switcher directement d’une vue à l’autre durant votre utilisation de l’application

Tout est dynamique et instantanément disponible

utiliser la segmentation pour faire des focus durant vos audits techniques

Webinar

#oncrawlwebinar

Introduction aux segmentations

Exemple de segmentations :

Bot Hits/day GA session Range/day SEO visits/day

http://textup.fr/225313rV http://textup.fr/225314Kwhttp://textup.fr/225315r2

Webinar

#oncrawlwebinar

Introduction aux segmentations

Exemple de représentations

Bot Hits/day vs Depth

Average inlinks vs GA session Range/day

SEO visits/day vs Loading time

Webinar

#oncrawlwebinar

La segmentation classique par urls

C’est simple, chaque groupe répond à un filtre fait

sur les URLs (contains, start with, REGEX,

querystring,…)

Mais vous pouvez créer des ensembles plus détaillés

de votre site (AMP, paginations, …)

La segmentation la plus connue est la « default » créée

automatiquement par notre Bot lors du Crawl

Elle est basée sur le #1 répertoire de l’URL

Webinar

#oncrawlwebinar

La segmentation custom filtrée sur les métriques

Il suffit de savoir sur quel métrique OnCrawl le

groupe de page va s’appuyer et de définir la règle

de filtrage

http://textup.fr/225316Ve

Filtre sur les clusters de duplicate content et la « canonical evaluation »

Webinar

#oncrawlwebinar

segmentation « indexability »

• no index + not visited

• indexable + not hited

• denied by robots + not visited

• complient + hited + visited

• not complient + visited

• orphan + hited + not visited

• orphan + hited + visited

• orphan + not hited

http://textup.fr/206734bU

Utiliser l’outil d’édition du JSON pour

exporter/importer vos segmentations

Webinar

#oncrawlwebinar

Les Custom Fields : data personnalisée & dynamique

Les Custom Fields sont une option (gratuite et illimitée)

qui permet d'extraire une partie du code source pendant

la phase de crawl

La configuration des Custom Fields est présente dans

l'interface Crawl Settings. Avant de lancer le crawl il faut

paramétrer les Customs Fields

Lorsque vous définissez un nouveau paramètre de crawl, vous pouvez ajouter des règles

d'extraction spécifiques pour récupérer les données lorsque la page est analysée

Ces données vous sont propre et l’extraction peut se faire par REGEX ou XPATH

Webinar

#oncrawlwebinar

Quelles données extraire du code source ?

Utiliser XPATH pour une ou des balises HTML

XPATH est un langage de requête basé sur l'arborescence DOM

Dans l’analyseur de code de Chrome, copier/coller le Xpath

Webinar

#oncrawlwebinar

Quelles données extraire du code source ?

Utiliser REGEX pour une chaine de caractères

Trouver la chaine à extraire dans le code source

Rappelez-vous que vous devez échapper aux caractères spéciaux comme? . * ()[] { } avec un \

Vous utilisez une catégorisation de vos types de pages liée à un DataLayer

Cette information est très pertinente pour votre segmentation

votre modèle de donnée peut-être lié à celui d’OnCrawl grâce à des champs pivots

Webinar

#oncrawlwebinar

Custom Field et extraction d’un Data Layer

Les Customs Fields pour extraire une chaine de caractère facilement reconnaissable sont basés sur

une Expression Régulière REGEX Cheat Sheet

Dans ce cas la règle est : s.prop2=”([^"]+)”

Extract : Mono-value

Field Format : Value

Webinar

#oncrawlwebinar

Quelles données extraire du code source ?

Utiliser REGEX pour tester la présence d’un tag

Dans ce cas la règle est : ‘_setAccount’, ‘UA-364863-11’

Extract : Check if exist

Webinar

#oncrawlwebinar

Tests, Tips and Tricks

1

2

3

1

2

3

Toujours vérifier que l’extraction fonctionne

1. Avec une url d’exemple ou un morceau de code source

2. Appuyer sur CHECK

3. Vérifier le résultat de l’extraction

Webinar

#oncrawlwebinar

Tests, Tips and Tricks

Quel type d'extraction est possible

Pour chaque règle, vous pouvez extraire plusieurs types d'extraction:

• Mono-valued : renverra une seule chaîne

• Multi-valued : renverra un tableau

• Check if exist : vérifie si une valeur est renvoyée

• Length : compte le nombre de caractères extraits

• Number of occurrences : comptera combien de termes extraits correspondent à la règle

par exemple le nombre de Bloc produit dans une page list

Toute la documentation est disponible sur le help OnCrawl

Webinar

#oncrawlwebinar

La donnée dans le Data Explorer et les Filters

A la suite du crawl, les Customs Fields

deviennent de nouvelles colonnes dans

OnCrawl

Ces « champs » sont interprétés comme

n’importe quel autre champ :

• Data Explorer

• Custom Filters

• Segmentations Filters

Webinar

#oncrawlwebinar

Catégorisation sur les Custom Fields

1

2

Pour créer un nouveau Set :

1. Cliquer sur CREATE GROUPE SET

2. Donner un nom au SET

3. Ne pas cliquer sur « I want to use this set on logs

monitoring… » !

3 Le set n’étant pas basé sur l’url, le log monitoring ne

pourra pas avoir cette segmentation,

Mais elle est disponible dans toutes les analyses

croisées log/crawl

Webinar

#oncrawlwebinar

Catégorisation sur les Custom Fields

Pour créer un groupe de page basé sur une valeur de

Custom Field :

1. Cliquer sur Create Page Group

2. Donner un nom au groupe – CF value

3. Rechercher le champ à la base du filtre

Commence forcément par Custom….

4. Ecrire le filtre (start with, is, contians…)

1

2

3

4

Pour les valeurs numérique, il existe aussi

des filtres Greater than, Less Than or

equals

Webinar

#oncrawlwebinar

Catégorisation sur les Custom Fields

Votre catégorisation est écrite !

Elle est disponible immédiatement dans

tous les rapports d’OnCrawl

Pour switcher entre

les différents filtres,

utilisez la bandeau

en haut des pages

Webinar

#oncrawlwebinar

Catégorisation sur les Custom Fields

Vous avez maintenant une vue basée sur votre catégorisation personnelle !

Webinar

#oncrawlwebinar

Des rapports SEO valorisés

Webinar

#oncrawlwebinar

Des questions ?

MERCI !

[email protected]

Follow us : @Oncrawl