87
Antoine Pourron MCS – ISEG Lyon 5 ème année MÉMOIRE DE RECHERCHE APPLIQUÉE

Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron

MCS – ISEG Lyon

5ème année

MÉMOIRE DE RECHERCHE APPLIQUÉE

Année Universitaire 2011-2012

Page 2: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

SOMMAIRE

2

Page 3: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

AVANT-PROPOS

Internet occupe dans le monde d'aujourd'hui une place que l'on pourrait presque qualifiée

de vitale. L'organisation des échanges mondiaux, du commerce mondial, des flux de capitaux ou

bien également de la communication entre les milliards de personnes de la planète se fait

majoritairement par cet outil. Internet a dépassé depuis plusieurs années le statut de simple

média. Son évolution gigantesque au fil des années est la preuve de sa force, et n'est comparable

à aucune autre technologie. Encore aujourd'hui, nous vivons au jour le jour son développement,

avec l'apparition sans cesse de nouveaux produits et services et de nouvelles technologies

rendant les possibilités d'évolution toujours plus exponentielles. Le transfert d'internet sur les

appareils mobiles (smartphones et tablettes) en est un exemple très clair.

Parallèlement, le développement de l'outil internet a été la base de la création de millions

d'emplois à travers le monde. Certains métiers ont été créés spécifiquement, d'autres ont été une

évolution de métiers déjà existants. Avec ce nouvel outil mis à disposition de tous, il a fallu en

effet revoir un grand nombre de stratégies d'entreprises, travailler sur de nouvelles techniques,

mais aussi changer considérablement sa façon de penser, de communiquer et d'entretenir des

relations avec ses connaissances.

Même si son évolution est très ressente, internet existe depuis assez d'année pour avoir un recul

nécessaire quant à sa compréhension globale et à son fonctionnement. A l'heure actuelle, et de

manière globale, il est possible de distinguer trois types d'acteurs qui évoluent sur internet :

Les simples visiteurs, à la recherche de distractions, de rencontres, d'informations ou

bien d'un produit ou service...

Les Webmasters : Toutes les personnes/entreprises qui possèdent ou qui travaillent sur

un site internet

Les moteurs de recherche : Outils internet qui vont permettre la rencontre entre les

internautes et les sites qu'ils recherchent.

3

Page 4: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

Un site internet ne peut exister sans être visible sur les moteurs de recherche. C'est la raison pour

laquelle les webmasters ont mis en place un certains nombres de techniques, que l'on pourrait

qualifier de techniques webmarketing, pour faire apparaître de la meilleure façon possible leurs

sites internet dans les moteurs de recherche. On parle alors plus communément de techniques de

référencement.

Le référencement sur internet est divisé en deux catégories bien distinctes. La première est

appelée référencement naturel, référencement gratuit ou en anglais, SEO (search engine

optimization). La seconde catégorie est le référencement payant, beaucoup moins abordables

pour les webmasters puisque cette technique consiste à payer les moteurs de recherche pour

apparaître sur ceux ci. Il s'agit du SEM (search engine marketing).

Au travers de se mémoire de recherche appliquée, je souhaite m'intéresser spécifiquement au

référencement naturel, et à toutes les techniques qui s'y rapporte, puisqu'il s'agit de la base de la

visibilité d'un site internet. Ce sont majoritairement ces stratégies de SEO qui vont permettre de

créer un lien entre les internautes "visiteurs" et les sites internet. D'une autre manière, il s'agira

d'étudier l'activité quotidienne des webmasters et référenceurs qui travaillent constamment au

développement de leurs sites internet, à la visibilité de ces derniers et aux différentes manières de

les rendre rentables et pérennes.

Dans le référencement naturel (SEO) et dans les techniques mises en place, deux écoles bien

spécifiques et différentes existent : Le référencement légal (appelé SEO White Hat) et le

référencement illégal (SEO Black Hat). Les webmasters et les entreprises vont, en fonction de

leurs objectifs et de la considération qu'ils ont du référencement, devoir choisir un axe

stratégique dans une seule de ces deux écoles. Même si l'objectif à moyen et long termes est le

même, c'est à dire obtenir le meilleur positionnement de son site internet sur les moteurs de

recherche, les techniques utilisées divergent fortement. L'intérêt d'un tel mémoire est également

de mieux comprendre le référencement Black Hat, domaine encore sombre en France et

maitrisé par peu de personnes, deux caractéristiques dues en grande partie à son caractère illégal.

4

Page 5: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

Le but de ce mémoire de recherche appliquée va être de comprendre et savoir pourquoi

certains acteurs d'internet vont être amenés à utiliser le référencement légal, et pourquoi

certains vont utiliser le penchant illégal de ces stratégies. Pour rendre les propos développés

tout au long de ce mémoire les plus représentatifs possibles, nous nous positionnerons alors dans

une problématique de secteurs concurrentiels, domaine où les deux techniques de référencement

naturel sont omniprésentes et très importantes pour les différents acteurs. Par ailleurs, nous nous

intéresserons d'avantage au moteur de recherche Google qu'à ses concurrents, celui-ci ayant une

place quasi-monopolistique en France.

Dans la première partie, partie exploratoire de ce mémoire de recherche appliquée, nous allons

nous intéresser à l'évolution de référencement naturel depuis l'arrivée d'internet et des moteur de

recherche, pour ensuite développer plus particulièrement les différentes caractéristiques et

techniques du référencement légal et du référencement illégal. L'objectif de cette partie sera aussi

de comprendre le fonctionnement de Google et comment le moteur de recherche est-il arrivé à

occupé cette place de leader incontesté dans le domaine du référencement et du web en général.

Une problématique et des hypothèses associées pourront ainsi être dégagées, afin de construire

un modèle d'analyse qui viendra infirmer ou confirmer les différentes hypothèses établies, ce qui

constituera la partie terrain de ce mémoire. Les étapes d'observation, d'analyse des information

et de recommandations viendront compléter cette seconde partie.

5

Page 6: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

I. PARTIE THÉORIQUE

1.1 LE RÉFÉRENCEMENT NATUREL - SEARCH ENGINE OPTIMIZATION (SEO)

Dans cette première sous partie, nous allons nous intéresser au référencement naturel, de

sa création à la place qu'il occupe aujourd'hui dans le monde de l'internet, en passant par son

évolution et celle des moteurs de recherche. En effet, le search engine optimization n'existerait

pas sans les moteurs de recherche, et c'est la raison pour laquelle il est important de s'intéresser à

ces outils qui aujourd'hui sont indispensables aux internautes, qu'ils soient visiteurs, webmasters,

professionnels ou entreprises. De véritables empires technologiques se sont construits autour des

moteurs de recherche, preuve de leur importance. Le SEO a suivi ce développement et a connu

de nombreuses transformations depuis son apparition, qu'ils s'agissent des techniques qui s'y

rapportent, de son intérêt mais aussi de son fonctionnement. C'est ce que nous allons détaillé

dans cette première partie.

1.1.1 Historique des moteurs de recherche et arrivée du SEO

Avant tout, il est important de distinguer les moteurs de recherche utilisés pour les

intranets et pour internet. Les intranets étaient utilisés par les services militaires, les

bibliothécaires ou bien les universitaires dans les années 80 avant que cette technologie soit

répandue au domaine privé et au grand public, devant ainsi l'internet. A cette époque, des

moteurs de recherche étaient mis en place pour le traitement de l'information de ces systèmes

intranet. Très vite, dès le début des années 90, nous allons parler de moteur de recherche pour

internet. Le premier réel moteur de recherche, nommé "Archie" est arrivé en 1990. Mais il ne

s'agissait pas encore d'un moteur de recherche sous forme de site web, comme nous les

connaissons aujourd'hui. C'était un logiciel mis en place pour rechercher des documents sur

internet.

6

Page 7: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

Sur internet, le premier moteur de recherche date de 1993 et se nommait "Wanderer". Son

principe rejoint celui de tous les moteurs de recherche actuels : Sillonner le web grâce à de

nombreux robots appelés "bots" ou "spiders" dans le but de répertorier et référencer tous les sites

internet existants. Un an plus tard, en 1994, le moteur de recherche "Yahoo" est apparu avec un

principe novateur qui consistait à créer

humainement un annuaire des sites internet les

plus pertinents et qualitatifs. Contrairement au

moteur de recherche "Wanderer", il ne s'agissait donc pas de robots. Cet approche a permis à

Yahoo de devenir très rapidement le portail web le plus utilisé.

Dans la deuxième moitié des années 90, le processus de développement des moteurs de

recherche va s'accélérer, parallèlement à l'arrivée d'internet dans les ménages. "Lycos" va voir le

jour en 1995, "Altavista" en 1996. Ces nouveaux arrivants se basent sur de nouveaux procédés

qui vont leur permettre de se perfectionner et d'offrir des résultats toujours plus rapide, plus

exhaustifs et plus pertinents. Cependant, ces moteurs n'étaient pas encore optimisés pour les

utilisateurs de France. C'est ainsi qu'est né "Nomade.fr", premier annuaire internet en version

française. Peut de temps après, en 1998, France télécom lança son moteur de recherche

"Voila.fr". La même année, deux étudiants de l'université de Stanford, vont mettre au point le

moteur de recherche qui va révolutionner internet :

"Google". Avec une approche différente, Sergei Brin et

Larry Page vont créer un algorithme qui aura pour but

de classer les sites internet dans le moteur de recherche

en fonction de leur popularité auprès des internautes. La

rapidité, l'exhaustivité et la pertinence des résultats du

moteur de recherche vont lui permettre de se faire une place très rapidement sur internet. En l'an

2000, Yahoo va d'ailleurs choisir Google comme moteur de recherche pour son portail. En 2002,

le géant américain de service internet "AOL" en fera de même.

Au début des années 2000, il s'agira d'un tournant pour les moteurs de recherche. Certains ayant

optés pour la stratégie de "portail" au lieu de développer une technologie d'algorithme comme

Google disparaîtrons petit à petit. Cette à cette période que Google s'imposera comme le moteur

7

Page 8: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

de recherche incontournable et l'outil le plus utilisé par les internautes, dont les internautes

français. C'est en 2002 que Google sera critiqué, pour la mise en place de ces "liens sponsorisé"

dans les résultats de recherche, mais cela n'empêchera en aucun cas sont évolution et son

développement

C'est avec l'arrivée des moteurs de recherche se basant sur une stratégie d'algorithmes que le

référencement naturel est apparu. Le but était alors de comprendre comment fonctionnaient ces

algorithmes afin de mettre en place des stratégies qui permettront d'apparaître à de meilleures

positions dans les résultats de recherche.

1.1.2 Le fonctionnement des moteurs de recherche

Le fonctionnement des moteurs de recherche est, en règle générale, commun au

différentes marques proposant ce service : Yahoo, Google ou encore Bing (moteur de recherche

du géant américain Microsoft). Tout d'abord, il convient de définir ce qu'est un moteur de

recherche. D'après Olivier Andrieu, consultant en référencement et auteur des différentes

éditions Réussir son référencement web, le moteur de recherche peut être défini comme "un

programme qui indexe de façon automatisée le contenu de différentes ressources internet

permettant à l'internaute de rechercher de l'information via des mots clés1".

Par le verbe "indexer" des ressources internet, il faut comprendre répertorier ou référencer des

pages internet. Le processus de référencement des pages sur internet par les moteurs de

recherche se font en trois étapes bien distinctes :

Le crawling : Processus automatique qui vise à inspecter tous les sites web de manière

plus ou moins régulière via des robots appelés bots ou spiders, en vue de les répertoriés et

de les référencer. Ces robots ont tous un nom attribués pour chaque moteur de recherche :

o Google : GoogleBot

o Yahoo : Slurp ou YahooBot

1 Définition Moteur de recherche par Oliver Andrieu - http://www.journaldunet.com/solutions/0604/060407-referencement-fonctionnement-moteur.shtml

8

Page 9: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

o MSN : MSNBot

L'indexation : Une page interne indexée dans un moteur de recherche signifie qu'elle a

été visitée par les robots qui balayent internet, page qui est désormais référencée et

visible dans le moteur de recherche en fonction des mots clés tapés par l'internaute.

Le ranking : Enfin, le ranking va être l'attribution d'un positionnement de la page indexée

dans les résultats de recherche en fonction du mot ou des mots clés tapés. De manière

logique, les pages internet les mieux notées ("rankées") par les moteurs de recherche

apparaîtront dans les premiers résultats de recherche.

Avant développer plus en détails les prochaines parties sur le référencement, il est nécessaire de

définir correctement et clairement ce à quoi servent les algorithmes des moteurs de recherche.

Au travers du système d'indexation présenté ci-dessus, les moteurs de recherche vont attribuer un

positionnement à chaque page internet existantes. Le positionnement correspond à la place de la

page dans les résultats de recherche en fonction d'un ou de plusieurs mots clés tapés. C'est ce

que l'on va appeler le référencement naturel. Un site dit "bien référencé" sera dans les

premières position dans les SERP (search engine results page), page de résultats d'un moteur de

recherche, en Français. Un site ou une page internet dit "bien référencé" pourra également être

appelé "puissant" ou "influant" du point de vue du référencement. Sur certains moteurs de

recherche, comme sur Google, une note va être attribuée pour chaque page indexée. Dans le cas

de Google, cette note est appelée "Pagerank". Une page web sera notée de 0 à 10 par Google en

fonction de sa puissance (du point de vue du référencement). Une page ayant un pagerank de 8

sera un site très bien référencé et très bien positionné dans les SERP.

Ce processus d'indexation par l'algorithme des moteurs de recherche va dépendre de nombreux

critères, qui vont évoluer au cours du temps pour rendre les résultats de recherche toujours plus

pertinents pour l'utilisateur. Nous nous intéresserons à ces évolutions et optimisations des critères

d'indexation dans une prochaine partie, puisque c'est elles qui vont être a la base du

développement des stratégies de référencement.

9

Page 10: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

1.1.3 Google : Leader indétrônable des moteurs de recherche

1.1.3.1 Google - Evolution des années 2000 à aujourd'hui

C'est en l'an 2000 que Google est réellement apparu comme un acteur de taille du secteur

d'internet, en devenant le moteur de recherche le plus important du monde avec, déjà à cette

époque, une version pour 15 langues différentes. Avec plus de 10 ans de recul, il apparaît très

clairement que Google à voulu, dans les premières années de son développement, consolider les

bases de l'outil qui l'a rendu célèbre, son moteur de recherche. C'est pourquoi, la même année,

Google à lancé son outil de création de liens sponsorisés : Google Adwords. Avec cet outil, les

webmasters pouvaient payer pour apparaître de façon très visible sur

les pages de recherche de certains mots clés tapés. C'est à partir de ce

moment qu'est né le Search Engine Marketing, ou référencement

payant, une technique totalement différente que le référencement

naturel/gratuit. Dès 2001, Google lançait le troisième outil de son moteur de recherche : "Image

Search", permettant aux internautes de rechercher parmi une base de plus de 250 millions

d'images. En signant en 2002 un partenariat avec AOL, Google à augmenté d'une manière

fulgurante sa notoriété et son utilisation aux Etats-Unis comme dans le reste du monde, en se

positionnant encore d'avantage comme le moteur de recherche le plus abouti et le plus pertinent.

En 2003, et en plus du développement de nouveau services pour son

moteur de recherche comme "Book search" permettant la recherche dans

une base de nombreux ouvrage, Google commence à lancer d'autres

outils, par ses propres moyens ou bien par le rachat de sociétés. Ainsi, la

plateforme de blog "Blogger" a vu le jour. L'évolution de la firme de

Mountain view s'est accrue d'avantage au milieu des années 2000, notamment avec son entrée en

bourse parfaitement réussie en 2004. S'en est suivie la mise en place des services géographique

"Google maps" et "Google Earth" qui viennent compléter les possibilités de recherche pour les

internautes.

2005 et 2006 ont été de fort développement pour l'entreprise, et continue de proposer aux

internautes des services et outils différents mais complémentaires : La messagerie mail de

10

Page 11: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

Google "Gmail" sera lancé en décembre 2005, tout comme le service associé de messagerie

instantanée "Google Talk". 2005 a aussi été l'année du rachat d'"Android" par Google, pour un

montant resté secret. Ce rachat est décrit par l'entreprise comme la meilleur affaire réalisée. En

effet, Android concurrence aujourd'hui très fortement le système d'exploitation iOS d'Apple, en

France comme à l'étranger. Android est tellement rentable que les "publicités issues du système

d'exploitation permettent à elles seules de couvrir les frais de développement2".

Fin 2006, Google annoncera l'acquisition de "Youtube", le leader de l'hébergement de vidéos en

ligne, pour prêt de 1,65 milliard de dollars3. La publicité étant au coeur du business model de

Google, la société s'est très vite rendu compte que la publicité

allait de plus en plus arriver sur les plateformes d'hébergements de

vidéos. Youtube était alors un concurrent de taille pour Google,

qui à donc décidé de le racheter, un investissement à long terme

qui semble avoir porté ses fruits, puisque le service de vidéos

comptabilisait en Février 2011 plus de 490 millions d'utilisateurs par mois4.

En 2008, Google quittera une partie des services purement web en s'attaquant au marché des

navigateurs avec l'annonce du lancement de "Google Chrome", et cela en vue de concurrencer

les 3 principaux acteurs du marchés : 2 Source Venturebeat.com - http://venturebeat.com/2010/10/27/google-exec-android-was-best-deal-ever/3 Source Numérama.com - http://www.numerama.com/magazine/3399-pourquoi-google-rachete-youtube-165-milliard-de.html4 Source Youtube.com

11

Page 12: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

Internet Explorer (par Microsoft)

Firefox

Safari (par Apple)

Un pari à nouveau réussi pour Google, puisque son navigateur occupe aujourd'hui la deuxième

place en part en marché, et vient concurrencer très fortement le géant de Microsoft, Internet

Explorer. En seulement 3 ans d'existence, Chrome a en effet dépassé Firefox dans le monde en

Novembre 20115 :

Depuis cette date, Google cherche à optimiser toujours plus ses services, à les rendre toujours

plus complémentaires, tout en travaillant sur de nouveaux projets. Les outils Google vont peu à

peu s'uniformiser pour offrir aux utilisateurs un seul et même design, plus clair, plus simple et

plus intuitif. Au début de l'année 2011, Google annonça l'arrivée de son réseau social "Google+",

service lancé au milieu de l'année 2011, dans le but de concurrencer Facebook. Malgré le retard

de Google dans le domaine du social, le groupe à misé sur son omniprésence sur le web pour

attirer les utilisateurs. Google+ à d'ailleurs été retravaillé fortement en 2012 pour apporter des

éléments de différenciations par rapport au géant du secteur, Facebook. Le but était également

d'apporter une approche d'avantage sociale dans les résultats de son moteur de recherche. 2011 et

2012 a encore été une période de nouveaux outils importants et novateurs pour Google :5 Source - Cabinet StatCounter, GlobalStats et lefigaro.fr

12

Page 13: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

Sortie de Google Music (uniquement aux USA pour le moment) fin 2011 : Service

d'hébergement et d'écoute de musiques en ligne et sur n'importe quel support connecté à

internet

Sortie de Google Play au début de l'année 2012 : Service de téléchargements gratuits ou

payants d'applications mobiles et tablettes mais aussi de film. A travers Google play,

l'entreprise cherche à créer une plateforme de divertissement accessibles à tous ses

utilisateurs, comme l'a fait Apple avec son logiciel iTunes.

Sortie de Google Drive au milieu de l'année 2012 : Service de création de documents en

ligne : document texte, présentation, feuille de calcul, formulaire, dessin, etc. Ces

documents sont automatiquement enregistrés en ligne et sont ensuite disponibles depuis

n'importe quel support connecté à internet.

Au travers de cet état des lieux des services et outils mis en place par Google depuis ses débuts,

il est possible de dire que l'entreprise s'est

construit et s'est développé afin de consolider

continuellement ses services entre eux. Même si

la bataille du social n'est pas encore gagnée avec

le géant Facebook, Google s'est construit une

place de leader et acteur incontournable du Web

depuis sa création, principalement en Europe où

les parts de marchés avoisinent les 90% 6. Dans

les pays d'Amérique du Sud et d'Amérique du

Nord, les parts de marchés de Google varient

entre 65% et 75%, dus à une concurrence plus

forte des autres moteurs de recherche comme

Bing (Microsoft). C'est la raison pour laquelle les stratégies de référencement naturel se sont

mises en place en majeure partie sur Google.

Nous avons vu dans cette partie que le moteur de recherche était toujours plus ou moins placé

au centre des évolutions des services Google. Nous allons donc voir dans la partie suivante que 6 Source - Google.com 2011

13

Page 14: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

son algorithme à su évoluer parallèlement avec les tendances d'internet, changements qui ont

eux des impacts sur le référencement des pages internet.

1.1.3.2 Google - Les changements d'algorithmes

Au cours de son développement et depuis sa création, Google a fait évoluer son

algorithme afin de le rendre toujours plus pertinent, plus rapide et plus exhaustif pour les

internautes.

L'indexation des pages va dépendre de critères qui vont être mis à jours par la société en fonction

des tendances du web que nous allons développés ci-dessous. Même si ces changements existent,

l'algorithme de Google garde cependant des critères de bases, critères qui ont fait le succès du

moteur de recherche depuis sa création. C'est ce que nous explique Matt Cuts dans une vidéo

publiée sur Youtube en début d'année 2012. Il s'agit d'un ingénieur qui à rejoint Google en

Janvier 2000 et qui est aujourd'hui le directeur de l'équipe "Webspam" de Google.

Dans cette vidéo, Matt Cuts nous informe sur le

fonctionnement du référencement naturel de Google. Il

explique que les sites les mieux classés dans les résultats de

recherche Google vont être ceux qui ont le plus de liens

entrants (Backlink : liens provenant d'un autre site internet et

pointant vers le nôtre), en prenant également en considération la réputation des sites faisant ces

liens. Par exemple, un lien entrant en provenance d'un site bien référencé par Google aura plus de

poids du point de vue du référencement qu'un lien entrant en provenance d'un site avec moins de

puissance. Il insiste également sur la relation entre les mots clés tapés par l'internaute lors de sa

recherche. Le moteur de recherche Google va répertorier le nombre de page web parlant

distinctement de chaque mot et le nombre de page web qui parlent de tous les mots en même

temps. Enfin, il explique que les robots qui balayent tous les sites web peuvent être amenés à

visiter une page plusieurs fois par jour, en fonction du nombre de mises à jours effectuées sur

la page et de sa popularité. Le positionnement de cette page dans les résultats de recherche

14

Page 15: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

Google pourra donc être amenée à bouger régulièrement. C'est ainsi que le positionnement de

base des sites va être effectué.

Nous allons à présent développer les différents et principaux changements qui ont été opérés par

l'entreprise sur son algorithme. Il est tout de même nécessaire de préciser que plusieurs centaines

de mise à jour de l'algorithme sont faits chaque année, mais, de manière génrale, seule une petite

partie a un impact réel sur le référencement naturel des pages indexées. Pour chaque changement

important de son algorithme (période où le classement des pages et sites référencés est mis à

jour), Google l'associe à un nom spécifique pour l'ancrer plus facilement dans une démarche

d'évolution7 :

Boston - Février 2003 : Première réelle mise à jour de l'algorithme. Au départ,

l'algorithme de Google est mis à jour tous les mois, pendant la pleine lune. Le nom

associé à cette période était "Google Dance". A cette date, les mises à jours étant

devenues plus fréquentes, Google à décidé d'abandonner peu à peu cette idée de

changement mensuel.

Cassandra - Avril 2003 : Google à retravailler sur les fondamentaux du référencement de

qualité en pénalisant (forte baisse du référencement) les pages et sites internet composés

de textes cachés et liens cachés.

Florida - Novembre 2003 : Changements très importants qui visaient directement les

mauvaises pratiques des professionnels du référencement sur internet. Google a pu mettre

fin à environ 90 pratiques, dont celle du " bourrage" de mots clés, technique visant à

surcharger une page internet de certains mots clés pour apparaître à ne meilleures

positions dans les résultats de recherche.

Austin - Janvier 2004 : Changement qui à permit de pointer d'autres abus mis en avant

par "Florida", dont le texte invisible sur les pages et le "bourrage" des META Tags (liste

de mot insérés dans le codage d'une page web afin de renseigner les robots des moteurs

de recherche du sujet traité sur cette page).

Brandy - Février 2004 : Améliorations apportés à l'algorithme au niveau de la pertinence

des résultats de recherche. Google va accorder d'avantage d'importance à l'ancre d'un lien

7 Source - Classement des changements d'algorithmes Google par date - http://www.seomoz.org/google-algorithm-change

15

Page 16: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

(texte sur lequel se trouve un lien) et à l'analyse des correspondances des mots clés et

synonymes.

Jagger - Octobre 2005 : Changements apportés sur la prise en compte de la qualité des

liens. Cette mise à jour cible les liens de faibles qualité : échanges de liens réciproques,

fermes de liens et liens rémunérés, qui n'ont que peu d'intérêt pour l'internaute et qui ne

servent qu'à pousser virtuellement le référencement des pages. Google à donc sanctionner

ces pages grâce à ce nouvel algorithme.

Universal Search - May 2007 : Amélioration des résultats de recherche avec l'intégration

des autres services Google : News, vidéos, images... Le temps des "10 annonces texte"

était révolu.

Caffeine & Real-time Search - 2009 : Google annonce un changement d'infrastructure

massif pour accélérer l'indexation des pages internet et améliorer l'efficacité du moteur de

recherche. En décembre, Google lance la recherche avec affichage des résultats en temps

réel, ainsi que l'intégration de Twitter et de Google Actualité, en essayant de donner à son

moteur de recherche une approche plus sociale.

Panda - Février 2011 8: Une évolution majeure dans l'algorithme Google mettant près de

2 mois à se développer dans le monde. Les changements apportés ont eu des

conséquences très importantes pour un grands nombre de sites internet. Environ 12% des

résultats de recherche Google ont été affectés, et des baisses de trafic allant jusqu'a -90%

ont été comptabilisées, obligeants certaines structures et entreprises à stopper toutes

activités. Panda a frappé l'Europe en Avril 2011 et des mises à jour régulières sont

opérées depuis. Pour Google, le but de Panda était de nettoyer son index (pages et sites

internet indexés dans son moteur de recherche), en supprimant ou pénalisant fortement :

o Les pages à faibles contenus. Site un site internet est composé d'un trop grand

nombre de pages à faibles contenus, le site entier est désindexer.

o Les pages dont le contenu est trop similaire à d'autres pages déjà existantes sur

internet

8 Source - Dossier Google Panda sur webrankinfo.com - http://www.webrankinfo.com/dossiers/techniques/google-panda

16

Page 17: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

o Les fermes de contenus : "Sites créés et développés spécialement pour générer des

revenus publicitaires"9.

o Les sites composés de trop nombreuses publicités et les sites ne présentant pas

assez de normes qualitatives définies par Google

Penguin - Avril 2012 : Dernière mise à jour de l'algorithme Google en date. Tout comme

Panda, celle-ci devrait changer de manière significative les habitudes des professionnels

du référencement et les stratégies mises en place depuis plusieurs années. Même si il n'y a

pas encore assez de recul par rapport à cette dernière mise à jour, Penguin aurait comme

objectif de cibler et pénaliser les sites et pages suroptimisées du point de vue du

référencement mais aussi la suroptimisation des liens. Deux semaines après le lancement

de Google Penguin, Matt Cuts (responsable du webspam chez Google) a accordé une

interview au site SearchEngineLand.com. Il explique que même si certains sites ont

perdu de nombreuses positions dans les résultats de recherche, il reste "convaincu que

Google Penguin a permis de mettre hors jeu ceux qui spamment son index ou qui en

avaient l’intention10". Il ajoute " Google Penguin a un objectif de précision. A savoir, agir

efficacement contre toutes les pages renvoyant un fort signal de sur-optimisation ou de

spam".

D'après cet état des lieux des principales mises à jour des algorithmes fait par Google depuis sa

création, il apparaît que le leader des moteurs de recherche souhaite rendre son outil toujours

plus qualitatif et plus efficient, parfois au dépend de certains sites déjà en place depuis

plusieurs années. Google se bat depuis sa création sur les pratiques illégales du référencement,

stratégies que nous allons développer dans la deuxième partie de cette partie exploratoire. Au

travers des modifications de son algorithme, Google montre qu'il prend de plus en plus en

considération les interactions sur les réseaux sociaux. L'objectif et l'intérêt pour l'entreprise sont

aussi de développer son réseau social Google+ en vue de concurrencer Facebook. Une page web

ou un site internet étant relayés de nombreuses fois sur les réseaux sociaux, et créant beaucoup

d'interactions, gagnera d'avantages de positions dans les résultats de recherche que les pages web

9 Source : Définitions-Webmarketing.com - http://www.definitions-webmarketing.com/Definition-Ferme-de-contenus10 Interview Matt Cuts pour Danny Sullivan (SearchEngineLand.com), Avril 2012

17

Page 18: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

n'étant pas relayées. Les habitudes de référencements changent et évoluent. Il s'agit d'un travail

d'adaptation de la part de tous les professionnels SEO pour élaborer de nouvelles stratégies, dans

l'objectif d'obtenir continuellement les meilleurs positions dans les résultats de recherche Google.

C'est ce à quoi nous allons nous intéresser dans les prochaines parties de ce mémoire.

1.1.4 Les autres moteurs de recherche et leur place actuelle

Comme il l'a été présenté précédemment, et même si Google est un acteur incontournable

de l'internet actuel, il reste important de s'intéresser aux autres moteurs de recherche existants, en

France comme à l'étranger. Nous l'avons vu, Google possédait en France près de 90% des parts

de marchés à la fin de l'année 2011 d'après AT Internet. Viennent ensuite Bing avec 3.3% de

parts de marché, Yahoo avec 1.5% et Orange avec 0.8% de parts de marché. Cette situation est

semblable dans une grande partie des pays d'Europe. Une domination de Google qui est loin de

disparaître.

Néanmoins, il est intéressant de regarder la situation dans les autres pays du monde, une situation

qui toute autre. En effet, aux Etats-Unis et dans d'autres pays du continent américain, même si

Google reste leader, les parts de marchés de la firme de Mountain View sont moindres, au profit

de Bing et Yahoo. Il convient de différencier cependant Bing et Yahoo qui sont certes, tous deux

des concurrents de Google, mais ce sont des acteurs de nature différentes. Yahoo est d'avantage

un portail plutôt qu'un moteur de recherche. Un portail peut se définir comme étant un "site qui

par son contenu (moteur de recherche, actualités, informations pratiques, météo,...) se veut un

point d'entrée incontournable sur internet et un carrefour d'audience11". Yahoo correspond

exactement à cette définition dans le sens où il va répertorié l'ensemble des services évoqués,

mais en y ajoutant en plus des outils similaires au leader Google : Webmail, Agenda... Quant à

Bing, de Microsoft, se positionne d'avantage en tant que concurrent de Google puisqu'il s'agit

d'un moteur de recherche. Il progresse de plus en plus en Etats-Unis qui connait la plus forte

évolution depuis son lancement d'après deux études des cabinets cabinets Comscore et Hitwise.

Au début de l'année 2011, Bing cumulait près de 27% des recherches effectuées aux Etats-Unis.

D'après l'étude Hitwise, "Bing bénéficie d'un taux de clics plus important que Google : 81 % des 11 Source - Définition Portail Internet - http://www.definitions-webmarketing.com/Definition-Portail-Internet

18

Page 19: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

recherches sur le moteur de Microsoft débouchent sur un clic, contre 65 % pour les requêtes

effectuées sur Google12". Bing cherche en effet à se différencier de Google, au lieu de lui

ressembler. C'est en cela que le moteur de recherche de Microsoft développe son algorithme pour

prendre plus en considération la localisation de l'internaute plutôt que son historique de

recherche. Malgré cette évolution, Bing reste à 4% de parts de marché dans le monde.

En Russie le moteur de recherche leader s'appelle "Yandex".

En Mars 2011, le moteur de recherche russe détenait environ

65% des parts de marchés 13des moteurs de recherche

présents dans le pays. Google arrivait en deuxième position avec seulement 22% de parts de

marchés.

Quand au continent asiatique, Google n'occupe pas non plus la place de leader dans la majorité

des pays. C'est le moteur de recherche "Baidu" qui est majoritaire comme par exemple en Chine,

avec entre 75 et 85% de parts de marché en 2010. Cependant, Baidu est loin d'avoir fait

l'unanimité dans les pays de la zone asiatique.

Les Etats-Unis sont toujours un modèle concernant le domaine d'internet. Le fait que Bing gagne

quelques parts de marchés sur Google va potentiellement changer les approches du

référencement et permettre de voir émerger de nouvelles techniques de SEO. En Europe, cette

situation n'est pas encore à l'ordre du jour. Bing à tout intérêt à se développer là où Google n'a

pas une position quasi-majoritaire. C'est pourquoi les stratégies de référencement ne sont que très

peu développées sur le moteur de recherche Microsoft, au profit du référencement Google.

Actuellement, Bing n'apporte que trop peu de visibilité à un site internet français ou francophone

pour s'y intéresser.

Nous allons maintenant nous pencher sur l'intérêt du référencement naturel pour les sites internet,

domaine encore en pleine expansion et indispensable a l'heure actuelle.

12 Source - Etude Hitwise et Le Monde Technologies - http://www.lemonde.fr/technologies/article/2011/02/11/bing-grignote-les-parts-de-marche-de-google-aux-etats-unis_1478441_651865.html13 Source - liveinternet.ru

19

Page 20: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

1.1.5 Le SEO, pourquoi ?

Être présent et indexé sur Google n'est pas une démarche difficile, puisqu'elle est

automatique. Nous l'avons dans les parties précédentes, Google scrute l'ensemble du web grâce à

des robots qui sillonnent toutes les pages de tous les sites internet, jours et nuits. Suite à cela,

l'algorithme de Google indexera ou non les pages en fonction de critères et leurs accordera un

positionnement dans les résultats de recherche. Un site créé de la façon la plus normale possible

(c'est à dire sans abus : Pas de caractères injurieux, racistes, violents, pornographiques) sera très

vite référencé sur le moteur de recherche.

Cependant, il ne suffit pas d'être référencer sur Google pour faire vivre un site internet sur le long

terme. En effet, un site internet référencé par exemple en troisième page de Google sur les mots

clés principaux de son activité n'aura aucune visibilité et que très peu de visites. Pour qu'un site

ou une page web soient rentables et pérennes, ils doivent être bien référencer, c'est à dire qu'il

doivent apparaître au minimum sur la première page des résultats de recherche sur les mots clés

caractéristiques du site.

Exemple : Un site de vente de lunettes en ligne devra se positionner sur des mots clés de

types "achat lunette", "achat lunettes", "achat lunettes en ligne", etc. En tapant ces mots

clés sur Google, l'objectif des stratégies de référencement est que ce site devra apparaître

dans les premières positions des résultats de recherche.

Une étude d'eye tracking des résultats Google réalisée en 2005 par Enquiro Research14 nous

montre, de manière claire et précise comment va réagir l'internaute sur la page de résultats suite à

une recherche et quel va être son sens de lecture :

14 http://enquiroresearch.com/

20

Page 21: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

15

Ici, il apparait très clairement que l'internaute va s'intéresser principalement aux 4 premiers

résultats affichés par Google. Si il trouve ce qu'il recherche, il se dirigera très rarement vers le

bas de cette première page, et encore moins en seconde page des résultats de recherche. Ce

comportement n'a que très peu évolué entre 2005 et aujourd'hui, même si de nouveaux éléments

se sont insérés dans les résultats de recherche depuis quelques années, comme les Actualités

Google, les vidéos ou bien les images. Cependant, il faut noter que ces nouveaux éléments

n'apparaissent que sur certains mots clés très recherchés, ce n'est pas le cas de tous.

Cette insertion de nouveaux éléments va changer de manière significative l'ordre de lecture des

résultats de recherche su Google. La même étude d'eye tracking réalisée par Enquiro Research,

cette fois ci en 2010, nous illustre ce changement de lecture :

15 Etude Enquiro Research Eye Tracking Google SERP 2005 - http://www.1ere-position.fr/blog/eye-tracking-recherche-universelle-et-sens-de-lecture-sur-une-page-de-resultats-google

21

Page 22: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

16

Sur cette nouvelle illustration, nous pouvons constater que l'ordre de lecture n'est plus verticale

comme sur une page de résultats de recherche où seuls des liens textuels apparaissent. Il est

également intéressant de voir que la première place dans les résultats n'a plus la même

importance lorsque de nouveaux éléments (types photos ou vidéos) sont intégrés sur la page. Les

internautes sont alors beaucoup plus attirés par les illustrations que par le texte, puisque c'est la

première chose qu'ils regardent (A). Afin de savoir si cette illustration correspond à ce qu'ils

recherchent vraiment, ils vont lire ensuite la description associées (B). C'est ensuite que les

internautes vont reprendre un sens de lecture vertical, en s'intéressant d'abord au premier résultat

fourni par Google (C) puis aux autres résultats situés sous l'illustration (S). De la même manière

que pour les pages de résultats sans illustration, plus l'on s'éloigne de la première position, plus le

taux de clics chute. Une étude sortie en Aout 2011 réalisée par Slingshot SEO17, entreprise

reconnue de référencement naturel, nous montre le fort écart qu'il existe en moyenne entre les

taux de clics sur la première page de résultats Google :

1ère position Google : 18.2% de taux de clics

16 Etude Enquiro Research Eye Tracking Google SERP 2010 - Livre blanc sur les moteurs de recherche - http://www.1ere-position.fr/blog/eye-tracking-recherche-universelle-et-sens-de-lecture-sur-une-page-de-resultats-google17 Source - Slingshot SEO - http://www.slingshotseo.com/resources/white-papers/google-ctr-study/

22

Page 23: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

2ème position Google : 10.05% de taux de clics

3ème position Google : 7.22% de taux de clics

4ème position Google : 4.81% de taux de clics

5ème position Google : 3.08% de taux de clics

8ème position Google : 1.75% de taux de clics

10ème position Google : 1.04% de taux de clics

Nous constatons qu'un site bien référencé est un site qui se situe entre la première et la cinquième

place des résultats de recherche Google, et même 4ème place. Pour qu'un site internet soit

référencer par un moteur de recherche, nous avons donc constaté qu'il s'agissait d'un processus

simple puisqu'il est automatique. Cependant, apparaître dans les premières positions des

résultats de recherche - lorsque les internautes tapent à un mot clé en rapport avec le site

internet à référencer - demande beaucoup plus de travail et de temps. C'est ici que prend source

tout l'intérêt du SEO des stratégies qui en découlent. Le SEO est un passage obligatoire pour

tous les sites internet souhaitant se développer.

La personne en charge du référencement naturel, aura donc pour but de positionner son site

internet ou bien une page de son site dans les premières positions des résultats de recherche.

C'est ainsi que le nombre de visiteurs augmentera et c'est ainsi que le site pourra être de plus en

plus rentable et pérenne. Mais, en milieu concurrentiel, cette démarche peut s'avérer difficile,

certains acteurs étant positionnés depuis plusieurs années sur les mots clés les plus tapés par les

internautes. Le référencement naturel est donc indispensable pour la survie d'un site, mais aussi

pour se positionner face à une concurrence qui devient de plus en plus importante sur internet.

Dans la partie suivante, nous allons nous intéresser aux différentes stratégies de référencement

naturel existantes, en détaillant tout d'abord les stratégies globales et stratégies de bases, pour

ensuite développer les stratégies mises en place par les professionnels en rapport avec les

évolutions des algorithmes Google de ces derniers années.

23

Page 24: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

1.1.6 Les stratégies et techniques SEO globales

1.1.6.1 Etudes préalables

Construire une stratégie de référencement naturel nécessite un réel travail en amont afin

de connaître toute les caractéristiques du marché et les caractéristiques web sur lesquelles un site

va être positionner. Cela doit être défini avant même la création du site internet, puisque les

rubriques à définir ainsi que les contenus insérés à l'intérieur des pages du site vont dépendre en

grande partie de la stratégie SEO. Plusieurs points seront à définir précisément pour ce travail en

amont d'un site dans un milieu concurrentiel :

1. Benchmarking : Etude des sites internet concurrents (organisation des contenus,

contenus), de leurs positionnements respectifs sur les moteurs de recherche, des pages qui

ressortent le plus dans les résultats de recherche, des mots clés sur lesquels les sites

concurrents ressortent le plus.

2. Mots clés : Etude et analyse des mots clés les plus tapés dans Google sur le thème du site

à référencer. Etude des tendances et évolutions des mots clés par rapport aux différentes

périodes de l'année et étude des synonymes par rapports à ces mots clés. En dégager une

liste de mots clés très concurrentiels mais indispensables, et une liste de mots clés

importants sur lesquels il est plus facile de se positionner. Grâce à cela, il sera possible de

définir plus facilement l'ensemble des rubriques du site internet.

3. Contenu : Mise en place d'une liste de contenus à organiser dans les rubriques définies

préalablement. Les contenus, en rapport direct avec la thématique traitée par le site

internet, devront être construit sur la base des mots clés définis dans les études

précédentes.

Afin de réaliser ce travail, internet met à la disposition des webmasters et des référenceurs un

certains nombre d'outils puissants et pour la majeure partie, gratuits. L'accessibilité de ces outils

est un avantage non négligeable sur internet, mais qui peut s'avérer être un inconvénient s'ils sont

également utilisés par la concurrence. C'est la raison pour laquelle les études réalisées en amont

de la construction d'un site internet doivent être parfaitement travaillées, en faisant attention à

24

Page 25: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

développer plusieurs axes stratégiques de référencement : Le premier sur des mots clés

également visés par la concurrence, le second dans un but de différenciation, mais toujours sur la

même thématique.

Concernant l'étude des sites concurrents, des mots clés utilisés et de leurs positionnement sur

les moteurs de recherche, plusieurs outils existent :

Majesticseo.com : Etude sur les liens de n'importe quel site internet : Nombre de sites

faisant un lien vers celui du concurrent avec classement des plus importants. Le site

calcul également le nombre de liens sortants du site concurrents.

Pagerank.fr : Permet de calculer la note accordée par Google à n'importe quel site

internet (Pagerank). L'outil va également détaillé le nombre de pages indexées dans le

moteur de recherche et le nombre de backlink (liens entrants).

Seoh.fr/audit-seo : Outil qui permet de réaliser gratuitement un audit de référencement

gratuit d'un site internet : principales balises de référencement, mots clés les plus utilisés,

principaux points à travailler pour optimiser le référencement.

Positeo.com : Cet outil permet de trouver le positionnement d'un site internet sur Google

sur un ou plusieurs mots clés. En y renseignant également des données de géolocalisation

et de langue, il est très simple de connaître la position d'un concurrent sur tout type de

thématiques.

De même, pour l'étude des mots clés sur lesquels il sera important de travailler pour le

référencement du site internet, de nombreux outils permettent de les définir très précisément.

Parmi les principaux, l'outil "Google Insight" est l'un des plus utilisés. Il va permettre de

calculer le nombre de fois qu'un mot clé est tapé sur Google tous les mois, par pays, région mais

aussi par date. L'outil fonctionne également avec l'analyse de plusieurs

mots clés afin de les comparer. Il sera alors possible de voir les

différentes tendances de chaque mot clé, lequel est le plus tapé ou bien

lequel à le plus d'influence à telle ou telle période de l'année. Enfin, l'outil développé par Google

vous propose une liste exhaustive de synonymes ou mots clés tirés de la même thématique avec

leurs pourcentages respectifs d'évolution.

25

Page 26: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

Au travers de ces différents outils, la création du site internet et sa stratégie de référencement,

dont les différents aspects vont être présentés dans les parties ci-après, vont pouvoir commencer

sur des bases solides en ayant pris connaissance du positionnement précis des concurrents sur les

moteurs de recherche.

1.1.6.2 Création, optimisation de contenu et maillage interne

Le point de base du référencement naturel est le contenu. En effet, c'est lui qui va en

premier lieux permettre à Google d'identifier un site internet comme traitant de tel ou tel sujet et

de le référencer sur des mots clés précis. Cependant, la seule présence d'un contenu de qualité

n'est pas un gage de bon référencement. Il est à la base d'un travail de fond et de moyen/long

terme pour augmenter peu à peu la position du site ou de la page internet sur le moteur de

recherche.

Tout d'abord, pour qu'un site internet se référence de manière plus rapide, il est nécessaire qu'il

ait un contenu de base de qualité, mais surtout que du contenu soit ajouté constamment sur le site

internet. En effet, les robots du moteur de recherche Google n'inspectent pas qu'une seule fois le

contenu présent. Ils reviennent de manière régulière afin de vérifier si le contenu est toujours de

qualité, s'il correspond toujours à la ou les thématiques pour lesquelles le site à été référencé, si

le contenu à subit des mises à jours, et s'il y a eu de nouveaux contenus sur le site internet. Plus

un site internet connait de modifications au niveau de son contenu (mises à jours ou ajout), plus

les robots Google vont revenir régulièrement. De nouveaux contenus de qualité (contenus

correspondant à la thématique du site à référencer, composés de mots clés très tapés par les

internautes) ajoutés régulièrement vont prouver à Google que le site est actif. Grâce à cela, le

moteur de recherche va progressivement faire gagner des positions à ce site internet dans les

résultats de recherche. Ce point est très important et va constituer un pilier dans la stratégie de

référencement.

Ensuite vient une partie d'optimisation des contenus. Cette étape est une stratégie propre au

référencement, dans le sens où il va s'agir de techniques de mise en valeur d'éléments à l'intérieur

des contenus du site internet. Cette optimisation se fait à plusieurs niveaux :

26

Page 27: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

Le titre des pages et titre des contenus : Pour chaque page et chaque contenu d'un site,

les titres sont très important pour Google, puisque c'est eux qui vont apparaître dans les

pages de résultats du moteur de recherche. Ces titres doivent donc être optimisés, c'est à

dire composés des mots clés principaux du contenu, mots clés sur lesquels le référenceur

cherche à positionner le site. Dans un titre optimisé, on trouvera le mot clé principal en

premier, accompagné ensuite de synonymes ou mots clés de la même thématique. Dans

une page internet, il existe plusieurs types de titres (qui doivent tous être différents mais

composés de mots clés semblables pour améliorer le référencement de la page) :

o Titre global de la page : Il s'agit de la "balise title" de la page, c'est à dire le texte

qui sera affiché sur les moteurs de recherche.

o Titre H1 (Header 1) : Titre principal affiché sur la page du site internet, censé

représenté le contenu aux internautes mais aussi aux moteurs de recherche

o Titre H2 : Sous titre qui vise à mieux structurer le contenu à l'intérieur de la page

web

o Titres H3 à H6 : Il s'agit de tous les types de sous titres que l'on peut insérer dans

une page internet pour prouver aux moteurs de recherche une organisation

structurée du contenu.

Balises de mise en avant : Optimiser une page web, c'est aussi attribuer aux mots clés

importants du contenu des balises pour indiquer aux moteurs de recherche de quoi traite

exactement le sujet. Ainsi, Google saura plus facilement référencer et positionner la page

par rapport à la thématique traitée. Il existe différents types de mises en avant de contenu

grâce à des balises HTML comme par exemple :

o Balise <strong> : Balise de mise en gras des mots clés importants de la page. Il

reste néanmoins important de ne pas en abuser pour éviter la sur-optimisation de

la page (sanctionner par Google, c'est à dire une perte de position de la page dans

les résultats de recherche).

o Balise <em> : Balise de mise en italique de certaines parties du texte de la page.

Mise à jours du contenu : Enfin, l'optimisation d'une page web passe par sa mise à jour

régulière, en y ajoutant de nouveaux contenus par exemple, ou en y ajoutant des

27

Page 28: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

illustrations, tels que des images ou des vidéos avec un texte associé. Google va ainsi voir

que la page continue d'être active.

La troisième et dernière partie de la stratégie de référencement d'un contenu d'un site internet est

le maillage interne, c'est à dire l'organisation du contenu. Ce terme correspond aux liens

hypertextes (liens cliquables) qui vont permettre de lier les différentes pages d'un site web entre

elles. Un maillage interne bien optimisé pour le référencement correspond à un ensemble de liens

logiques à l'intérieur d'un site. Comme nous l'avons vu dans les parties précédentes, lorsque les

robots Google inspectent un site internet, ils suivent l'ensemble des liens qui lient les pages.

Cette stratégie de maillage interne va donc permettre de créer des chemins entre des contenus de

même types et complémentaires, mais aussi entre les différentes rubriques présentes sur le site.

Cela améliore de manière significative le référencement d'un site ou d'une page web. Les liens

entre les pages d'un site interne sont de plusieurs formes :

Liens du menu : Liens visités en premier par les robots Google puisqu'ils arrivent en

premier dans le sens de lecture de la page. Les liens du menu ont pour objectifs de lier

logiquement les pages, pour guider plus facilement le visiteur, mais aussi les robots des

moteurs de recherche.

Liens à l'intérieur des contenus : Faire des liens dans les contenus de chaque page

permet à Google d'associer un lien à une thématique précise, puisque le lien sera entouré

de texte de qualité et optimisé, comme nous l'avons vu dans la partie précédente. Point

important, l'ancre (texte sur lequel se trouvera le lien) des liens doit être choisi avec

attention. Elle doit correspondre à un mot clé précis sur lequel la page souhaite se

référencer.

o Lien optimisé pour le référencement : "Retrouvez dans un deuxième article tout

ce qu'il faut savoir sur l'achat de lunettes sur internet"

o Lien non optimisé : "Pour tout savoir de l'achat de lunettes sur internet, cliquez

ici"

Liens de bas de page : Liens peu pris en compte par Google, ils serviront principalement

à rediriger l'internaute vers les parties principales du site internet.

28

Page 29: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

Ce premier aspect de la stratégie de référencement aura pour conséquence une amélioration des

positions des pages d'un site internet dans les résultats de recherche de Google.

1.1.6.3 Netlinking

Le deuxième aspect d'une bonne stratégie de référencement concerne la notion de

Netlinking, c'est à dire la mise en place d'une stratégie de liens entrants (backlink) et de liens

sortants.

Liens entrants (Backlinks) : Lien situé sur un autre site internet et qui pointe vers notre

site ou bien une page de notre site.

Liens sortants : Lien situé sur notre site pointant vers un site extérieur

Du point de vue du référencement et plus globalement, du point de vue de la visibilité d'un site

web sur internet, il est beaucoup plus intéressant d'avoir d'avantage de backlinks que de liens

sortants. Un site internet possédant de nombreux backlinks va être vu par Google comme un site

de référence, puisque de nombreux sites en parle et font des liens vers celui-ci. Google

accordera donc à ce site "de référence" de meilleures positions dans les résultats de recherche. Il

est néanmoins nécessaire de noter que les liens ont des poids différents du point de vue du

référencement :

Un lien à l'intérieur d'un contenu, entouré de texte en rapport avec les mots clés

principaux de notre site sera préférable à un lien seul.

Un lien dans une page bien référencée sur Google sera plus intéressante au niveau

référencement, qu'un lien sur une page peu référencée. De même, un lien sur une page

avec un fort Pagerank aura plus de poids qu'un lien sur une page à petit Pagerank.

Un lien en haut de page aura plus de poids qu'un lien situé en bas de page.

Dans la stratégie de référencement à mettre en place, il convient donc de réunir toutes ses

caractéristiques pour optimiser les backlinks fait par d'autres sites. Afin d'obtenir ce type de liens

qualitatifs et qui feront augmenter véritablement la position de notre site internet sur Google, il

existe de nombreux moyens différents. En voici quelques exemples :

Echange de liens : Un lien entrant en échange d'un lien sortant

29

Page 30: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

Partenariats : En échange d'un service, un site extérieur pourra faire un backlink vers

notre site.

Backlinks via des partages : Le meilleur moyen d'obtenir des liens entrants est de créer

des contenus intéressants, originaux et de très bonne qualité sur le site internet à

référencer. Le site gagnera en notoriété et sera de plus en plus vu comme un site de

référence dans la thématique qu'il traite. De nombreux sites feront peu à peu des liens

vers ce site, sans rien avoir à demander.

L'objectif est donc d'obtenir le plus de liens entrants possibles, et les plus qualitatifs possible, une

caractéristique que Google prend fortement en consécration dans son processus de référencement

des sites internet.

1.1.6.5 Suivi de la stratégie SEO

Une fois en place, une stratégie de SEO doit être suivie par le référenceur en charge du

positionnement du site internet sur les moteurs de recherche. En effet, ce travail va permettre de

savoir si la stratégie fonctionne, si les pages du site internet gagnent ou perdent des positions sur

Google par rapport aux concurrents, mais surtout de savoir si la stratégie est bonne ou si il est

nécessaire de la changer ou de l'adapter.

Les mêmes outils présentés précédemment pour le travail de mise en place de le stratégie de

référencement serviront également pour cette partie. Les outils utilisés pour analyser le

référencement et le positionnement des concurrents pourront

aussi servir à l'analyse de notre site. Il existe d'autres moyens

très intéressants et indispensables pour se rendre compte de

l'efficacité d'une stratégie de SEO, chiffres et statistiques

disponibles uniquement si le site web nous appartient. L'un de ces outils est "Google Analytics".

Sur ce site internet mis à disposition gratuitement par Google aux webmasters et référenceurs, il

va leur être possible d'analyser tous les chiffres inhérents au site sur lequel ils doivent travailler :

Nombre de visites par jour, par mois, par an, nombre de visiteurs unique, nombre de pages vues

30

Page 31: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

par visites, durée moyenne de la visite, les différentes sources de trafic, les contenus les plus

visités, les sites référents les plus importants, les mots clés principaux tapés pour arriver sur le

site, etc. Via cet outil, il va être possible de croiser les données pour affiner le travail de

référencement réalisé sur le site. Connaître le nombre de visiteurs d'île de France ayant visité un

page précise du site sera par exemple possible. Ainsi, grâce à cette analyse des données, le

référenceur va pouvoir prendre un certain nombre de décisions importantes. Il va par exemple

pouvoir décider de travailler plus particulièrement sur un mot clé plutôt qu'un autre, si ce dernier

apporte moins de visites que le premier.

Il existe également des outils de suivis payants disponibles sur les sites ranks.fr ou bien

Yooda.com, outils qui vont proposer un certain nombre d'analyses supplémentaires par rapport à

Google Analytics :

Ranks : Système qui analyse de manière automatique l'évolution du référencement d'un

site. Il est nécessaire de renseigner au préalable les mots clés sur lesquels le site se

positionne et l'URL (adresse web) du site. L'outil fera en tant réel une analyse de

l'évolution des positions des pages du site internet par rapports aux mots clés renseignés.

Des analyses annexes viennent apporter un avantage à cet outil, comme un synthèse

globale de la visibilité du site (nombre de backlinks, nombres de pages indexés), un suivi

précis des concurrents et des sites leaders du marché.

Yooda : Cet outil propose sensiblement les mêmes services que "Ranks.fr", à la

différence qu'il s'agit d'un logiciel et non d'un site internet. Le premier logiciel permet de

faire un audit de son site internet et d'analyser très précisément le référencement

(évolutions des positions Google tous les jours en fonction des mots clés sur lequel le site

souhaite se positionner, évolutions des parts de marché du site sur Google). Le second

logiciel, un peu moins important, permet de référencer automatiquement un ou plusieurs

sites internet dans des annuaires de référencement.

Les positions sur Google changent très souvent. L'analyse des données du site internet est donc

un travail de tous les jours, un travail d'adaptation pour optimiser toujours plus le

référencement.

31

Page 32: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

1.1.7 Les stratégies et techniques SEO actuelles

Après avoir analysé les différentes techniques de base du référencement naturel d'un site

internet sur les moteurs de recherche, il convient de s'intéresser aux dernière techniques mises en

place, qui ont été testées et développées par les professionnels du secteurs en fonction des

évolutions de l'algorithme Google.

Tout d'abord, l'un des derniers changements apporté à cet algorithme est la prise en compte de

plus en plus importante des réseaux sociaux et des interactions qu'il peut y avoir entre les

utilisateurs. En effet, les réseaux sociaux se sont développés de manière exponentielle depuis les

années 2006 et 2007. Google, au travers des mises à jour de mode de référencement des sites

internet, a donc progressivement donné de l'importance à cet aspect social. Cela lui a également

permis de mettre en avant peu à peu son réseau social : Google Plus. Aujourd'hui, des éléments

des réseaux sociaux Twitter et Google plus apparaissent dans les pages de résultats Google, afin

de guider plus facilement le visiteur en fonction des pages qu'ont pu visiter ou "aimer" leurs

contacts issus des réseaux sociaux. Partant de ce constat, les professionnels du référencement

optent depuis plusieurs années pour l'insertion de boutons de partages (pour

les différents réseaux sociaux) dans les pages des sites internet. Plus une page

internet ou plus un contenu sont partagés sur les réseaux sociaux, plus ils seront

référencés dans les pages de résultats de Google. Ils gagneront ainsi des

positions par rapport à la concurrence. De même, un contenu provoquant de

nombreuses interactions sur les réseaux sociaux (commentaires d'utlisateurs, "likes" sur

facebook, "retweet" sur Twitter, "+1" sur Google plus...) gagnera des positions sur les moteurs de

recherche. La mise en place d'une stratégie sur les médias sociaux (appelée plus communément

Social Media Optimization - SMO) devient aujourd'hui presque aussi important qu'un stratégie

de référencement, avec l'avantage non négligeables qu'elles sont complémentaires.

Ensuite, après un ensemble de test réalisés ces dernières années, les professionnels du SEO ont

également mis en avant une stratégie de Netlinking optimale (stratégie de liens comme

présentée dans les parties précédentes) qui semble fonctionner pour développer les

référencement naturel d'un site et lui faire gagner des positions dans les moteurs de recherche :

32

Page 33: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

Sur le schéma18 représenté ci-contre, nous

pouvons constater qu'il s'agit d'un stratégie

de netlinking en 3 étapes, ou 3 paliers. Le

"site cible" (site à référencer) est entouré de

3 éléments distincts correspondants à 3

différents médias internet (Les réseaux

sociaux, les Blogs et les sites de contenus

gratuits tels que les annuaires ou bien les

sites internet de communiqués de presse).

Cette stratégie consiste à créer un ensemble

de liens de 3ème niveau en provenance de

sites externes. Ces liens ne pointeront

jamais directement vers le site internet à

référencer, ils pointeront vers des contenus

de Blogs, des pages d'annuaires ou

communiqués de presse ou des pages Fans

sur les réseaux sociaux. Ces 3 éléments

seront des intermédiaires de deuxième

niveau qui auront pour but de promouvoir le site cible. Des liens seront placés dans des contenus

optimisés pour le référencements sur ces 3 types de sites web. Ils pointeront tous vers un seul et

même site internet, le site cible.

Cette stratégie vise à montrer à Google que le site cible est présent sur internet sur de

nombreuses plateformes différentes, qu'il y a de l'interaction autour de lui et que de nombreux

sites externes en parlent. A moyen terme, cette stratégie de netlinking aura pour effet un meilleur

positionnement du site à promouvoir sur les moteurs de recherche.

18 Source - Presse Citron, Février 2011 - http://www.presse-citron.net/seo-les-dernieres-techniques-americaines-pour-faire-exploser-votre-trafic

33

Page 34: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

1.2 LE RÉFÉRENCEMENT ILLÉGAL - SEO BLACK HAT

1.2.1 Qu'est ce que le SEO Black Hat ?

Le SEO black hat est apparu au même moment que les stratégies de référencement

naturel, puisqu'il s'agit d'un mode de fonctionnement dérivé. "Une pratique dite black hat SEO

est une technique de référencement naturelle considérée come discutable, non éthique et / ou

punissable par les moteurs de recherche ou les professionnels du référencement19". Tout comme

le SEO "white hat", c'est à dire les stratégie de référencement naturel évoqués dans les

précédentes de ce mémoire, son seul objectif est de tout mettre en œuvre pour positionner un site

internet ou une page internet en première position des résultats des moteurs de recherche.

Google étant le moteur de recherche omniprésent en France, et en grande partie à l'international,

les professionnels du référencement analysent régulièrement toutes les évolutions de son

algorithme afin de savoir précisément comment il fonctionne et quelles techniques ils peuvent

mettre en place. L'objectif est ici de décortiquer toutes les facettes du moteurs de recherche pour

savoir comment référencer un site internet de toutes les manières possibles. C'est d'ici que

naissent les différentes techniques de référencement. Ces techniques sont ensuite très vite

partagées auprès de la communauté mondiale des professionnels du référencement, via les

réseaux sociaux ou les blogs. L'ensemble de processus est très rapide.

Il en va de même pour les techniques SEO black hat, avec une ampleur tout de même moins

importante, puisque ces techniques demandent une expertise issus du SEO white hat, mais aussi

de nombreuses connaissances dans le SEO black hat. De plus, ces techniques sont caractérisées

de black hat (chapeau noir) dans le sens où elles sont définies comme "non éthiques" ou "sales".

Leur but est simple : "Booster sévèrement le référencement, au risque d'être puni par la suite par

Google20". Parallèlement, le SEO black hat a également pour objectif de travailler sur la

19 Definition Black Hat SEO - Définitions-webmarketing.com - http://www.definitions-webmarketing.com/Definition-Black-hat20 Définition Black Hat SEO - nikopik.com - http://www.nikopik.com/2012/04/le-black-hat-seo-resume-en-une-infographie.html

34

Page 35: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

concurrence, en faisant en sorte que les sites concurrents perdent des positions sur les moteurs de

recherche, au profit du site ou de la page à référencer. Le SEO black hat consiste à tromper

Google dans son processus de référencement des sites internet, via un ensemble de techniques

que nous allons voir dans les parties suivantes. Encore aujourd'hui, les professionnels du secteur

n'ont pas de définition exactes du black hat, puisque les limites de ses techniques ne sont pas

mesurables et divergent selon les secteurs d'activités et bien d'autres critères. La limite entre

white hat et black hat fait souvent débat. Cependant, la tendance globale du référencement black

hat reste connue.

Kévin Richard, dirigeant de l'agence de référencement Cultivaref et également professionnel

reconnu du référencement naturel a dominante black hat, nous résume précisément ce qu'est le

SEO black hat : "Pour un black hat, les trois business models sont de faire augmenter le trafic

d'un site pour vendre son propre produit, vendre le produit des autres (affiliation) et faire cliquer

les internautes sur les publicités21". Dans cette approche, il ne prend pas en compte tous les

dérivés de ces techniques, tels que l'introduction dans des systèmes informatiques ou la

récupération de données de site en vue de les revendre... Plus simplement, il explique que le

modèle du black hat22 est :

"D'obtenir du trafic (de manière borderline)"

"De monétiser ce trafic (de manière borderline)"

Il terme sa définition en expliquant que le terme de "SEO black hat" est "restrictif puisqu'il

n'englobe pas les cas cités précédemment, qu'il s'agit plutôt de black hat marleting". Dans une

interview accordée au site internet visibilitere-ferencement.fr, il résume les techniques black

hat comme "tout SEO contraire aux guidelines de Google23". Les guidelines sont des pages où

Google va expliquer aux internautes, et plus particulièrement aux référenceurs, comment

référencer correctement un site internet et quelles sont les bonnes manières de faire.

Intéressons-nous désormais au réel intérêt de ces techniques dites "non étiques" et pourquoi elles

sont utilisées.

21 Définition Black Hat par Kévin Richard - http://www.deliciouscadaver.com/comment-definir-le-black-hat.html22 Définition Black Hat par Kévin Richard - http://www.deliciouscadaver.com/comment-definir-le-black-hat.html23 Interview Kévin Richard pour visibilite-referencement.fr - http://www.visibilite-referencement.fr/blog/black-hat-seo-512banque

35

Page 36: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

1.2.2 Pourquoi utiliser le SEO Black Hat ?

1.2.2.1 Être visible et référencé rapidement

Nous avons analysé dans les parties précédentes que les stratégies de référencement

naturel ont pour objectif de référencer un site ou une page internet dans les premières positions

des résultats de recherche de Google, en fonction des mots clés sur lesquels le site ou la page

souhaitent se positionner. Les techniques de SEO black hat vont avoir en partie la même

finalité, mais avec la spécificité de le faire plus rapidement si elles sont maitrisées.

Une entreprise, ou de manière plus générale un site internet en milieu concurrentiel (site en

lancement ou site avec déjà de l'ancienneté), se doivent d'avoir un bon référencement sur le

secteur dans lequel ils évoluent, dans le sens où c'est un gage de sécurité sur le moyen/long

terme, de rentabilité, de visibilité et position intéressante par rapport à la concurrence. Cette

situation d'être dans les premières positions des pages de résultats de recherche est donc

tellement importante que les sites internet n'ont qu'un seul objectif : apparaître le plus rapidement

possible à ce niveau de positionnement sur Google. Nous l'avons détaillé précédemment, la mise

en place de telles stratégies nécessite à fort travail en amont, prend du temps avant d'être effectif,

prend du temps à être pris en compte par Google, et nécessite enfin un travail de suivi au jour le

jour.

Avec les techniques de référencement black hat, il va être possible de réaliser cette démarche

beaucoup plus rapidement, mais surtout de l'automatiser, au travers de techniques que nous

détaillerons dans les parties suivantes. Les entreprises et les sites internet évoluant dans un

secteur concurrentiel (d'un point de vue du référencement, secteur où il est difficile de se

référencer dans les premières positions sur Google) vont donc parfois opter pour ses stratégies

black hat peu éthiques dans le but d'améliorer leur positionnement Google d'avantage à court

terme. Un travail va donc être réaliser sur le site cible à référencer, au niveau de nombreux

éléments : contenus, publications, netlinking mais aussi optimisations, automatisations et

protections.

36

Page 37: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

1.2.2.2 Dépasser ses concurrents

Parallèlement, le référencement black hat va également influer sur le positionnement des

concurrents, de manière beaucoup plus directe qu'un référencement naturel dit "white hat". Tous

les sites internet n'utilisent pas les techniques black hat et c'est dans ce sens qu'un site va pouvoir

faire la différence par rapport à la concurrence. L'utilisation du SEO Black hat reste peu

développé dans une grande partie des secteurs, il sera donc possible de positionner un site plus

facilement dans les première position d'un moteur de recherche.

Là où les sites vont pouvoir faire une réelle différence dans le développement de ce type de

référencement est dans le degré d'utilisation du black hat. Il existe en effet des techniques de

bases, et des techniques avancées. Ces dernières seront proposées par le référenceur en fonction

des objectifs de positionnement du site internet : Cela peut être la rapidité du référencement

(court ou moyen terme) mais aussi la position choisie sur les moteurs de recherche (1ère place,

entre la 1ère place et la 5ème place, 1ère page, etc.). Les moyens (financiers) mis à disposition

du référenceur par le site internet ou l'entreprise est également un facteur important à prendre en

compte. En effet, à la différence du référencement naturel "white hat" qui peut être réalisé avec

des connaissances de bases et donc par une personne qui n'est pas un expert, le SEO black hat

demande quant à lui beaucoup plus de techniques, de compétences et de connaissances du web.

De plus, ce type de techniques issues de la partie "sombre" du référencement, est maitrisé par

une minorité en France comme à l'étranger. Les référenceurs black hat sont rares, donc plus cher.

Moins de 50 personnes en France sont experts dans ces stratégies black hat . C'est la raison

pour laquelle ils évoluent dans des secteurs très concurrentiels, où les enjeux financiers peuvent

être très importants et où les entreprises peuvent investir fortement dans ce type de

techniques : Secteur du X, du poker, de la fourniture pharmaceutique, du forex, des paris sportifs,

des produits haut de gammes...

Si une entreprise choisi d'utiliser le SEO black hat pour référencer son site internet à de

meilleures positions que ses concurrents (qui eux aussi l'utilisent potentiellement), il sera

nécessaire qu'il soit mieux développé, plus travaillé et plus poussé. Cependant, cela va dépendre

37

Page 38: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

de nombreux critères que nous allons développés, et l'entreprise devra définir avec le référenceur

jusqu'à quel point elle souhaite aller dans ce référencement non éthique.

1.2.3 Les techniques et stratégies SEO Black Hat

1.2.3.1 L'Automatisation

L'automatisation est l'une des principales caractéristiques du référencement black hat. La

majorité des professionnels du référencement pense qu'une fois cette étape d'automatisation

franchie, il ne s'agit plus de SEO comme il l'est préconisé dans le guide du référencement de

Google. Cette automatisation s'opère à de nombreux niveaux dans le processus de référencement

d'un site ou d'une page internet :

1. La création de contenus : Nous avons vu dans les parties précédentes que le contenu est

la base du SEO, puisque c'est lui qui va permettre à Google de positionner et référencer

un site dans une ou plusieurs catégories, en fonction des mots clés insérés dans les

contenus. Nous avons également détaillé le fait que plus il y a de contenus optimisés ou

plus il y a de mises à jours sur un site, plus une page va gagner des positions dans les

pages de recherche. Avec le black hat, et via des logiciels spécifiques, il va être possible

de créer des contenus générés facilement et automatiquement, composés des mots clés

sur lequel le référenceur souhaite se positionner. Cette technique est plus communément

appelé "content spinning". Pour cela, il suffit de créer un texte spécifique composé

d'autant de synonymes possibles pour chaque mot du texte, le logiciel en ressortira des

textes uniques et différents, mais tous constitué des mots clés spécifiés24. Il existe de

nombreux logiciels permettant de réaliser du content spinning, qu'ils soient gratuits ou

payants.

2. La création de "mini-sites" / blogs : De même, des logiciels existent pour créer

automatiquement des sites ou des blogs par centaine afin d'y déposer un contenu. De

nombreuses plateformes sur internet permettent de créer gratuitement des sites/blogs. Au

lieu de les créer un par un pour construire une stratégie de Netlinking (comme vue en

première sous partie de ce mémoire) ou link-building, ces logiciels vont les créer

24 Exemple de content spinning en Annexes. Page.

38

Page 39: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

automatiquement. Parmi les plateformes les plus connues se trouvent Wordpress, Joomla,

Blogger, Tumblr, Blogspot...

3. La mise en ligne de contenus : Certains logiciels très développé de SEO black hat vont

permettre de mettre en ligne automatiquement l'ensemble des contenus créer

préalablement. Ces logiciels vont créer une liste de centaines ou milliers de pages internet

sur lesquels il est possible de poster un contenu (généralement il s'agit de plateforme

gratuites de blog comme les plus connues : Wordpress, Blogger ou encore Tumblr). Le

logiciel va calculer la puissance de chaque page au niveau du référencement (Pagerank

Google) afin de savoir sur quelles pages il est le plus intéressant de déposer un contenu.

Le référenceur pourra ensuite sélectionner le nombre de sites/blogs sur lesquels déposer

les contenus créés en affinant les critères des pages (Pagerank, publicités ou non sur les

sites, sites avec ou sans contenu,...). Le logiciel publiera ensuite de façon automatique

tous les contenus en fonction des chois du référenceurs.

4. Intégration de liens dans les contenus : Toujours dans cette même démarche, le

référenceur va choisir d'insérer des liens à l'intérieur des contenus générés. Ces liens

auront naturellement des ancres différentes et variables selon les contenus. C'est l'unique

intérêt de cette technique. Les liens, pointant tous vers des sites internet qui auront

comme but de promouvoir le site à référencer (cf. schéma en partie 1.1.7), montreront à

Google que de nombreux sites internet et de nombreuses pages parlent du "site cible".

Ainsi, le référencement de ce dernier augmentera de façon significative.

5. La création de commentaires : Appelée également "spamdexing25", cette technique vise

à créer des commentaires en très grande quantité sur tous les sites permettant le dépôt de

commentaires. Il s'agit généralement de blogs. Le référenceur va choisir une liste

prédéfinie de blogs/sites en rapport avec la thématique du site internet à référencer afin

d'y déposer des commentaires uniques (Google sanctionne le copié collé) et variable. A

l'intérieur de ces commentaires seront insérés des liens qui pointeront indirectement (ou

directement) vers le site à référencer. Cela augmentera considérablement le nombre de

backlinks vers le site cible. Des logiciels de SEO black hat permettent donc réaliser ce

type de démarche automatiquement, avec une autre spécificité de taille : Ces logiciels 25 Définition Spamdexing par dicodunet.com : Tentative de spam spécifiquement orientée vers les moteurs de recherche. Exemple : tenter de positionner dans les premières positions des résultats d'un moteur des pages non pertinentes par rapport au mot clé choisi.

39

Page 40: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

vont sélectionner pour le référenceur les plateformes où les commentaires sont

uniquement en "Do-follow26".

De manière générale, les logiciels de SEO black hat permettent de réaliser l'ensemble de ces

étapes. D'autres ne vont prendre en compte que le content spinning par exemple. Parmi les

logiciels d'automatisation black hat, voici les plus connus : Link Farm Evolution, plus

communément appelé "LFE", qui va permettre notamment la création de blog qui n'ont qu'une

utilité : le spamdesing. Le logiciel va permettre de passer outre les mesures de sécurité mises en

place par les plateformes de blog, bloquant généralement les créations automatisées. Les autres

outils27 connus de référencement black hat sont :

Scrapebox : Logiciel de "scraping28" en vue d'une stratégie de link-building.

SEnuke : Logiciel black hat netlinking et link-building.

X-Rumer : Logiciel black hat netlinking et link-building.

1.2.3.2 La Manipulation

L'une des principales caractéristiques du référencement black hat est la manipulation, qu'ils

s'agissent de la manipulation des internautes, des webmasters ou bien des moteurs de recherche.

Cependant, ces techniques nécessitent d'avantages de connaissances web que pour les techniques

présentées dans la partie précédente. Les techniques sont de plusieurs natures et vont avoir une

influence à divers niveau du processus de référencement d'un site ou d'une page internet :

Utilisation des positions CSS sur les pages web : Dans la construction d'un site internet,

le CSS est le code qui permet la disposition des éléments du site sur la page, comme la

verra l'internaute. Les propriétés vont permettre de placer les éléments de gauche à droite

et de haut en bas via des données coordonnées positives par rapport à la gauche et au haut

du site. Le CSS permet cependant de placer des éléments via des coordonnées négatives,

26 Do-Follow : Terme technique de référencement qui signifie qu'un lien insérer dans un commentaire sera suivi, pris en compte et référencé par les moteurs de recherche. Un lien non pris en compte par les moteur de recherche sera un lien No-Follow.27 Présentation SEO Blackout - http://www.seoblackout.com/2010/06/21/smx-paris-2010/28 Scraping (définitions-webmarketing.com) : "L’URL scraping est une technique de collecte automatisée d’URL sur un site ou un ensemble de sites qui est souvent utilisée à des fins de black hat SEO".

40

Page 41: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

c'est à dire des éléments qui seront en dehors de la page vue par l'internaute. Néanmoins,

les robots des moteurs de recherche verront ces éléments et les référencerons. La

technique consiste donc à placer des éléments (contenus la plupart du temps) avec un

ensemble de mots clés importants pour le référencement du site, en dehors du champ de

vision de l'internaute.

Referer Spamming : Dans le cadre du référencement, le referer est le site internet qui va

amener un internaute vers un autre site. Une technique de SEO black hat consiste à

modifier ce referer automatiquement via les options du navigateur internet afin de créer

un spam de visites. Le site visé par ce referer spamming verra dans ses statistiques de

nombreuses visites en provenance d'un site referer (dont l'adresse sera automatiquement

transformée pour promouvoir le site que nous souhaitons référencer). Des backlinks

seront automatiquement créés sur les sites de statistiques, et cela pour conséquences de

faire monter le positionnement du site à référencer.

Le cloaking : Il s'agit également d'une technique dont la mise en place va avoir lieu dans

le codage du site (partie non visible par l'internaute). Cette démarche nécessite de très

bonne connaissance en codage et en maitrise de l'outil interne puisqu'elle va avoir une

influence entre l'adresse IP de l'internaute et le contenu affiché sur le site internet. Il va

ainsi être possible de créer une seule page internet avec des versions différentes. L'une

des versions sera par exemple réservée aux robots des moteurs de recherche, avec à

l'intérieur de nombreux éléments pour mettre en avant les mots clés en vue d'un meilleur

référencement. L'autre version sera réservée aux internautes, qui ne verront pas ce type

d'éléments.

L'achat de lien : Certains acteurs du référencement black hat vont parfois être amené à

acheter des liens (en vue de créer des backlink pour améliorer le positionnement du site à

référencer) sur des sites de qualités et des sites puissants du point de vue du

référencement. Cette démarche est naturellement manuelle, il est impossible de

l'automatiser puisqu'il s'agit d'un rapport entre deux êtres humains. Elle permet d'apporter

un aspect qualitatif à la stratégie de SEO. Cependant, il s'agit d'une technique de

manipulation qui vise à tromper Google. Le lien acheté sur un site internet ne sera pas

"naturel).

41

Page 42: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

Ces différentes techniques de manipulation issues du référencement black hat ne sont pas les

seules. De nombreuses autres stratégies, souvent beaucoup plus techniques, existent et

nécessitent une réelle expertise.

1.2.3.3 La sécurité

Les techniques vues précédemment, et de manière générale l'ensemble des techniques de

référencement SEO, sont des stratégies peu éthiques et qui parfois vont concurrencer

illégalement les autres sites internet. C'est la raison pour laquelle les référenceurs SEO doivent

faire en sorte que leurs travaux soient discrets, sécurisés et protégés, d'une part par rapport à

Google, d'autres parts par rapports aux sites concurrents. Différents moyens le permettent, parmi

les principaux, nous avons :

IP et proxy29 changeants : Adresses d'un ordinateurs ou d'un serveurs web qui ne vont

jamais être identique pour un même utilisateur. Cela permet de ne jamais retracer

l'origine d'une action sur internet, et de faire passer une action comme provenant de

plusieurs utilisateurs au lieu d'un seul, aux yeux de Google. Technique nécessaire pour

toutes stratégies de spam par exemple.

Balise <head> et propriété "noarchive30" et robots.txt : La propriété "noarchive" est à

insérer dans le code d'un site internet pour empêcher les robots des moteurs de recherche

d'enregistrer la page. Cela va en grande partie permettre de cacher les mauvaises

pratiques black hat mises en place sur un site internet. Utiliser le fichier robots.txt d'un

site internet va permettre quant à lui d'interdire aux robots Google l'indexation de

certaines pages web, où se trouvent des codes/scripts en vue d'une utilisation black hat

par exemple.

Aucuns liens avec Google : Les référenceurs black hat font attention à ne jamais créés

des liens trop proches avec Google depuis le sites qu'ils essayent de référencer, afin de ne

fournir aucune information au moteur de recherche sur des pratiques douteuses : Eviter

29 Proxy (par futura-sciences.com) : "Unique machine d'un réseau local connectée à l'internet et effectuant les requêtes internet pour les autres ordinateurs du réseau, comme demander une page web".30 Seoland.fr - la propriété "noarchive" - http://www.seoland.fr/moteurs-de-recherche-referencement-et-droits-d%E2%80%99auteurs/

42

Page 43: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

l'insertion de codes Google Analytics (pour suivre les statistiques du site), Google

Adsence (régie publicitaire de Google), Google sites maps, etc.

Aucuns liens entre plusieurs "sites cibles" : Les référenceurs travaillent pour la plupart

sur le positionnement de plusieurs sites internet, qu'ils soient de la même thématiques où

non. Ces professionnels conseillent vivement de ne jamais créer de liens entre les sites à

référencer, afin que Google ne décèle jamais le mise en place d'une stratégie black hat

similaire entre ces sites. Les "sites cibles" doivent donc avoir chacun une stratégie

indépendante.

1.2.3.4 Les dérives et abus

Les différentes techniques présentées précédemment ont une influence positive sur le

positionnement et le référencement des sites internet, si elles restent raisonnables. En effet, cette

influence va dépendre en grande partie du degré d'utilisation de ces techniques, de l'ancienneté

mais aussi des antécédents du site internet. D'après un retour des professionnels français du

référencement black hat31 :

Un site internet déjà implanté et ancré sur internet depuis plusieurs années pourra

d'avantage utiliser les techniques black hat qu'un site âgé de quelques mois.

Un site internet sans antécédents (sanctions de la par de Google : désindexation, baisse

plus ou moins importante de positions...) pourra plus facilement s'intéresser au

développement d'une stratégie black hat

Un site internet qui comptabilise de milliers de visites par jour pourra plus facilement

faire du référencement black hat qu'un site avec pu de visites.

Le référencement black hat doivent être pris avec beaucoup de recul et se lancer dans ce type de

stratégie doit faire l'objet d'une sérieuse étude et réflexion. Cependant, il existe des abus dans le

SEO black hat dont notamment l'attaque directe, pure et simple d'un concurrent. L'un des

meilleurs exemples serait celui de l'aspiration de site. Google puni très sévèrement le copier

coller de contenu entre les sites. Cette technique vise donc à copier coller entièrement un site

internet (contenu, design...) dans le but de lui faire perdre de nombreuses positions dans les

31 Conférence Seosphère - Paris - Décembre 2010

43

Page 44: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

moteurs de recherche. Avant que le site visé s'en rende compte, il se sera écoulé plusieurs jours

voir plusieurs semaines, et aura ainsi perdu de nombreuses visites. Ce type d'abus, tout comme

de nombreux autres, sont très vite sanctionnés.

1.2.4 SEO Black Hat, législation et sanctions

1.2.4.1 Illégalité du SEO Black Hat par rapport aux CGU

Nous l'avons présenté dans les parties précédentes, le SEO black hat est un ensemble de

techniques peu éthiques et surtout contraires au règlement de Google. Développer un

référencement sur le black hat comporte donc des risques que nous allons développés ci-dessous.

Tout d'abord, du point de vue de Google, les sanctions peuvent être multiples et avoir des

conséquences très importantes pour les sites internet qui travaillent sur un référencement black

hat. Les sanctions peuvent être en premier lieu de nature manuelles. Google, dans sa stratégie de

limiter de plus en plus les pratiques black hat, a mis en place une plateforme appelée "outils pour

les webmasters" avec une partie "spam report". Depuis cette plateforme, il est possible pour tout

internaute de dénoncé à Google une pratique black hat qu'il a pu voir ou subir. Suite à cela,

Google mène une enquête et prend une décision. Si Google juge que le site dénoncé utilise des

techniques de black hat (duplicate content32, spamdexing,...), le site se verra sanctionné de

plusieurs manières possibles :

Forte perte de positions d'une ou plusieurs pages du site sur les pages de résultats de

recherche Google. Cette sanction est temporaire.

Forte perte de positions de l'ensemble du site sur les pages de résultats de Google

Désindexation des pages du site présentant des techniques black hat

Désindexation totale du site internet

Ce type de sanctions peuvent également être automatiques puisque, comme nous l'avons vu

dans les parties précédentes, Google met constamment à jour sont algorithme pour déceler ces

32 Duplicate content : terme utilisé en référencement correspond à un simple copié collé de contenu

44

Page 45: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

pratiques contraire à son règlement. C'est ainsi que de nombreux sites ayant basé une grande

partie de leur stratégie de référencement sur ces techniques black hat ont vu leurs pages baisser

en position sur Google, voir même disparaître.

De telles sanctions peuvent être catastrophiques pour un site internet, ou pour une entreprise. La

désindexation de pages peut être la cause d'une perte financière considérable. Lors des dernières

mises à jours de l'algorithme Google, certaines entreprises ont même du fermer. C'est la raison

pour laquelle il est nécessaire d'être très prudent avec ce type de pratiques, même si elles peuvent

être source de forts gains à court terme. Elles restent tout de même risquées.

Le SEO black hat est donc une stratégie gagnante, mais dangereuse.

45

Page 46: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

1.3 PROBLÉMATIQUE ET HYPOTHÈSES

Suite à cette partie théorique et exploratoire, nous avons réalisé un état des lieux et

analyser ce que sont les différents types de référencement, leurs caractéristiques, leurs forces,

leurs faiblesses et les intérêts respectifs pour les sites internet et les entreprises par rapport aux

moteurs de recherche, en particulier Google. Le SEO white hat va permettre d'apporter un

référencement de qualité sur du moyen et long terme dans un milieu concurrentiel, et un

positionnement qui s'avère être indispensable pour qu'un site interne devienne rentable et

pérenne. De son côté, le SEO black hat, développé en deuxième sous partie, va être un ensemble

de techniques contraire aux directives de Google mais qui vont permettre à un site internet de se

référencer rapidement, sur le court terme, dans un secteur à forte concurrence. Ces stratégies

black hat demandent beaucoup plus de maitrises des techniques et outils du web, et un

investissement financier important, mais peuvent être

sources de forts revenus, plus rapidement que via un

référencement naturel white hat. Cependant, et comme

nous l'avons vu en fin de première partie de ce mémoire,

le référencement black hat comportes des dangers et des

risques pour les sites internet et entreprises qui utilisent

ces techniques.

Il convient alors de se demander comment optimiser le SEO dans un milieu concurrentiel, alors

que le SEO Black Hat apparaît comme plus productif pour les entreprises, mais risqué ?

Plusieurs hypothèses répondant potentiellement à cette problématique peuvent alors être

dégagées, hypothèses qui seront à la base de l'étude terrain de ce mémoire de recherche :

La première hypothèse serait de travailler sur l'élaboration de techniques dites "grey

hat33", c'est à dire des stratégies reprenant certaines techniques positives issues du

33 Illustration "grey hat" par http://blog.axe-net.fr

46

Page 47: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

référencement black hat, mais en proscrivant toute la partie néfaste et risquée de cette

dernière.

La seconde serait de développer des stratégies SEO, avec une préparation en amont, un

suivi et une analyse, plus importantes sur du moyen terme, en y apportant un gage de

résultats pour les entreprises, en vue d'éviter les risques liés au SEO black hat.

Au travers d'une étude terrain basée sur des entretiens semi-directifs auprès de professionnels et

experts du référencement, l'objectif va être de confirmer ou d'infirmer les hypothèses présentées

précédemment. Dans cette seconde partie qui constituera la partie terrain, nous nous

intéresserons tout d'abord à la mise en place du questionnaire en vue des interviews, en détaillant

le choix du type d'entretien, les objectifs, les thèmes que nous allons abordés et enfin les

difficultés rencontrées lors de ces entretiens. Les résultats liés aux entretiens feront l'objet d'une

analyse précise pour en dégager des préconisations, en vue de répondre de la manière la plus

claire possible à la problématique de ce mémoire de recherche appliquée.

47

Page 48: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

II. PARTIE TERRAIN

2.1 PRÉSENTATION DE L'ÉTUDE

2.1.1 Choix de la méthode d'étude

Suite à la problématique et aux hypothèses développées à la fin de la partie théorique de

ce mémoire de recherche appliquée, nous avons décidé de travailler sur une méthode qualitative

de recueil des données plutôt qu'une méthode quantitative. En effet, le nombre de professionnels

du référencement est restreint en France, et il l'est encore bien inférieur pour les référenceurs

black hat. En France, on dénombre un peu moins de 50 référenceurs black hat experts dans ce

secteur. C'est la raison pour laquelle une méthode quantitative de recueil des données ne pourrait

fonctionner ici. De plus, l'objectif de la problématique étant d'apporter une réponse précise et

technique, l'aspect qualitatif des réponses serait beaucoup plus intéressant. L'entretien semble

donc correspondre à cette problématique d'avantage que le questionnaire.

Dans le sens où il s'agit d'une problématique et d'hypothèses techniques, il va être nécessaire

d'obtenir des réponses précises et claires sur les différents thèmes abordés : Le référencement

white hat, le référencement grey hat, le référencement black what, l'algorithme Google,... C'est

pourquoi nous allons choisir de réaliser des entretiens de type semi-directifs. Une première

question générale sera posée aux professionnels de référencement, puis, en fonction du

développement de leurs réponses, nous aborderons les autres thèmes choisis, soit de manière

naturelle, soit via un ensemble d'autres questions. Sur un sujet comme le référencement, et plus

particulièrement le référencement black hat, il s'agit d'un domaine qui peut parfois gêner, dans le

sens où il s'agit de techniques sombres et illégales. Mais il est également possible que les

professionnels ne souhaitent pas répondre de manière précise aux questions, puisque ce métier

est réservé à peu de personnes, où l'expertise se monnaye à une forte valeur. L'entretien semi-

directif aura donc pour effet de laisser parler au maximum les interrogés, avec la possibilité de

les relancer sur d'autres thématiques par la suite.

48

Page 49: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

2.1.2 Objectifs de l'entretien

Au travers de l'entretien semi-directif que nous allons réaliser, l'objectif va être d'échanger

sur les différentes facettes du référencement naturel sur internet. La problématique, définie au

terme de la partie théorique de ce mémoire, nécessite une approche tournée particulièrement sur

de la stratégie et de la technique. Le but d'un tel entretien est donc d'obtenir le plus de réponses

précises et claires possibles sur les notions de SEO black hat, grey hat et white hat, mais aussi sur

les avis des professionnels par rapport à ces différentes méthodes, sur ce qu'implique aujourd'hui

une stratégie de référencement ou encore sur l'adaptation de ces experts aux évolutions de

l'algorithmes Google.

De manière plus générale, l'entretien aura pour objectif de confirmer ou d'infirmer les deux

hypothèses développées précédemment. C'est la raison pour laquelle le choix des personnes à

interrogées est important et c'est pourquoi nous avons choisi de ne travailler ici qu'avec des

experts français du référencement, certains évoluant uniquement sur du SEO white hat et d'autres

uniquement dans le domaine du SEO Black hat. Une troisième catégorie de professionnels

développe quant à elle des stratégies de référencement naturel via les deux écoles précédentes.

Avoir l'avis de personnes qui connaissent les deux modes de fonctionnement a un réel intérêt

dans le sens où elles vont avoir le recul nécessaire pour définir les avantages et les limites de ces

deux méthodes.

2.1.3 Thèmes et questions de l'entretien

Avec l'entretien que nous allons réalisé pour répondre à la problématique évoquée

précédemment, nous avons la volonté de recueillir les témoignages et avis de deux types de

professionnels du référencement naturel et gratuit : Les experts en référencement naturel white

hat et les experts en référencement black hat. Nous rappelons qu'il est important et intéressant

d'interviewer ces différents types d'acteurs français du référencement afin d'avoir une vision

transversale mais précise de domaine. Cela nous permettra d'obtenir un grand nombre de

49

Page 50: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

connaissances en vue de répondre de la meilleure manière possible à cette problématique et aux

hypothèses dégagées via des préconisations. Comme les personnes interviewées font parties de

deux catégories distinctes de référenceurs, il convient alors de réaliser deux types de questions

sur des thématiques quelques peu différentes, mais qui se rejoignent.

Concernant les entretiens à réaliser avec les experts du SEO white hat, le grille d'entretien34 ci-

dessous présente l'ensemble des thème que nous souhaitons aborder et sur lesquelles nous

souhaitons obtenir des réponses.

Partie du guide / les thèmesInterventions et relances prévues / Les questions pour

amener l’individu à parler sur ce thème

Thème 1 : Avis sur le SEO Black Hat

- Comment êtes-vous arrivé dans le secteur du SEO ?

- De manière générale, que pensez-vous du SEO Black

Hat ?

Thème 2 : La limite entre SEO Black Hat

et SEO White Hat

- Selon vous, où se situe la limite entre le SEO white Hat

et le SEO Black Hat ?

- Pourquoi ?

Thèmes 3 : Le SEO Grey Hat

- Qu'est ce que le SEO Grey Hat pour vous ?

- Est-ce un bon compromis entre le White Hat et le Black

Hat ?

Thèmes 4 : Changements d'algorithmes et

méthodes de travail

- En tant que SEO White hat, est-ce que les changements

d'algorithmes ont eu un impact sur votre référencement ?

- Est-ce que les changements d'algorithmes ont fait

changer votre façon de travailler ?

Thèmes 5 : Développement SEO White

Hat par rapport au Black Hat

- Pensez-vous que le SEO White hat pourrait être

amélioré pour éviter de passer par le black Hat ?

- Comment ?

- Quel est votre argumentaire pour favoriser le SEO

White Hat envers des clients qui hésiterait avec le SEO

Black Hat ?

Thème 6 : Promesses de résultats et SEO- Pensez-vous qu'il soit possible aujourd'hui de faire des

promesses de résultats sur les stratégies SEO ?

34 Grille d'entretien avec questionnaire associé présenté en annexe P.

50

Page 51: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

Concernant les entretiens à réaliser avec les experts du SEO Black Hat ou bien les experts qui

travaillent sur les deux types de référencement, nous avons élaboré une autre grille d'entretien.

Les thèmes se rejoignent mais certaines des questions divergent. L'analyse que nous réaliserons à

la suite des entretiens nous permettra de faire se confronter les deux approches afin d'en dégager

une réponse précise à la problématique et aux hypothèses. Ci-dessous la seconde grille

d'entretien :

Partie du guide / les thèmesInterventions et relances prévues / Les questions pour

amener l’individu à parler sur ce thème

Thème 1 : Avis sur le SEO Black Hat

- Comment êtes-vous arrivé dans le secteur du SEO, et

plus particulièrement dans le SEO Black Hat ?

- Quelles sont vos motivations dans le SEO Black Hat ?

- Quelles sont pour vous les avantages du SEO Black

Hat ?

Thème 2 : La limite entre SEO Black Hat

et SEO White Hat

- Selon vous, où se situe la limite entre le SEO white Hat

et le SEO Black Hat ?

- Pourquoi ?

Thèmes 3 : Le SEO Grey Hat

- Qu'est ce que le SEO Grey Hat pour vous ?

- Est-ce un bon compromis entre le White Hat et le Black

Hat (Pour les personnes qui hésiteraient à aller vers du

Black Hat) ?

Thèmes 4 : Changements d'algorithmes et

méthodes de travail

- En tant que SEO Black hat, est-ce que les changements

d'algorithmes ont eu un impact sur votre référencement ?

- Est-ce que les changements d'algorithmes ont fait

changer votre façon de travailler ?

Thèmes 5 : Développement SEO White

Hat par rapport au Black Hat

- Pensez-vous que le SEO White hat pourrait être

amélioré pour éviter de passer par le black Hat ?

- Comment ?

Thème 6 : Promesses de résultats et SEO- Pensez-vous qu'il soit possible aujourd'hui de faire des

promesses de résultats sur les stratégies SEO ?

51

Page 52: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

2.1.4 Choix des acteurs

Dans le domaine d'activité du web, et ici spécifiquement dans le secteur du

référencement, les professionnels et experts échangent fortement entre eux et avec les internautes

via les réseaux sociaux, leurs blogs respectifs. Ils n'hésitent pas à partager leurs derniers essais en

matière de référencement, qu'il s'agisse du SEO black hat ou SEO white hat, mais aussi leurs

ressentis par rapport à l'évolution des algorithmes Google par exemple. Parfois, certains vont

même jusqu'à partager leurs stratégies de référencement afin d'y expliquer ce qui a fonctionné et

ce qui n'a pas fonctionné, en détaillant les avantages et les limites. Dans le domaine du Black hat,

secteur réservé à une poignée de français, il est beaucoup plus difficile de voir un expert black

hat partager facilement ses stratégies, qui généralement sont sur des sites dont l'accus est

fortement limité. Cependant, les référenceurs et experts français, White ou black hat, sont

connus, notamment grâce à Twitter où ils échangent quotidiennement.

C'est grâce à ce moyen qu'une sélection des meilleurs référenceurs de France à pu être établie

en vue de les interroger pour ce mémoire de recherche appliquée. Contactés tout d'abord par

email, une grande majorité a répondu favorablement à cette demande d'entretien. Ces derniers se

sont alors déroulés par téléphones, par skype ou bien en face à face.

2.1.5 Difficultés rencontrées

52

Page 53: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

Ouvrages :

Andrieu Olivier (2012). Réussir son référencement web - édition 2012. Eyrolles.

Références électroniques :

http://www.01net.com/editorial/186972/petite-histoire-des-moteurs-de-recherche/ : Petite

histoire des moteurs de recherche, par Jean-Christophe Féraud (directeur du service

High-Tech et Médias des "Echos").

http://referenceurdulundi.blogue.fr/2008/09/15/historique-des-moteurs-de-recherche/

http://www.journaldunet.com/solutions/0604/060407-referencement-fonctionnement-

moteur.shtml

http://venturebeat.com/2010/10/27/google-exec-android-was-best-deal-ever/

http://www.numerama.com/magazine/3399-pourquoi-google-rachete-youtube-165-

milliard-de.html

http://www.seomoz.org/google-algorithm-change

http://www.entoiledefond.com/blog/referencement/le-nettoyage-de-printemps-selon-

google.html

http://www.webrankinfo.com/dossiers/techniques/google-panda

http://www.definitions-webmarketing.com/Definition-Ferme-de-contenus

http://online.wsj.com/article/SB10001424052748703745704576136742065119876.html

http://www.hitwise.com/us/press-center/press-releases/bing-searches-increase-twenty-

one-percent/

http://www.lemonde.fr/technologies/article/2011/02/11/bing-grignote-les-parts-de-

marche-de-google-aux-etats-unis_1478441_651865.html

http://www.1ere-position.fr/blog/eye-tracking-recherche-universelle-et-sens-de-lecture-

sur-une-page-de-resultats-google

http://www.webrankinfo.com/dossiers/yandex/chiffres-cles-russie

http://www.presse-citron.net/seo-les-dernieres-techniques-americaines-pour-faire-

exploser-votre-trafic

53

Page 54: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

http://www.definitions-webmarketing.com/Definition-Black-hat

http://www.nikopik.com/2012/04/le-black-hat-seo-resume-en-une-infographie.html

http://www.deliciouscadaver.com/comment-definir-le-black-hat.html

http://www.visibilite-referencement.fr/blog/black-hat-seo-512banque

http://www.definitions-webmarketing.com/Definition-URL-scraping

http://www.futura-sciences.com/fr/definition/t/internet-2/d/proxy_488/

http://www.seoland.fr/moteurs-de-recherche-referencement-et-droits-d

%E2%80%99auteurs/

http://www.seoblackout.com/2010/06/21/smx-paris-2010/

54

Page 55: Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer,

Antoine Pourron SEO White Hat et SEO Black Hat

55