Author
others
View
0
Download
0
Embed Size (px)
Antoine Pourron
MCS – ISEG Lyon
5ème année
Mémoire de Recherche Appliquée
Année Universitaire 2011-2012
Sommaire
Avant-propos
Internet occupe dans le monde d'aujourd'hui une place que l'on pourrait presque qualifiée de vitale. L'organisation des échanges mondiaux, du commerce mondial, des flux de capitaux ou bien également de la communication entre les milliards de personnes de la planète se fait majoritairement par cet outil. Internet a dépassé depuis plusieurs années le statut de simple média. Son évolution gigantesque au fil des années est la preuve de sa force, et n'est comparable à aucune autre technologie. Encore aujourd'hui, nous vivons au jour le jour son développement, avec l'apparition sans cesse de nouveaux produits et services et de nouvelles technologies rendant les possibilités d'évolution toujours plus exponentielles. Le transfert d'internet sur les appareils mobiles (smartphones et tablettes) en est un exemple très clair.
Parallèlement, le développement de l'outil internet a été la base de la création de millions d'emplois à travers le monde. Certains métiers ont été créés spécifiquement, d'autres ont été une évolution de métiers déjà existants. Avec ce nouvel outil mis à disposition de tous, il a fallu en effet revoir un grand nombre de stratégies d'entreprises, travailler sur de nouvelles techniques, mais aussi changer considérablement sa façon de penser, de communiquer et d'entretenir des relations avec ses connaissances.
Même si son évolution est très ressente, internet existe depuis assez d'année pour avoir un recul nécessaire quant à sa compréhension globale et à son fonctionnement. A l'heure actuelle, et de manière globale, il est possible de distinguer trois types d'acteurs qui évoluent sur internet :
· Les simples visiteurs, à la recherche de distractions, de rencontres, d'informations ou bien d'un produit ou service...
· Les Webmasters : Toutes les personnes/entreprises qui possèdent ou qui travaillent sur un site internet
· Les moteurs de recherche : Outils internet qui vont permettre la rencontre entre les internautes et les sites qu'ils recherchent.
Un site internet ne peut exister sans être visible sur les moteurs de recherche. C'est la raison pour laquelle les webmasters ont mis en place un certains nombres de techniques, que l'on pourrait qualifier de techniques webmarketing, pour faire apparaître de la meilleure façon possible leurs sites internet dans les moteurs de recherche. On parle alors plus communément de techniques de référencement.
Le référencement sur internet est divisé en deux catégories bien distinctes. La première est appelée référencement naturel, référencement gratuit ou en anglais, SEO (search engine optimization). La seconde catégorie est le référencement payant, beaucoup moins abordables pour les webmasters puisque cette technique consiste à payer les moteurs de recherche pour apparaître sur ceux ci. Il s'agit du SEM (search engine marketing).
Au travers de se mémoire de recherche appliquée, je souhaite m'intéresser spécifiquement au référencement naturel, et à toutes les techniques qui s'y rapporte, puisqu'il s'agit de la base de la visibilité d'un site internet. Ce sont majoritairement ces stratégies de SEO qui vont permettre de créer un lien entre les internautes "visiteurs" et les sites internet. D'une autre manière, il s'agira d'étudier l'activité quotidienne des webmasters et référenceurs qui travaillent constamment au développement de leurs sites internet, à la visibilité de ces derniers et aux différentes manières de les rendre rentables et pérennes.
Dans le référencement naturel (SEO) et dans les techniques mises en place, deux écoles bien spécifiques et différentes existent : Le référencement légal (appelé SEO White Hat) et le référencement illégal (SEO Black Hat). Les webmasters et les entreprises vont, en fonction de leurs objectifs et de la considération qu'ils ont du référencement, devoir choisir un axe stratégique dans une seule de ces deux écoles. Même si l'objectif à moyen et long termes est le même, c'est à dire obtenir le meilleur positionnement de son site internet sur les moteurs de recherche, les techniques utilisées divergent fortement. L'intérêt d'un tel mémoire est également de mieux comprendre le référencement Black Hat, domaine encore sombre en France et maitrisé par peu de personnes, deux caractéristiques dues en grande partie à son caractère illégal.
Le but de ce mémoire de recherche appliquée va être de comprendre et savoir pourquoi certains acteurs d'internet vont être amenés à utiliser le référencement légal, et pourquoi certains vont utiliser le penchant illégal de ces stratégies. Pour rendre les propos développés tout au long de ce mémoire les plus représentatifs possibles, nous nous positionnerons alors dans une problématique de secteurs concurrentiels, domaine où les deux techniques de référencement naturel sont omniprésentes et très importantes pour les différents acteurs. Par ailleurs, nous nous intéresserons d'avantage au moteur de recherche Google qu'à ses concurrents, celui-ci ayant une place quasi-monopolistique en France.
Dans la première partie, partie exploratoire de ce mémoire de recherche appliquée, nous allons nous intéresser à l'évolution de référencement naturel depuis l'arrivée d'internet et des moteur de recherche, pour ensuite développer plus particulièrement les différentes caractéristiques et techniques du référencement légal et du référencement illégal. L'objectif de cette partie sera aussi de comprendre le fonctionnement de Google et comment le moteur de recherche est-il arrivé à occupé cette place de leader incontesté dans le domaine du référencement et du web en général.
Une problématique et des hypothèses associées pourront ainsi être dégagées, afin de construire un modèle d'analyse qui viendra infirmer ou confirmer les différentes hypothèses établies, ce qui constituera la partie terrain de ce mémoire. Les étapes d'observation, d'analyse des information et de recommandations viendront compléter cette seconde partie.
I. Partie exploratoire1.1 Le référencement naturel - Search Engine Optimization (SEO)
Dans cette première sous partie, nous allons nous intéresser au référencement naturel, de sa création à la place qu'il occupe aujourd'hui dans le monde de l'internet, en passant par son évolution et celle des moteurs de recherche. En effet, le search engine optimization n'existerait pas sans les moteurs de recherche, et c'est la raison pour laquelle il est important de s'intéresser à ces outils qui aujourd'hui sont indispensables aux internautes, qu'ils soient visiteurs, webmasters, professionnels ou entreprises. De véritables empires technologiques se sont construits autour des moteurs de recherche, preuve de leur importance. Le SEO a suivi ce développement et a connu de nombreuses transformations depuis son apparition, qu'ils s'agissent des techniques qui s'y rapportent, de son intérêt mais aussi de son fonctionnement. C'est ce que nous allons détaillé dans cette première partie.
1.1.1 Historique des moteurs de recherche et arrivée du SEO
Avant tout, il est important de distinguer les moteurs de recherche utilisés pour les intranets et pour internet. Les intranets étaient utilisés par les services militaires, les bibliothécaires ou bien les universitaires dans les années 80 avant que cette technologie soit répandue au domaine privé et au grand public, devant ainsi l'internet. A cette époque, des moteurs de recherche étaient mis en place pour le traitement de l'information de ces systèmes intranet. Très vite, dès le début des années 90, nous allons parler de moteur de recherche pour internet. Le premier réel moteur de recherche, nommé "Archie" est arrivé en 1990. Mais il ne s'agissait pas encore d'un moteur de recherche sous forme de site web, comme nous les connaissons aujourd'hui. C'était un logiciel mis en place pour rechercher des documents sur internet.
Sur internet, le premier moteur de recherche date de 1993 et se nommait "Wanderer". Son principe rejoint celui de tous les moteurs de recherche actuels : Sillonner le web grâce à de nombreux robots appelés "bots" ou "spiders" dans le but de répertorier et référencer tous les sites internet existants. Un an plus tard, en 1994, le moteur de recherche "Yahoo" est apparu avec un principe novateur qui consistait à créer humainement un annuaire des sites internet les plus pertinents et qualitatifs. Contrairement au moteur de recherche "Wanderer", il ne s'agissait donc pas de robots. Cet approche a permis à Yahoo de devenir très rapidement le portail web le plus utilisé.
Dans la deuxième moitié des années 90, le processus de développement des moteurs de recherche va s'accélérer, parallèlement à l'arrivée d'internet dans les ménages. "Lycos" va voir le jour en 1995, "Altavista" en 1996. Ces nouveaux arrivants se basent sur de nouveaux procédés qui vont leur permettre de se perfectionner et d'offrir des résultats toujours plus rapide, plus exhaustifs et plus pertinents. Cependant, ces moteurs n'étaient pas encore optimisés pour les utilisateurs de France. C'est ainsi qu'est né "Nomade.fr", premier annuaire internet en version française. Peut de temps après, en 1998, France télécom lança son moteur de recherche "Voila.fr". La même année, deux étudiants de l'université de Stanford, vont mettre au point le moteur de recherche qui va révolutionner internet : "Google". Avec une approche différente, Sergei Brin et Larry Page vont créer un algorithme qui aura pour but de classer les sites internet dans le moteur de recherche en fonction de leur popularité auprès des internautes. La rapidité, l'exhaustivité et la pertinence des résultats du moteur de recherche vont lui permettre de se faire une place très rapidement sur internet. En l'an 2000, Yahoo va d'ailleurs choisir Google comme moteur de recherche pour son portail. En 2002, le géant américain de service internet "AOL" en fera de même.
Au début des années 2000, il s'agira d'un tournant pour les moteurs de recherche. Certains ayant optés pour la stratégie de "portail" au lieu de développer une technologie d'algorithme comme Google disparaîtrons petit à petit. Cette à cette période que Google s'imposera comme le moteur de recherche incontournable et l'outil le plus utilisé par les internautes, dont les internautes français. C'est en 2002 que Google sera critiqué, pour la mise en place de ces "liens sponsorisé" dans les résultats de recherche, mais cela n'empêchera en aucun cas sont évolution et son développement
C'est avec l'arrivée des moteurs de recherche se basant sur une stratégie d'algorithmes que le référencement naturel est apparu. Le but était alors de comprendre comment fonctionnaient ces algorithmes afin de mettre en place des stratégies qui permettront d'apparaître à de meilleures positions dans les résultats de recherche.
1.1.2 Le fonctionnement des moteurs de recherche
Le fonctionnement des moteurs de recherche est, en règle générale, commun au différentes marques proposant ce service : Yahoo, Google ou encore Bing (moteur de recherche du géant américain Microsoft). Tout d'abord, il convient de définir ce qu'est un moteur de recherche. D'après Olivier Andrieu, consultant en référencement et auteur des différentes éditions Réussir son référencement web, le moteur de recherche peut être défini comme "un programme qui indexe de façon automatisée le contenu de différentes ressources internet permettant à l'internaute de rechercher de l'information via des mots clés[footnoteRef:2]". [2: Définition Moteur de recherche par Oliver Andrieu - http://www.journaldunet.com/solutions/0604/060407-referencement-fonctionnement-moteur.shtml]
Par le verbe "indexer" des ressources internet, il faut comprendre répertorier ou référencer des pages internet. Le processus de référencement des pages sur internet par les moteurs de recherche se font en trois étapes bien distinctes :
· Le crawling : Processus automatique qui vise à inspecter tous les sites web de manière plus ou moins régulière via des robots appelés bots ou spiders, en vue de les répertoriés et de les référencer. Ces robots ont tous un nom attribués pour chaque moteur de recherche :
· Google : GoogleBot
· Yahoo : Slurp ou YahooBot
· MSN : MSNBot
· L'indexation : Une page interne indexée dans un moteur de recherche signifie qu'elle a été visitée par les robots qui balayent internet, page qui est désormais référencée et visible dans le moteur de recherche en fonction des mots clés tapés par l'internaute.
· Le ranking : Enfin, le ranking va être l'attribution d'un positionnement de la page indexée dans les résultats de recherche en fonction du mot ou des mots clés tapés. De manière logique, les pages internet les mieux notées ("rankées") par les moteurs de recherche apparaîtront dans les premiers résultats de recherche.
Avant développer plus en détails les prochaines parties sur le référencement, il est nécessaire de définir correctement et clairement ce à quoi servent les algorithmes des moteurs de recherche. Au travers du système d'indexation présenté ci-dessus, les moteurs de recherche vont attribuer un positionnement à chaque page internet existantes. Le positionnement correspond à la place de la page dans les résultats de recherche en fonction d'un ou de plusieurs mots clés tapés. C'est ce que l'on va appeler le référencement naturel. Un site dit "bien référencé" sera dans les premières position dans les SERP (search engine results page), page de résultats d'un moteur de recherche, en Français. Un site ou une page internet dit "bien référencé" pourra également être appelé "puissant" ou "influant" du point de vue du référencement. Sur certains moteurs de recherche, comme sur Google, une note va être attribuée pour chaque page indexée. Dans le cas de Google, cette note est appelée "Pagerank". Une page web sera notée de 0 à 10 par Google en fonction de sa puissance (du point de vue du référencement). Une page ayant un pagerank de 8 sera un site très bien référencé et très bien positionné dans les SERP.
Ce processus d'indexation par l'algorithme des moteurs de recherche va dépendre de nombreux critères, qui vont évoluer au cours du temps pour rendre les résultats de recherche toujours plus pertinents pour l'utilisateur. Nous nous intéresserons à ces évolutions et optimisations des critères d'indexation dans une prochaine partie, puisque c'est elles qui vont être a la base du développement des stratégies de référencement.
1.1.3 Google : Leader indétrônable des moteurs de recherche
1.1.3.1 Google - Evolution des années 2000 à aujourd'hui
C'est en l'an 2000 que Google est réellement apparu comme un acteur de taille du secteur d'internet, en devenant le moteur de recherche le plus important du monde avec, déjà à cette époque, une version pour 15 langues différentes. Avec plus de 10 ans de recul, il apparaît très clairement que Google à voulu, dans les premières années de son développement, consolider les bases de l'outil qui l'a rendu célèbre, son moteur de recherche. C'est pourquoi, la même année, Google à lancé son outil de création de liens sponsorisés : Google Adwords. Avec cet outil, les webmasters pouvaient payer pour apparaître de façon très visible sur les pages de recherche de certains mots clés tapés. C'est à partir de ce moment qu'est né le Search Engine Marketing, ou référencement payant, une technique totalement différente que le référencement naturel/gratuit. Dès 2001, Google lançait le troisième outil de son moteur de recherche : "Image Search", permettant aux internautes de rechercher parmi une base de plus de 250 millions d'images. En signant en 2002 un partenariat avec AOL, Google à augmenté d'une manière fulgurante sa notoriété et son utilisation aux Etats-Unis comme dans le reste du monde, en se positionnant encore d'avantage comme le moteur de recherche le plus abouti et le plus pertinent.
En 2003, et en plus du développement de nouveau services pour son moteur de recherche comme "Book search" permettant la recherche dans une base de nombreux ouvrage, Google commence à lancer d'autres outils, par ses propres moyens ou bien par le rachat de sociétés. Ainsi, la plateforme de blog "Blogger" a vu le jour. L'évolution de la firme de Mountain view s'est accrue d'avantage au milieu des années 2000, notamment avec son entrée en bourse parfaitement réussie en 2004. S'en est suivie la mise en place des services géographique "Google maps" et "Google Earth" qui viennent compléter les possibilités de recherche pour les internautes.
2005 et 2006 ont été de fort développement pour l'entreprise, et continue de proposer aux internautes des services et outils différents mais complémentaires : La messagerie mail de Google "Gmail" sera lancé en décembre 2005, tout comme le service associé de messagerie instantanée "Google Talk". 2005 a aussi été l'année du rachat d'"Android" par Google, pour un montant resté secret. Ce rachat est décrit par l'entreprise comme la meilleur affaire réalisée. En effet, Android concurrence aujourd'hui très fortement le système d'exploitation iOS d'Apple, en France comme à l'étranger. Android est tellement rentable que les "publicités issues du système d'exploitation permettent à elles seules de couvrir les frais de développement[footnoteRef:3]". [3: Source Venturebeat.com - http://venturebeat.com/2010/10/27/google-exec-android-was-best-deal-ever/]
Fin 2006, Google annoncera l'acquisition de "Youtube", le leader de l'hébergement de vidéos en ligne, pour prêt de 1,65 milliard de dollars[footnoteRef:4]. La publicité étant au coeur du business model de Google, la société s'est très vite rendu compte que la publicité allait de plus en plus arriver sur les plateformes d'hébergements de vidéos. Youtube était alors un concurrent de taille pour Google, qui à donc décidé de le racheter, un investissement à long terme qui semble avoir porté ses fruits, puisque le service de vidéos comptabilisait en Février 2011 plus de 490 millions d'utilisateurs par mois[footnoteRef:5]. [4: Source Numérama.com - http://www.numerama.com/magazine/3399-pourquoi-google-rachete-youtube-165-milliard-de.html] [5: Source Youtube.com]
En 2008, Google quittera une partie des services purement web en s'attaquant au marché des navigateurs avec l'annonce du lancement de "Google Chrome", et cela en vue de concurrencer les 3 principaux acteurs du marchés :
· Internet Explorer (par Microsoft)
· Firefox
· Safari (par Apple)
Un pari à nouveau réussi pour Google, puisque son navigateur occupe aujourd'hui la deuxième place en part en marché, et vient concurrencer très fortement le géant de Microsoft, Internet Explorer. En seulement 3 ans d'existence, Chrome a en effet dépassé Firefox dans le monde en Novembre 2011[footnoteRef:6] : [6: Source - Cabinet StatCounter, GlobalStats et lefigaro.fr]
Depuis cette date, Google cherche à optimiser toujours plus ses services, à les rendre toujours plus complémentaires, tout en travaillant sur de nouveaux projets. Les outils Google vont peu à peu s'uniformiser pour offrir aux utilisateurs un seul et même design, plus clair, plus simple et plus intuitif. Au début de l'année 2011, Google annonça l'arrivée de son réseau social "Google+", service lancé au milieu de l'année 2011, dans le but de concurrencer Facebook. Malgré le retard de Google dans le domaine du social, le groupe à misé sur son omniprésence sur le web pour attirer les utilisateurs. Google+ à d'ailleurs été retravaillé fortement en 2012 pour apporter des éléments de différenciations par rapport au géant du secteur, Facebook. Le but était également d'apporter une approche d'avantage sociale dans les résultats de son moteur de recherche. 2011 et 2012 a encore été une période de nouveaux outils importants et novateurs pour Google :
· Sortie de Google Music (uniquement aux USA pour le moment) fin 2011 : Service d'hébergement et d'écoute de musiques en ligne et sur n'importe quel support connecté à internet
· Sortie de Google Play au début de l'année 2012 : Service de téléchargements gratuits ou payants d'applications mobiles et tablettes mais aussi de film. A travers Google play, l'entreprise cherche à créer une plateforme de divertissement accessibles à tous ses utilisateurs, comme l'a fait Apple avec son logiciel iTunes.
· Sortie de Google Drive au milieu de l'année 2012 : Service de création de documents en ligne : document texte, présentation, feuille de calcul, formulaire, dessin, etc. Ces documents sont automatiquement enregistrés en ligne et sont ensuite disponibles depuis n'importe quel support connecté à internet.
Au travers de cet état des lieux des services et outils mis en place par Google depuis ses débuts, il est possible de dire que l'entreprise s'est construit et s'est développé afin de consolider continuellement ses services entre eux. Même si la bataille du social n'est pas encore gagnée avec le géant Facebook, Google s'est construit une place de leader et acteur incontournable du Web depuis sa création, principalement en Europe où les parts de marchés avoisinent les 90% [footnoteRef:7]. Dans les pays d'Amérique du Sud et d'Amérique du Nord, les parts de marchés de Google varient entre 65% et 75%, dus à une concurrence plus forte des autres moteurs de recherche comme Bing (Microsoft). C'est la raison pour laquelle les stratégies de référencement naturel se sont mises en place en majeure partie sur Google. [7: Source - Google.com 2011]
Nous avons vu dans cette partie que le moteur de recherche était toujours plus ou moins placé au centre des évolutions des services Google. Nous allons donc voir dans la partie suivante que son algorithme à su évoluer parallèlement avec les tendances d'internet, changements qui ont eux des impacts sur le référencement des pages internet.
1.1.3.2 Google - Les changements d'algorithmes
Au cours de son développement et depuis sa création, Google a fait évoluer son algorithme afin de le rendre toujours plus pertinent, plus rapide et plus exhaustif pour les internautes.
L'indexation des pages va dépendre de critères qui vont être mis à jours par la société en fonction des tendances du web que nous allons développés ci-dessous. Même si ces changements existent, l'algorithme de Google garde cependant des critères de bases, critères qui ont fait le succès du moteur de recherche depuis sa création. C'est ce que nous explique Matt Cuts dans une vidéo publiée sur Youtube en début d'année 2012. Il s'agit d'un ingénieur qui à rejoint Google en Janvier 2000 et qui est aujourd'hui le directeur de l'équipe "Webspam" de Google.
Dans cette vidéo, Matt Cuts nous informe sur le fonctionnement du référencement naturel de Google. Il explique que les sites les mieux classés dans les résultats de recherche Google vont être ceux qui ont le plus de liens entrants (Backlink : liens provenant d'un autre site internet et pointant vers le nôtre), en prenant également en considération la réputation des sites faisant ces liens. Par exemple, un lien entrant en provenance d'un site bien référencé par Google aura plus de poids du point de vue du référencement qu'un lien entrant en provenance d'un site avec moins de puissance. Il insiste également sur la relation entre les mots clés tapés par l'internaute lors de sa recherche. Le moteur de recherche Google va répertorier le nombre de page web parlant distinctement de chaque mot et le nombre de page web qui parlent de tous les mots en même temps. Enfin, il explique que les robots qui balayent tous les sites web peuvent être amenés à visiter une page plusieurs fois par jour, en fonction du nombre de mises à jours effectuées sur la page et de sa popularité. Le positionnement de cette page dans les résultats de recherche Google pourra donc être amenée à bouger régulièrement. C'est ainsi que le positionnement de base des sites va être effectué.
Nous allons à présent développer les différents et principaux changements qui ont été opérés par l'entreprise sur son algorithme. Il est tout de même nécessaire de préciser que plusieurs centaines de mise à jour de l'algorithme sont faits chaque année, mais, de manière génrale, seule une petite partie a un impact réel sur le référencement naturel des pages indexées. Pour chaque changement important de son algorithme (période où le classement des pages et sites référencés est mis à jour), Google l'associe à un nom spécifique pour l'ancrer plus facilement dans une démarche d'évolution[footnoteRef:8] : [8: Source - Classement des changements d'algorithmes Google par date - http://www.seomoz.org/google-algorithm-change]
· Boston - Février 2003 : Première réelle mise à jour de l'algorithme. Au départ, l'algorithme de Google est mis à jour tous les mois, pendant la pleine lune. Le nom associé à cette période était "Google Dance". A cette date, les mises à jours étant devenues plus fréquentes, Google à décidé d'abandonner peu à peu cette idée de changement mensuel.
· Cassandra - Avril 2003 : Google à retravailler sur les fondamentaux du référencement de qualité en pénalisant (forte baisse du référencement) les pages et sites internet composés de textes cachés et liens cachés.
· Florida - Novembre 2003 : Changements très importants qui visaient directement les mauvaises pratiques des professionnels du référencement sur internet. Google a pu mettre fin à environ 90 pratiques, dont celle du " bourrage" de mots clés, technique visant à surcharger une page internet de certains mots clés pour apparaître à ne meilleures positions dans les résultats de recherche.
· Austin - Janvier 2004 : Changement qui à permit de pointer d'autres abus mis en avant par "Florida", dont le texte invisible sur les pages et le "bourrage" des META Tags (liste de mot insérés dans le codage d'une page web afin de renseigner les robots des moteurs de recherche du sujet traité sur cette page).
· Brandy - Février 2004 : Améliorations apportés à l'algorithme au niveau de la pertinence des résultats de recherche. Google va accorder d'avantage d'importance à l'ancre d'un lien (texte sur lequel se trouve un lien) et à l'analyse des correspondances des mots clés et synonymes.
· Jagger - Octobre 2005 : Changements apportés sur la prise en compte de la qualité des liens. Cette mise à jour cible les liens de faibles qualité : échanges de liens réciproques, fermes de liens et liens rémunérés, qui n'ont que peu d'intérêt pour l'internaute et qui ne servent qu'à pousser virtuellement le référencement des pages. Google à donc sanctionner ces pages grâce à ce nouvel algorithme.
· Universal Search - May 2007 : Amélioration des résultats de recherche avec l'intégration des autres services Google : News, vidéos, images... Le temps des "10 annonces texte" était révolu.
· Caffeine & Real-time Search - 2009 : Google annonce un changement d'infrastructure massif pour accélérer l'indexation des pages internet et améliorer l'efficacité du moteur de recherche. En décembre, Google lance la recherche avec affichage des résultats en temps réel, ainsi que l'intégration de Twitter et de Google Actualité, en essayant de donner à son moteur de recherche une approche plus sociale.
· Panda - Février 2011 [footnoteRef:9]: Une évolution majeure dans l'algorithme Google mettant près de 2 mois à se développer dans le monde. Les changements apportés ont eu des conséquences très importantes pour un grands nombre de sites internet. Environ 12% des résultats de recherche Google ont été affectés, et des baisses de trafic allant jusqu'a -90% ont été comptabilisées, obligeants certaines structures et entreprises à stopper toutes activités. Panda a frappé l'Europe en Avril 2011 et des mises à jour régulières sont opérées depuis. Pour Google, le but de Panda était de nettoyer son index (pages et sites internet indexés dans son moteur de recherche), en supprimant ou pénalisant fortement : [9: Source - Dossier Google Panda sur webrankinfo.com - http://www.webrankinfo.com/dossiers/techniques/google-panda]
· Les pages à faibles contenus. Site un site internet est composé d'un trop grand nombre de pages à faibles contenus, le site entier est désindexer.
· Les pages dont le contenu est trop similaire à d'autres pages déjà existantes sur internet
· Les fermes de contenus : "Sites créés et développés spécialement pour générer des revenus publicitaires"[footnoteRef:10]. [10: Source : Définitions-Webmarketing.com - http://www.definitions-webmarketing.com/Definition-Ferme-de-contenus]
· Les sites composés de trop nombreuses publicités et les sites ne présentant pas assez de normes qualitatives définies par Google
· Penguin - Avril 2012 : Dernière mise à jour de l'algorithme Google en date. Tout comme Panda, celle-ci devrait changer de manière significative les habitudes des professionnels du référencement et les stratégies mises en place depuis plusieurs années. Même si il n'y a pas encore assez de recul par rapport à cette dernière mise à jour, Penguin aurait comme objectif de cibler et pénaliser les sites et pages suroptimisées du point de vue du référencement mais aussi la suroptimisation des liens. Deux semaines après le lancement de Google Penguin, Matt Cuts (responsable du webspam chez Google) a accordé une interview au site SearchEngineLand.com. Il explique que même si certains sites ont perdu de nombreuses positions dans les résultats de recherche, il reste "convaincu que Google Penguin a permis de mettre hors jeu ceux qui spamment son index ou qui en avaient l’intention[footnoteRef:11]". Il ajoute " Google Penguin a un objectif de précision. A savoir, agir efficacement contre toutes les pages renvoyant un fort signal de sur-optimisation ou de spam". [11: Interview Matt Cuts pour Danny Sullivan (SearchEngineLand.com), Avril 2012]
D'après cet état des lieux des principales mises à jour des algorithmes fait par Google depuis sa création, il apparaît que le leader des moteurs de recherche souhaite rendre son outil toujours plus qualitatif et plus efficient, parfois au dépend de certains sites déjà en place depuis plusieurs années. Google se bat depuis sa création sur les pratiques illégales du référencement, stratégies que nous allons développer dans la deuxième partie de cette partie exploratoire. Au travers des modifications de son algorithme, Google montre qu'il prend de plus en plus en considération les interactions sur les réseaux sociaux. L'objectif et l'intérêt pour l'entreprise sont aussi de développer son réseau social Google+ en vue de concurrencer Facebook. Une page web ou un site internet étant relayés de nombreuses fois sur les réseaux sociaux, et créant beaucoup d'interactions, gagnera d'avantages de positions dans les résultats de recherche que les pages web n'étant pas relayées. Les habitudes de référencements changent et évoluent. Il s'agit d'un travail d'adaptation de la part de tous les professionnels SEO pour élaborer de nouvelles stratégies, dans l'objectif d'obtenir continuellement les meilleurs positions dans les résultats de recherche Google. C'est ce à quoi nous allons nous intéresser dans les prochaines parties de ce mémoire.
1.1.4 Les autres moteurs de recherche et leur place actuelle
Comme il l'a été présenté précédemment, et même si Google est un acteur incontournable de l'internet actuel, il reste important de s'intéresser aux autres moteurs de recherche existants, en France comme à l'étranger. Nous l'avons vu, Google possédait en France près de 90% des parts de marchés à la fin de l'année 2011 d'après AT Internet. Viennent ensuite Bing avec 3.3% de parts de marché, Yahoo avec 1.5% et Orange avec 0.8% de parts de marché. Cette situation est semblable dans une grande partie des pays d'Europe. Une domination de Google qui est loin de disparaître.
Néanmoins, il est intéressant de regarder la situation dans les autres pays du monde, une situation qui toute autre. En effet, aux Etats-Unis et dans d'autres pays du continent américain, même si Google reste leader, les parts de marchés de la firme de Mountain View sont moindres, au profit de Bing et Yahoo. Il convient de différencier cependant Bing et Yahoo qui sont certes, tous deux des concurrents de Google, mais ce sont des acteurs de nature différentes. Yahoo est d'avantage un portail plutôt qu'un moteur de recherche. Un portail peut se définir comme étant un "site qui par son contenu (moteur de recherche, actualités, informations pratiques, météo,...) se veut un point d'entrée incontournable sur internet et un carrefour d'audience[footnoteRef:12]". Yahoo correspond exactement à cette définition dans le sens où il va répertorié l'ensemble des services évoqués, mais en y ajoutant en plus des outils similaires au leader Google : Webmail, Agenda... Quant à Bing, de Microsoft, se positionne d'avantage en tant que concurrent de Google puisqu'il s'agit d'un moteur de recherche. Il progresse de plus en plus en Etats-Unis qui connait la plus forte évolution depuis son lancement d'après deux études des cabinets cabinets Comscore et Hitwise. Au début de l'année 2011, Bing cumulait près de 27% des recherches effectuées aux Etats-Unis. D'après l'étude Hitwise, "Bing bénéficie d'un taux de clics plus important que Google : 81 % des recherches sur le moteur de Microsoft débouchent sur un clic, contre 65 % pour les requêtes effectuées sur Google[footnoteRef:13]". Bing cherche en effet à se différencier de Google, au lieu de lui ressembler. C'est en cela que le moteur de recherche de Microsoft développe son algorithme pour prendre plus en considération la localisation de l'internaute plutôt que son historique de recherche. Malgré cette évolution, Bing reste à 4% de parts de marché dans le monde. [12: Source - Définition Portail Internet - http://www.definitions-webmarketing.com/Definition-Portail-Internet] [13: Source - Etude Hitwise et Le Monde Technologies - http://www.lemonde.fr/technologies/article/2011/02/11/bing-grignote-les-parts-de-marche-de-google-aux-etats-unis_1478441_651865.html]
En Russie le moteur de recherche leader s'appelle "Yandex". En Mars 2011, le moteur de recherche russe détenait environ 65% des parts de marchés [footnoteRef:14]des moteurs de recherche présents dans le pays. Google arrivait en deuxième position avec seulement 22% de parts de marchés. [14: Source - liveinternet.ru]
Quand au continent asiatique, Google n'occupe pas non plus la place de leader dans la majorité des pays. C'est le moteur de recherche "Baidu" qui est majoritaire comme par exemple en Chine, avec entre 75 et 85% de parts de marché en 2010. Cependant, Baidu est loin d'avoir fait l'unanimité dans les pays de la zone asiatique.
Les Etats-Unis sont toujours un modèle concernant le domaine d'internet. Le fait que Bing gagne quelques parts de marchés sur Google va potentiellement changer les approches du référencement et permettre de voir émerger de nouvelles techniques de SEO. En Europe, cette situation n'est pas encore à l'ordre du jour. Bing à tout intérêt à se développer là où Google n'a pas une position quasi-majoritaire. C'est pourquoi les stratégies de référencement ne sont que très peu développées sur le moteur de recherche Microsoft, au profit du référencement Google. Actuellement, Bing n'apporte que trop peu de visibilité à un site internet français ou francophone pour s'y intéresser.
Nous allons maintenant nous pencher sur l'intérêt du référencement naturel pour les sites internet, domaine encore en pleine expansion et indispensable a l'heure actuelle.
1.1.5 Le SEO, pourquoi ?
Être présent et indexé sur Google n'est pas une démarche difficile, puisqu'elle est automatique. Nous l'avons dans les parties précédentes, Google scrute l'ensemble du web grâce à des robots qui sillonnent toutes les pages de tous les sites internet, jours et nuits. Suite à cela, l'algorithme de Google indexera ou non les pages en fonction de critères et leurs accordera un positionnement dans les résultats de recherche. Un site créé de la façon la plus normale possible (c'est à dire sans abus : Pas de caractères injurieux, racistes, violents, pornographiques) sera très vite référencé sur le moteur de recherche.
Cependant, il ne suffit pas d'être référencer sur Google pour faire vivre un site internet sur le long terme. En effet, un site internet référencé par exemple en troisième page de Google sur les mots clés principaux de son activité n'aura aucune visibilité et que très peu de visites. Pour qu'un site ou une page web soient rentables et pérennes, ils doivent être bien référencer, c'est à dire qu'il doivent apparaître au minimum sur la première page des résultats de recherche sur les mots clés caractéristiques du site.
Exemple : Un site de vente de lunettes en ligne devra se positionner sur des mots clés de types "achat lunette", "achat lunettes", "achat lunettes en ligne", etc. En tapant ces mots clés sur Google, l'objectif des stratégies de référencement est que ce site devra apparaître dans les premières positions des résultats de recherche.
Une étude d'eye tracking des résultats Google réalisée en 2005 par Enquiro Research[footnoteRef:15] nous montre, de manière claire et précise comment va réagir l'internaute sur la page de résultats suite à une recherche et quel va être son sens de lecture : [15: http://enquiroresearch.com/]
[footnoteRef:16] [16: Etude Enquiro Research Eye Tracking Google SERP 2005 - http://www.1ere-position.fr/blog/eye-tracking-recherche-universelle-et-sens-de-lecture-sur-une-page-de-resultats-google]
Ici, il apparait très clairement que l'internaute va s'intéresser principalement aux 4 premiers résultats affichés par Google. Si il trouve ce qu'il recherche, il se dirigera très rarement vers le bas de cette première page, et encore moins en seconde page des résultats de recherche. Ce comportement n'a que très peu évolué entre 2005 et aujourd'hui, même si de nouveaux éléments se sont insérés dans les résultats de recherche depuis quelques années, comme les Actualités Google, les vidéos ou bien les images. Cependant, il faut noter que ces nouveaux éléments n'apparaissent que sur certains mots clés très recherchés, ce n'est pas le cas de tous.
Cette insertion de nouveaux éléments va changer de manière significative l'ordre de lecture des résultats de recherche su Google. La même étude d'eye tracking réalisée par Enquiro Research, cette fois ci en 2010, nous illustre ce changement de lecture :
[footnoteRef:17] [17: Etude Enquiro Research Eye Tracking Google SERP 2010 - Livre blanc sur les moteurs de recherche - http://www.1ere-position.fr/blog/eye-tracking-recherche-universelle-et-sens-de-lecture-sur-une-page-de-resultats-google]
Sur cette nouvelle illustration, nous pouvons constater que l'ordre de lecture n'est plus verticale comme sur une page de résultats de recherche où seuls des liens textuels apparaissent. Il est également intéressant de voir que la première place dans les résultats n'a plus la même importance lorsque de nouveaux éléments (types photos ou vidéos) sont intégrés sur la page. Les internautes sont alors beaucoup plus attirés par les illustrations que par le texte, puisque c'est la première chose qu'ils regardent (A). Afin de savoir si cette illustration correspond à ce qu'ils recherchent vraiment, ils vont lire ensuite la description associées (B). C'est ensuite que les internautes vont reprendre un sens de lecture vertical, en s'intéressant d'abord au premier résultat fourni par Google (C) puis aux autres résultats situés sous l'illustration (S). De la même manière que pour les pages de résultats sans illustration, plus l'on s'éloigne de la première position, plus le taux de clics chute. Une étude sortie en Aout 2011 réalisée par Slingshot SEO[footnoteRef:18], entreprise reconnue de référencement naturel, nous montre le fort écart qu'il existe en moyenne entre les taux de clics sur la première page de résultats Google : [18: Source - Slingshot SEO - http://www.slingshotseo.com/resources/white-papers/google-ctr-study/]
· 1ère position Google : 18.2% de taux de clics
· 2ème position Google : 10.05% de taux de clics
· 3ème position Google : 7.22% de taux de clics
· 4ème position Google : 4.81% de taux de clics
· 5ème position Google : 3.08% de taux de clics
· 8ème position Google : 1.75% de taux de clics
· 10ème position Google : 1.04% de taux de clics
Nous constatons qu'un site bien référencé est un site qui se situe entre la première et la cinquième place des résultats de recherche Google, et même 4ème place. Pour qu'un site internet soit référencer par un moteur de recherche, nous avons donc constaté qu'il s'agissait d'un processus simple puisqu'il est automatique. Cependant, apparaître dans les premières positions des résultats de recherche - lorsque les internautes tapent à un mot clé en rapport avec le site internet à référencer - demande beaucoup plus de travail et de temps. C'est ici que prend source tout l'intérêt du SEO des stratégies qui en découlent. Le SEO est un passage obligatoire pour tous les sites internet souhaitant se développer.
La personne en charge du référencement naturel, aura donc pour but de positionner son site internet ou bien une page de son site dans les premières positions des résultats de recherche. C'est ainsi que le nombre de visiteurs augmentera et c'est ainsi que le site pourra être de plus en plus rentable et pérenne. Mais, en milieu concurrentiel, cette démarche peut s'avérer difficile, certains acteurs étant positionnés depuis plusieurs années sur les mots clés les plus tapés par les internautes. Le référencement naturel est donc indispensable pour la survie d'un site, mais aussi pour se positionner face à une concurrence qui devient de plus en plus importante sur internet.
Dans la partie suivante, nous allons nous intéresser aux différentes stratégies de référencement naturel existantes, en détaillant tout d'abord les stratégies globales et stratégies de bases, pour ensuite développer les stratégies mises en place par les professionnels en rapport avec les évolutions des algorithmes Google de ces derniers années.
1.1.6 Les stratégies et techniques SEO globales
1.1.6.1 Etudes préalables
Construire une stratégie de référencement naturel nécessite un réel travail en amont afin de connaître toute les caractéristiques du marché et les caractéristiques web sur lesquelles un site va être positionner. Cela doit être défini avant même la création du site internet, puisque les rubriques à définir ainsi que les contenus insérés à l'intérieur des pages du site vont dépendre en grande partie de la stratégie SEO. Plusieurs points seront à définir précisément pour ce travail en amont d'un site dans un milieu concurrentiel :
1. Benchmarking : Etude des sites internet concurrents (organisation des contenus, contenus), de leurs positionnements respectifs sur les moteurs de recherche, des pages qui ressortent le plus dans les résultats de recherche, des mots clés sur lesquels les sites concurrents ressortent le plus.
2. Mots clés : Etude et analyse des mots clés les plus tapés dans Google sur le thème du site à référencer. Etude des tendances et évolutions des mots clés par rapport aux différentes périodes de l'année et étude des synonymes par rapports à ces mots clés. En dégager une liste de mots clés très concurrentiels mais indispensables, et une liste de mots clés importants sur lesquels il est plus facile de se positionner. Grâce à cela, il sera possible de définir plus facilement l'ensemble des rubriques du site internet.
3. Contenu : Mise en place d'une liste de contenus à organiser dans les rubriques définies préalablement. Les contenus, en rapport direct avec la thématique traitée par le site internet, devront être construit sur la base des mots clés définis dans les études précédentes.
Afin de réaliser ce travail, internet met à la disposition des webmasters et des référenceurs un certains nombre d'outils puissants et pour la majeure partie, gratuits. L'accessibilité de ces outils est un avantage non négligeable sur internet, mais qui peut s'avérer être un inconvénient s'ils sont également utilisés par la concurrence. C'est la raison pour laquelle les études réalisées en amont de la construction d'un site internet doivent être parfaitement travaillées, en faisant attention à développer plusieurs axes stratégiques de référencement : Le premier sur des mots clés également visés par la concurrence, le second dans un but de différenciation, mais toujours sur la même thématique.
Concernant l'étude des sites concurrents, des mots clés utilisés et de leurs positionnement sur les moteurs de recherche, plusieurs outils existent :
· Majesticseo.com : Etude sur les liens de n'importe quel site internet : Nombre de sites faisant un lien vers celui du concurrent avec classement des plus importants. Le site calcul également le nombre de liens sortants du site concurrents.
· Pagerank.fr : Permet de calculer la note accordée par Google à n'importe quel site internet (Pagerank). L'outil va également détaillé le nombre de pages indexées dans le moteur de recherche et le nombre de backlink (liens entrants).
· Seoh.fr/audit-seo : Outil qui permet de réaliser gratuitement un audit de référencement gratuit d'un site internet : principales balises de référencement, mots clés les plus utilisés, principaux points à travailler pour optimiser le référencement.
· Positeo.com : Cet outil permet de trouver le positionnement d'un site internet sur Google sur un ou plusieurs mots clés. En y renseignant également des données de géolocalisation et de langue, il est très simple de connaître la position d'un concurrent sur tout type de thématiques.
De même, pour l'étude des mots clés sur lesquels il sera important de travailler pour le référencement du site internet, de nombreux outils permettent de les définir très précisément. Parmi les principaux, l'outil "Google Insight" est l'un des plus utilisés. Il va permettre de calculer le nombre de fois qu'un mot clé est tapé sur Google tous les mois, par pays, région mais aussi par date. L'outil fonctionne également avec l'analyse de plusieurs mots clés afin de les comparer. Il sera alors possible de voir les différentes tendances de chaque mot clé, lequel est le plus tapé ou bien lequel à le plus d'influence à telle ou telle période de l'année. Enfin, l'outil développé par Google vous propose une liste exhaustive de synonymes ou mots clés tirés de la même thématique avec leurs pourcentages respectifs d'évolution.
Au travers de ces différents outils, la création du site internet et sa stratégie de référencement, dont les différents aspects vont être présentés dans les parties ci-après, vont pouvoir commencer sur des bases solides en ayant pris connaissance du positionnement précis des concurrents sur les moteurs de recherche.
1.1.6.2 Création, optimisation de contenu et maillage interne
Le point de base du référencement naturel est le contenu. En effet, c'est lui qui va en premier lieux permettre à Google d'identifier un site internet comme traitant de tel ou tel sujet et de le référencer sur des mots clés précis. Cependant, la seule présence d'un contenu de qualité n'est pas un gage de bon référencement. Il est à la base d'un travail de fond et de moyen/long terme pour augmenter peu à peu la position du site ou de la page internet sur le moteur de recherche.
Tout d'abord, pour qu'un site internet se référence de manière plus rapide, il est nécessaire qu'il ait un contenu de base de qualité, mais surtout que du contenu soit ajouté constamment sur le site internet. En effet, les robots du moteur de recherche Google n'inspectent pas qu'une seule fois le contenu présent. Ils reviennent de manière régulière afin de vérifier si le contenu est toujours de qualité, s'il correspond toujours à la ou les thématiques pour lesquelles le site à été référencé, si le contenu à subit des mises à jours, et s'il y a eu de nouveaux contenus sur le site internet. Plus un site internet connait de modifications au niveau de son contenu (mises à jours ou ajout), plus les robots Google vont revenir régulièrement. De nouveaux contenus de qualité (contenus correspondant à la thématique du site à référencer, composés de mots clés très tapés par les internautes) ajoutés régulièrement vont prouver à Google que le site est actif. Grâce à cela, le moteur de recherche va progressivement faire gagner des positions à ce site internet dans les résultats de recherche. Ce point est très important et va constituer un pilier dans la stratégie de référencement.
Ensuite vient une partie d'optimisation des contenus. Cette étape est une stratégie propre au référencement, dans le sens où il va s'agir de techniques de mise en valeur d'éléments à l'intérieur des contenus du site internet. Cette optimisation se fait à plusieurs niveaux :
· Le titre des pages et titre des contenus : Pour chaque page et chaque contenu d'un site, les titres sont très important pour Google, puisque c'est eux qui vont apparaître dans les pages de résultats du moteur de recherche. Ces titres doivent donc être optimisés, c'est à dire composés des mots clés principaux du contenu, mots clés sur lesquels le référenceur cherche à positionner le site. Dans un titre optimisé, on trouvera le mot clé principal en premier, accompagné ensuite de synonymes ou mots clés de la même thématique. Dans une page internet, il existe plusieurs types de titres (qui doivent tous être différents mais composés de mots clés semblables pour améliorer le référencement de la page) :
· Titre global de la page : Il s'agit de la "balise title" de la page, c'est à dire le texte qui sera affiché sur les moteurs de recherche.
· Titre H1 (Header 1) : Titre principal affiché sur la page du site internet, censé représenté le contenu aux internautes mais aussi aux moteurs de recherche
· Titre H2 : Sous titre qui vise à mieux structurer le contenu à l'intérieur de la page web
· Titres H3 à H6 : Il s'agit de tous les types de sous titres que l'on peut insérer dans une page internet pour prouver aux moteurs de recherche une organisation structurée du contenu.
· Balises de mise en avant : Optimiser une page web, c'est aussi attribuer aux mots clés importants du contenu des balises pour indiquer aux moteurs de recherche de quoi traite exactement le sujet. Ainsi, Google saura plus facilement référencer et positionner la page par rapport à la thématique traitée. Il existe différents types de mises en avant de contenu grâce à des balises HTML comme par exemple :
· Balise : Balise de mise en gras des mots clés importants de la page. Il reste néanmoins important de ne pas en abuser pour éviter la sur-optimisation de la page (sanctionner par Google, c'est à dire une perte de position de la page dans les résultats de recherche).
· Balise : Balise de mise en italique de certaines parties du texte de la page.
· Mise à jours du contenu : Enfin, l'optimisation d'une page web passe par sa mise à jour régulière, en y ajoutant de nouveaux contenus par exemple, ou en y ajoutant des illustrations, tels que des images ou des vidéos avec un texte associé. Google va ainsi voir que la page continue d'être active.
La troisième et dernière partie de la stratégie de référencement d'un contenu d'un site internet est le maillage interne, c'est à dire l'organisation du contenu. Ce terme correspond aux liens hypertextes (liens cliquables) qui vont permettre de lier les différentes pages d'un site web entre elles. Un maillage interne bien optimisé pour le référencement correspond à un ensemble de liens logiques à l'intérieur d'un site. Comme nous l'avons vu dans les parties précédentes, lorsque les robots Google inspectent un site internet, ils suivent l'ensemble des liens qui lient les pages. Cette stratégie de maillage interne va donc permettre de créer des chemins entre des contenus de même types et complémentaires, mais aussi entre les différentes rubriques présentes sur le site. Cela améliore de manière significative le référencement d'un site ou d'une page web. Les liens entre les pages d'un site interne sont de plusieurs formes :
· Liens du menu : Liens visités en premier par les robots Google puisqu'ils arrivent en premier dans le sens de lecture de la page. Les liens du menu ont pour objectifs de lier logiquement les pages, pour guider plus facilement le visiteur, mais aussi les robots des moteurs de recherche.
· Liens à l'intérieur des contenus : Faire des liens dans les contenus de chaque page permet à Google d'associer un lien à une thématique précise, puisque le lien sera entouré de texte de qualité et optimisé, comme nous l'avons vu dans la partie précédente. Point important, l'ancre (texte sur lequel se trouvera le lien) des liens doit être choisi avec attention. Elle doit correspondre à un mot clé précis sur lequel la page souhaite se référencer.
· Lien optimisé pour le référencement : "Retrouvez dans un deuxième article tout ce qu'il faut savoir sur l'achat de lunettes sur internet"
· Lien non optimisé : "Pour tout savoir de l'achat de lunettes sur internet, cliquez ici"
· Liens de bas de page : Liens peu pris en compte par Google, ils serviront principalement à rediriger l'internaute vers les parties principales du site internet.
Ce premier aspect de la stratégie de référencement aura pour conséquence une amélioration des positions des pages d'un site internet dans les résultats de recherche de Google.
1.1.6.3 Netlinking
Le deuxième aspect d'une bonne stratégie de référencement concerne la notion de Netlinking, c'est à dire la mise en place d'une stratégie de liens entrants (backlink) et de liens sortants.
· Liens entrants (Backlinks) : Lien situé sur un autre site internet et qui pointe vers notre site ou bien une page de notre site.
· Liens sortants : Lien situé sur notre site pointant vers un site extérieur
Du point de vue du référencement et plus globalement, du point de vue de la visibilité d'un site web sur internet, il est beaucoup plus intéressant d'avoir d'avantage de backlinks que de liens sortants. Un site internet possédant de nombreux backlinks va être vu par Google comme un site de référence, puisque de nombreux sites en parle et font des liens vers celui-ci. Google accordera donc à ce site "de référence" de meilleures positions dans les résultats de recherche. Il est néanmoins nécessaire de noter que les liens ont des poids différents du point de vue du référencement :
· Un lien à l'intérieur d'un contenu, entouré de texte en rapport avec les mots clés principaux de notre site sera préférable à un lien seul.
· Un lien dans une page bien référencée sur Google sera plus intéressante au niveau référencement, qu'un lien sur une page peu référencée. De même, un lien sur une page avec un fort Pagerank aura plus de poids qu'un lien sur une page à petit Pagerank.
· Un lien en haut de page aura plus de poids qu'un lien situé en bas de page.
Dans la stratégie de référencement à mettre en place, il convient donc de réunir toutes ses caractéristiques pour optimiser les backlinks fait par d'autres sites. Afin d'obtenir ce type de liens qualitatifs et qui feront augmenter véritablement la position de notre site internet sur Google, il existe de nombreux moyens différents. En voici quelques exemples :
· Echange de liens : Un lien entrant en échange d'un lien sortant
· Partenariats : En échange d'un service, un site extérieur pourra faire un backlink vers notre site.
· Backlinks via des partages : Le meilleur moyen d'obtenir des liens entrants est de créer des contenus intéressants, originaux et de très bonne qualité sur le site internet à référencer. Le site gagnera en notoriété et sera de plus en plus vu comme un site de référence dans la thématique qu'il traite. De nombreux sites feront peu à peu des liens vers ce site, sans rien avoir à demander.
L'objectif est donc d'obtenir le plus de liens entrants possibles, et les plus qualitatifs possible, une caractéristique que Google prend fortement en consécration dans son processus de référencement des sites internet.
1.1.6.5 Suivi de la stratégie SEO
Une fois en place, une stratégie de SEO doit être suivie par le référenceur en charge du positionnement du site internet sur les moteurs de recherche. En effet, ce travail va permettre de savoir si la stratégie fonctionne, si les pages du site internet gagnent ou perdent des positions sur Google par rapport aux concurrents, mais surtout de savoir si la stratégie est bonne ou si il est nécessaire de la changer ou de l'adapter.
Les mêmes outils présentés précédemment pour le travail de mise en place de le stratégie de référencement serviront également pour cette partie. Les outils utilisés pour analyser le référencement et le positionnement des concurrents pourront aussi servir à l'analyse de notre site. Il existe d'autres moyens très intéressants et indispensables pour se rendre compte de l'efficacité d'une stratégie de SEO, chiffres et statistiques disponibles uniquement si le site web nous appartient. L'un de ces outils est "Google Analytics". Sur ce site internet mis à disposition gratuitement par Google aux webmasters et référenceurs, il va leur être possible d'analyser tous les chiffres inhérents au site sur lequel ils doivent travailler : Nombre de visites par jour, par mois, par an, nombre de visiteurs unique, nombre de pages vues par visites, durée moyenne de la visite, les différentes sources de trafic, les contenus les plus visités, les sites référents les plus importants, les mots clés principaux tapés pour arriver sur le site, etc.
Via cet outil, il va être possible de croiser les données pour affiner le travail de référencement réalisé sur le site. Connaître le nombre de visiteurs d'île de France ayant visité un page précise du site sera par exemple possible. Ainsi, grâce à cette analyse des données, le référenceur va pouvoir prendre un certain nombre de décisions importantes. Il va par exemple pouvoir décider de travailler plus particulièrement sur un mot clé plutôt qu'un autre, si ce dernier apporte moins de visites que le premier.
Les positions sur Google changent très souvent. L'analyse des données du site internet est donc un travail de tous les jours, un travail d'adaptation pour optimiser toujours plus le référencement.
1.1.7 Les stratégies et techniques SEO actuelles
(approche sociale et interaction)
Ouvrages :
Andrieu Olivier (2012). Réussir son référencement web - édition 2012. Eyrolles.
Références électroniques :
· http://www.01net.com/editorial/186972/petite-histoire-des-moteurs-de-recherche/ : Petite histoire des moteurs de recherche, par Jean-Christophe Féraud (directeur du service High-Tech et Médias des "Echos").
· http://referenceurdulundi.blogue.fr/2008/09/15/historique-des-moteurs-de-recherche/
· http://www.journaldunet.com/solutions/0604/060407-referencement-fonctionnement-moteur.shtml
· http://venturebeat.com/2010/10/27/google-exec-android-was-best-deal-ever/
· http://www.numerama.com/magazine/3399-pourquoi-google-rachete-youtube-165-milliard-de.html
· http://www.seomoz.org/google-algorithm-change
· http://www.entoiledefond.com/blog/referencement/le-nettoyage-de-printemps-selon-google.html
· http://www.webrankinfo.com/dossiers/techniques/google-panda
· http://www.definitions-webmarketing.com/Definition-Ferme-de-contenus
· http://online.wsj.com/article/SB10001424052748703745704576136742065119876.html
· http://www.hitwise.com/us/press-center/press-releases/bing-searches-increase-twenty-one-percent/
· http://www.lemonde.fr/technologies/article/2011/02/11/bing-grignote-les-parts-de-marche-de-google-aux-etats-unis_1478441_651865.html
· http://www.1ere-position.fr/blog/eye-tracking-recherche-universelle-et-sens-de-lecture-sur-une-page-de-resultats-google
· http://www.webrankinfo.com/dossiers/yandex/chiffres-cles-russie
31