Création site Web 100% Gratuit

Chez nous, vous ne payez que nos abonnements de maintenance, la création de votre site est offerte.
*Offre valable jusqu’à fin novembre 2022

Une brève histoire de la recherche et du référencement

Août 3, 2022

article de blog

Mais d’abord, un regard en arrière sur les moteurs de recherche

Source : Wayback Machine
La première idée de créer des archives communes pour toutes les données du monde s’est concrétisée en 1945. En juillet de cette année-là, le Dr Vannevar Bush, alors directeur du défunt Office of Scientific Research and Development, a publié un article dans The Atlantic dans lequel il proposait « la collecte de données et d’observations, l’extraction de matériel parallèle à partir des archives existantes et l’insertion finale de nouveau matériel dans le corps général des archives communes ». En d’autres termes, selon nous, le Google d’aujourd’hui.
Plusieurs décennies plus tard, en 1990, Alan Emtage, étudiant à l’université McGill, a créé Archie, que certains considèrent comme le tout premier moteur de recherche – bien que cela reste discutable, selon les recherches de Bill Slawski, président et fondateur de SEO by the Sea. Cependant, Archie était ce que Slawski appelle « le meilleur moyen de trouver des informations à partir d’autres serveurs sur Internet à l’époque », et il fonctionne toujours (de manière très primitive).
La décennie suivante a vu plusieurs développements cruciaux, avec l’apparition des versions plus commerciales des moteurs de recherche que nous connaissons aujourd’hui.

Février 1993 : Six étudiants de Stanford créent Architext , qui deviendra plus tard le moteur de recherche Excite. Certains, comme Search Engine Land (SEL), affirment qu’Excite a « révolutionné la façon dont l’information était cataloguée », facilitant la recherche d’informations « en triant les résultats en fonction des mots-clés trouvés dans le contenu et de l’optimisation du backend. »
Juin 1993 : Matthew Gray présente World Wide Web Wanderer, qui sera plus tard connu sous le nom de Wandex.
Octobre 1993 : Martijn Koster présente ALIWEB, qui permet aux propriétaires de sites de soumettre leurs propres pages (à l’insu, malheureusement, de nombreux propriétaires de sites).
Décembre 1993 : Il existe au moins trois moteurs de recherche  » alimentés par des robots  » : JumpStation, RBSE spider et World Wide Web Worm, ce qui signifie probablement qu’ils ont été alimentés par des robots Web pour explorer à la fois les serveurs et le contenu des sites afin de produire des résultats.
1994 : Les moteurs de recherche Alta Vista, Infoseek, Lycos et Yahoo voient le jour.
1996 : Les cofondateurs de Google, Larry Page et Sergey Brin, commencent à construire un moteur de recherche qu’ils appellent initialement BackRub.
Avril 1997 : Lancement d’AskJeeves, qui deviendra plus tard Ask.com.
Septembre 1997 : Google.com est enregistré comme nom de domaine.

Il est intéressant de noter que près de douze ans plus tard, en juin 2009, Microsoft a lancé Bing, dont les versions précédentes étaient également connues sous les noms de Live Search, Windows Live Search et MSN Search.
Mais c’est ici que le référencement lui-même entre en jeu. Au fur et à mesure que les moteurs de recherche sont devenus plus courants et plus largement utilisés, les propriétaires de sites ont commencé à s’en rendre compte. Comme le dit la communauté SEO Moz, « on a découvert qu’en prenant quelques mesures plutôt simples, les résultats des moteurs de recherche pouvaient être manipulés et que l’on pouvait gagner de l’argent sur Internet. »
Ces résultats, cependant, n’étaient pas exactement de qualité. Et c’est là, chers lecteurs, que l’histoire du référencement commence.

Une brève histoire de la recherche et du référencement

Les années 90

The Daily Dot
Les moteurs de recherche étant devenus des noms familiers et de plus en plus de familles étant connectées à l’Internet, il est devenu plus facile de trouver des informations. Le problème, comme indiqué ci-dessus, était la qualité de ces informations.
Si les résultats des moteurs de recherche correspondent aux mots des requêtes des utilisateurs, ils se limitent généralement à cela, car un nombre écrasant de propriétaires de sites se sont mis à bourrer de mots clés – en les répétant sans cesse dans le texte – afin d’améliorer leur classement (pour lequel il n’existe aucun critère), d’attirer du trafic sur leurs pages et de produire des chiffres intéressants pour les annonceurs potentiels.
Il y avait aussi un peu de collusion. En plus du bourrage de mots-clés, les gens utilisaient des backlinks excessifs et « spammy », selon SEL, pour améliorer leur autorité. Non seulement il n’y avait pas de critères de classement à l’époque, mais au moment où les moteurs de recherche ont modifié leurs algorithmes en conséquence, de nouvelles pratiques de référencement clandestin avaient déjà été mises en place et n’avaient pas été corrigées.
Mais ensuite, deux jeunes de Stanford ont eu une idée.

Stanford InfoLab
Lorsque Page et Brin ont entrepris de créer Google, c’était l’un des problèmes qu’ils voulaient résoudre. En 1998, le duo a publié un article à Stanford intitulé « The Anatomy of a Large-Scale Hypertextual Web Search Engine », dans lequel ils écrivaient :

…le modèle économique prédominant pour les moteurs de recherche commerciaux est la publicité. Les objectifs du modèle économique publicitaire ne correspondent pas toujours à la fourniture d’une recherche de qualité aux utilisateurs. »

C’est dans ce même article que Page et Brin ont mentionné pour la première fois le PageRank, la technologie que Google utilise pour aider à classer les résultats de recherche en fonction de leur qualité, et non des seuls mots clés. Certains pourraient dire que cette thèse a ouvert la voie au référencement tel que nous le connaissons aujourd’hui.

Le début des années 2000

Le début des années 2000 a vu le début de la prise de contrôle par Google. Dans le cadre du processus visant à rendre la technologie des moteurs de recherche moins axée sur la publicité, Google a commencé à fournir des directives pour le référencement blanc (white hat SEO) – le type de référencement que les « bons » respectent – afin d’aider les webmasters à se classer sans les comportements douteux des années 90.
2000-2002
Mais, d’après le , les directives n’avaient pas encore d’impact réel sur le classement, et les gens ne prenaient pas la peine de les suivre. Cela s’explique en partie par le fait que le PageRank était basé sur le nombre de liens entrants vers une page donnée – plus il y en avait, plus le classement était élevé. Mais il n’y avait pas encore de moyen de mesurer l’authenticité de ces liens – au début des années 2000, selon le Marketing Technology Blog, il était encore possible d’utiliser ces techniques de backlinking pour classer des pages qui n’étaient même pas liées aux critères de recherche.
Mais en 2001, Brin et Page sont apparus dans l’émission « Charlie Rose », lorsque l’animateur leur a demandé : « Pourquoi cela fonctionne-t-il si bien ? » Dans sa réponse, Brin a souligné qu’à l’époque, Google était un moteur de recherche et rien d’autre, et qu’il examinait « le web dans son ensemble, et pas seulement les mots qui apparaissent sur chaque page ». Cela a donné le ton de certaines des premières mises à jour majeures de l’algorithme qui allaient commencer à examiner de plus près ces mots. Consultez l’intégralité de l’interview :

2003-2004
Cette approche selon laquelle le Web ne se résume pas aux mots a vraiment commencé à prendre forme en novembre 2003, avec la mise à jour « Florida » de l’algorithme de Google. Un nombre suffisant de sites ont perdu leur classement pour que Search Engine Watch qualifie la réaction à Florida de « tollé » massif, tout en prenant soin de noter que de nombreux sites ont également bénéficié de ce changement. C’est la première fois que des sites ont été pénalisés pour des raisons telles que l’utilisation d’un site Web, ce qui montre que Google met l’accent sur la satisfaction de l’utilisateur, principalement grâce à un contenu de qualité.
En 2004, l’une des versions les plus primitives de la recherche vocale de Google existait, dans ce que le New York Times a appelé une expérience à moitié terminée. Et si la technologie était quelque peu infantile à l’époque – il suffit de voir à quoi ressemblaient les instructions au début – elle était aussi un signal de l’importance future du mobile dans le référencement. (Restez à l’écoute — plus à ce sujet plus tard).

2005 : Une grande année pour le référencement
2005 a été l’une des plus grandes années dans le monde des moteurs de recherche. En janvier de cette année-là, Google s’est associé à Yahoo et MSN pour créer l’attribut Nofollow, qui a été créé en partie pour réduire le nombre de liens et de commentaires spammy sur les sites Web, notamment les blogs. Puis, en juin, Google a lancé la recherche personnalisée, qui utilise l’historique de recherche et de navigation d’une personne pour rendre les résultats plus pertinents.
En novembre, Google Analytics a été lancé. Il est encore utilisé aujourd’hui pour mesurer le trafic et le retour sur investissement des campagnes. Regardez la photo de son bébé :

2009 : Secousses dans le domaine du référencement
En 2009, le monde des moteurs de recherche a connu quelques bouleversements. Bing a été lancé en juin, Microsoft le présentant comme le moteur de recherche qui produirait des résultats nettement meilleurs que ceux de Google. Mais comme prévu, il ne s’agissait pas d’un « tueur de Google », et ses conseils d’optimisation du contenu n’étaient pas très différents de ceux de Google. En fait, selon le Search Engine Journal, la seule différence notable était la tendance de Bing à donner la priorité aux mots clés dans les URL, ainsi qu’à favoriser les mots en majuscules et les « pages de grands sites ».
La même année, en août, Google a fourni un aperçu du changement d’algorithme Caffeine, demandant l’aide du public pour tester l' »infrastructure de nouvelle génération » qui, selon Moz, a été « conçue pour accélérer l’exploration, étendre l’index et intégrer l’indexation et le classement en temps quasi réel. »
Caffeine n’a été pleinement introduit que près d’un an plus tard – alors qu’il améliorait également la vitesse du moteur de recherche – mais en décembre 2009, une recherche en temps réel tangible a été lancée, avec des résultats de recherche Google incluant des éléments comme les tweets et les dernières nouvelles. Cette initiative a confirmé que le référencement n’était plus réservé aux webmasters. À partir de ce moment, les journalistes, les rédacteurs web et même les gestionnaires de communautés sociales ont dû optimiser le contenu pour les moteurs de recherche.
Voici Matt Cutts, responsable du webspam chez Google, qui parle de Caffeine en août 2009 :

Wayback Machine // WebProNews

2010-aujourd’hui

Lorsque vous saisissez une requête de recherche dans Google, il est assez amusant de voir quelles sont ses suggestions. C’est grâce à la technologie Google Instant, qui a été lancée en septembre 2010. Au début, selon Moz, elle a fait  » grincer des dents  » les référenceurs, jusqu’à ce qu’ils se rendent compte qu’elle n’avait pas vraiment de résultat sur le classement.
Mais Google Instant, ainsi que l’évolution du référencement à partir de 2010, n’était qu’une nouvelle phase de la mission du moteur de recherche, qui consiste à résoudre les problèmes de l’utilisateur – malgré une certaine controverse en cours de route concernant les pages dont le classement a été amélioré par des avis négatifs en ligne. L’algorithme, selon Google, a finalement été ajusté pour pénaliser les sites utilisant de telles tactiques.
Plus d’informations sur Google Instant, vers 2010 :

L’année 2010 a également été marquée par l’importance croissante du contenu des médias sociaux dans le référencement. En décembre 2010, Google et Bing ont ajouté des « signaux sociaux », qui affichent d’abord toutes les publications écrites sur Facebook, par exemple, de votre propre réseau qui correspondent à votre requête. Mais ils ont également commencé à attribuer un PageRank aux profils Twitter qui étaient liés avec une certaine fréquence. L’importance de Twitter dans le référencement ne s’est pas arrêtée là – restez à l’écoute.
2011 : L’année du panda
La tendance à punir les sites qui jouent injustement avec l’algorithme de Google se poursuit. Certains de ces incidents ont été plus publics que d’autres, notamment celui d’Overstock.com en 2011. À l’époque, selon le Wall Street Journal , les domaines se terminant par .edu avaient généralement une plus grande autorité aux yeux de Google. Overstock a utilisé cela à son avantage en demandant aux établissements d’enseignement de créer des liens vers son site — et d’utiliser des mots clés comme « aspirateurs » et « lits superposés » — en offrant en retour des réductions aux étudiants et aux professeurs. Ces liens entrants amélioraient le classement d’Overstock pour les requêtes comportant ces mots clés, jusqu’à ce qu’Overstock abandonne cette pratique en 2011 et que Google les pénalise peu après.
C’était aussi l’année de Panda, qui a fait son apparition en février, la mise à jour de l’algorithme qui s’attaquait aux fermes de contenu. Il s’agit de sites contenant d’énormes quantités de contenu de faible qualité, fréquemment mis à jour, écrit dans le seul but d’améliorer les résultats des moteurs de recherche. Ils ont également tendance à avoir un ratio publicité/contenu élevé, ce que Panda a été formé à repérer.
Panda lui-même a fait l’objet de plusieurs mises à jour, si nombreuses que dans sa chronologie des modifications apportées à l’algorithme de Google, il a refusé d’énumérer celles qui n’étaient pas majeures après 2011. Malgré cette exclusion, la chronologie fait état de 28 mises à jour de Panda – dont l’impact est difficile à mesurer pour la plupart – jusqu’en juillet 2015.
2012 : L’arrivée d’un pingouin
En avril 2012, Google a pris ce qu’il a appelé « une autre mesure pour récompenser les sites de haute qualité » avec la première des nombreuses mises à jour Penguin — et, en l’annonçant, a reconnu l’article de blog de Bing publié un mois plus tôt sur le changement de visage du référencement . Penguin a ciblé les sites qui utilisaient plus subtilement des tactiques de référencement « non-white hat » ; par exemple, ceux dont le contenu pouvait être principalement informatif, mais était également parsemé d’hyperliens frauduleux qui n’avaient rien à voir avec la page H1, comme dans cet exemple :

Il convient de noter que l’année 2012 a également été marquée par un retour à la thèse initiale de Google contre les publicités lourdes, avec la mise à jour « Above The Fold », qui a commencé à abaisser le classement des sites présentant un espace publicitaire important au-dessus du « pli », c’est-à-dire la moitié supérieure de la page.
Par la suite, Google ne s’est pas contenté de cibler le contenu spammy lui-même. La mise à jour de l’algorithme des prêts sur salaire – qui a été évoquée en juin 2013 et officiellement mise en œuvre au mois de mai suivant – s’est en fait concentrée sur les requêtes qui étaient plus susceptibles de produire des résultats frauduleux. Il s’agissait généralement de recherches portant sur des choses comme, eh bien, des prêts sur salaire, et d’autres choses qui pourraient faire rougir votre mère. Google a ajusté son système de classement afin d’éviter que le spam n’apparaisse dans ces résultats et, même si cela n’a pas nécessairement eu d’incidence sur les efforts de référencement des sites légitimes, cela témoigne des efforts déployés pour que les résultats de recherche restent authentiques.
Google se met à l’heure locale
Fidèle à la tradition des mises à jour d’algorithmes portant des noms d’animaux, Google a publié en 2014 « Pigeon » (surnommé ainsi par ), qui a eu un impact considérable sur les résultats de recherche locaux. À l’époque, il semble avoir été conçu pour améliorer les requêtes Maps, qui ont commencé à être traitées avec certaines des technologies appliquées à ses autres fonctions de recherche, comme  » Knowledge Graph, correction orthographique, synonymes « . Les recherches locales allaient devenir une affaire importante — et cela ne fera que continuer, comme vous le verrez dans un peu plus loin.
Puis, en 2015…
La plus grande annonce en matière de référencement après 2010 a peut-être été la mise à jour mobile de Google d’avril 2015, lorsque les sites Web non adaptés aux mobiles ont commencé à être moins bien classés. Cela signifie que le référencement n’est plus une question de mots clés et de contenu – le responsive design est également important.
Google a annoncé ce changement à l’avance, en février 2015, avec un test de compatibilité avec les mobiles qui a permis aux webmasters de voir les problèmes potentiels et d’apporter des modifications avant le déploiement. Ce n’était pas la dernière des mises à jour mobiles de Google. En août 2016, Google a annoncé une répression des fenêtres pop-up mobiles.

Quelle est la prochaine étape ?

C’est peut-être difficile à croire, mais il semble qu’encore plus de changements se profilent à l’horizon.
Vers le mobile et au-delà
L’utilisation du mobile étant en hausse (51 % des médias numériques sont consommés de cette manière, contre 42 % sur un ordinateur de bureau), il est logique que le référencement continue de s’orienter dans cette direction.
C’est déjà évident avec la préférence de Google pour une expérience utilisateur adaptée au mobile. Nous prédisons qu’une future vague de référencement concernera en grande partie la recherche vocale. Cette dernière a sa propre histoire complexe et est en pleine expansion : 20 % des recherches Google sont actuellement effectuées par la voix, tout comme 25 % des recherches Bing. À cela s’ajoute l’essor des assistants personnels numériques à commande vocale, comme Alexa d’Amazon.
Bien qu’il n’y ait pas encore de méthode précise pour optimiser la recherche vocale – en grande partie à cause du manque d’analyses dans ce domaine – nous prévoyons que ces ressources deviendront disponibles, créant ainsi un autre pilier essentiel du référencement.
L’approche locale
Mais cela soulève la question de la localisation dans le référencement, et de l’optimisation des résultats pour qu’ils soient pertinents au niveau régional. C’est particulièrement vrai dans le domaine de la recherche vocale. Yelp et d’autres agrégateurs d’entreprises sont utilisés pour répondre à des requêtes vocales sur ce qui se trouve à proximité, par exemple. Il s’agit d’une opportunité de référencement pour les entreprises locales, qui doivent s’assurer que leurs listes sont « complètes, précises et optimisées pour être référencées » sur un site tiers.
Une approche sociale
Si l’introduction en 2009 de la recherche en temps réel de Google a eu quelques ramifications sociales, les médias sociaux sont en train de devenir une pièce maîtresse de la stratégie de référencement. Lorsque le moteur de recherche a commencé à indexer les tweets en 2011, par exemple, il a laissé entrevoir un avenir dans lequel les utilisateurs chercheront des informations sur les médias sociaux de la même manière qu’ils le font via la recherche. En fait, cette indexation pourrait être la version de Google d’une préparation à l’avenir – si vous pouvez l’imaginer – pour une époque où les gens n’utiliseront plus les moteurs de recherche comme nous le faisons aujourd’hui.
Par exemple, tapez le nom d’une célébrité, par exemple Charlie Rose, dont nous avons partagé la vidéo plus tôt. La première page de résultats de recherche pour son nom comprend ses profils Facebook et Twitter. De plus, jetez un coup d’œil à la barre latérale biographique sur la droite : vous y trouverez également des icônes sociales avec des liens vers ses différents réseaux. Lorsque les utilisateurs recherchent une personne, c’est l’une des premières choses qu’ils veulent voir.

Dans tous les cas, on comprend pourquoi le référencement est devenu un travail à plein temps. Son histoire ne cessera d’évoluer. Bien l’exécuter exige un haut niveau de compétence, d’éthique et de maintenance technologique.
Mais nous savons que, parfois, il n’est pas possible qu’une seule personne s’y consacre, c’est pourquoi nous continuons à créer les meilleures ressources d’apprentissage du référencement que nous pouvons.

29 des meilleurs outils SEO pour auditer et surveiller votre site Web en 2022

L’objectif du marketing est de générer du trafic et des prospects qualifiés via le site Web de l’entreprise. C’est pourquoi, en tant que spécialistes du marketing, nous devons comprendre exactement ce que nous pouvons …

Besoin de plus de visiteurs sur votre site Web ? Revenez à l’essentiel

Lorsque vous entendez le terme « SEO » ou « optimisation pour les moteurs de recherche », pour qui pensez-vous que cela implique que vous devriez optimiser votre site ? Eh bien, je vais vous donner un indice : ce n’est pas pour les moteurs …

Demander l’indexation Google pour être trouvé plus rapidement

Lors de l’indexation, les moteurs de recherche comme Google enregistrent les pages web dans leur répertoire. Seul ce qui se trouve dans ce répertoire est affiché aux utilisateurs dans dans la recherche Google. …

Votre site 100% Gratuit

Profitez de votre création de site gratuite 👍
* Offre limitée jusqu’à fin Novembre

Vous souhaitez poster un commentaire ?

0 commentaires