Optimisation des moteurs de recherche – Wikipedia

Audit SEO - Hébergement - Site Internet & Boutique E-commerce Prestashop

Optimisation des moteurs de recherche – Wikipedia

mai 13, 2019 Audits E-commerce 0

Optimisation du moteur de recherche (SEO) est le processus visant à augmenter la qualité et la quantité du trafic sur le site Web[1], visibilité accrue d'un site Web ou d'une page Web pour les utilisateurs d'un moteur de recherche Web.[[citation requise] Le terme fait référence à l'amélioration des résultats non payés (connus sous le nom de résultats "naturels" ou "organiques") et exclut l'achat d'un placement rémunéré.

Le référencement peut cibler différents types de recherche, notamment la recherche d’image, la recherche vidéo, la recherche académique,[2] recherche de nouvelles et moteurs de recherche verticaux spécifiques à une industrie.

L’optimisation d’un site Web peut impliquer la modification de son contenu, l’ajout de contenu, la modification du code HTML et le codage associé afin d’augmenter sa pertinence pour des mots clés spécifiques et de supprimer les obstacles aux activités d’indexation des moteurs de recherche.[[citation requise] Promouvoir un site pour augmenter le nombre de backlinks, ou liens entrants, est une autre tactique de référencement. En mai 2015, la recherche sur mobile avait dépassé la recherche sur le bureau.[3]

En tant que stratégie de marketing Internet, le référencement prend en compte le fonctionnement des moteurs de recherche, les algorithmes programmés par ordinateur qui dictent le comportement des moteurs de recherche, ce que les gens recherchent, les termes de recherche réels ou les mots-clés saisis dans les moteurs de recherche, ainsi que les moteurs de recherche préférés par leur public cible. Le référencement est effectué car un site Web reçoit plus de visiteurs d'un moteur de recherche que plus le site se classe dans la page de résultats des moteurs de recherche (SERP). Ces visiteurs peuvent ensuite être convertis en clients.[4]

Le référencement diffère de l'optimisation des moteurs de recherche locaux en ce que ce dernier est axé sur l'optimisation de la présence en ligne d'une entreprise, afin que ses pages Web soient affichées par les moteurs de recherche lorsqu'un utilisateur entre une recherche locale de ses produits ou services. Le premier est plutôt axé sur les recherches nationales ou internationales.

L'histoire

Les webmasters et les fournisseurs de contenu ont commencé à optimiser les sites Web pour les moteurs de recherche au milieu des années 90, au moment où les premiers moteurs de recherche cataloguaient le premier Web. Initialement, tous les webmasters n'avaient besoin que de soumettre l'adresse d'une page ou d'une URL aux différents moteurs qui enverraient un "araignée" à "explorer" cette page, en extraire des liens vers d'autres pages et renvoyer des informations trouvées sur la page. être indexé.[5] Le processus implique qu'une araignée de moteur de recherche télécharge une page et la stocke sur son propre serveur. Un deuxième programme, appelé indexeur, extrait des informations sur la page, telles que les mots qu’elle contient, leur emplacement et tout poids pour des mots spécifiques, ainsi que tous les liens contenus dans la page. Toutes ces informations sont ensuite placées dans un planificateur pour une analyse ultérieure.

Les propriétaires de sites Web ont reconnu la valeur d'un classement élevé et d'une visibilité dans les résultats des moteurs de recherche.[6] créer une opportunité pour les praticiens SEO chapeau blanc et chapeau noir. Selon l'analyste du secteur, Danny Sullivan, l'expression "optimisation des moteurs de recherche" a probablement été utilisée en 1997. Selon Sullivan, Bruce Clay est l'un des premiers à populariser ce terme.[7] Le 2 mai 2007,[8] Jason Gambert a tenté de désigner le terme SEO par une marque de commerce en convainquant le Bureau des marques en Arizona.[9] que le référencement est un "processus" impliquant la manipulation de mots-clés et non un "service marketing".

Les premières versions des algorithmes de recherche reposaient sur des informations fournies par les webmasters, telles que les balises méta de mots clés ou les fichiers d'index dans des moteurs tels que ALIWEB. Les balises méta fournissent un guide pour le contenu de chaque page. L'utilisation de métadonnées pour indexer les pages s'est toutefois révélée peu fiable, car le choix des mots clés par le webmaster dans la balise méta pourrait potentiellement être une représentation inexacte du contenu réel du site. Des données inexactes, incomplètes et incohérentes dans les balises méta pourraient et ont amené les pages à se classer pour les recherches non pertinentes.[10][[douteux ] Les fournisseurs de contenu Web ont également manipulé certains attributs au sein de la source HTML d'une page pour tenter de bien se positionner dans les moteurs de recherche.[11] En 1997, les concepteurs de moteurs de recherche ont reconnu que les webmasters s'efforçaient de bien se positionner dans leur moteur de recherche et que certains d'entre eux manipulaient même leur classement dans les résultats de recherche en bourrant des pages avec des mots clés excessifs ou non pertinents. Les premiers moteurs de recherche, tels que Altavista et Infoseek, ont ajusté leurs algorithmes pour empêcher les webmasters de manipuler les classements.[12]

En s’appuyant tellement sur des facteurs tels que la densité des mots clés qui étaient sous le contrôle exclusif d’un webmaster, les premiers moteurs de recherche ont été victimes d’abus et de manipulations de classement. Pour fournir de meilleurs résultats à leurs utilisateurs, les moteurs de recherche ont dû s’adapter pour que leurs pages de résultats affichent les résultats de recherche les plus pertinents, plutôt que des pages non liées bourrées de nombreux mots-clés par des webmasters peu scrupuleux. Cela impliquait de passer d'une forte dépendance à la densité de termes à un processus plus global d'évaluation des signaux sémantiques.[13] Étant donné que le succès et la popularité d'un moteur de recherche dépendent de sa capacité à produire les résultats les plus pertinents pour une recherche donnée, des résultats de qualité médiocre ou non pertinents pourraient inciter les utilisateurs à rechercher d'autres sources de recherche. Les moteurs de recherche ont réagi en développant des algorithmes de classement plus complexes, en tenant compte de facteurs supplémentaires plus difficiles à manipuler par les webmasters. En 2005, une conférence annuelle, AIRWeb, La recherche de l'information contradictoire sur le Web a été créée pour réunir des praticiens et des chercheurs concernés par l'optimisation des moteurs de recherche et des sujets connexes.[14]

Les entreprises qui utilisent des techniques excessivement agressives peuvent exclure les sites Web de leurs clients des résultats de recherche. En 2005, le le journal Wall Street a fait rapport sur une société, Traffic Power, qui aurait utilisé des techniques à haut risque et omis de divulguer ces risques à ses clients.[15]Filaire Le magazine a rapporté que la même société avait poursuivi le blogueur et référencement SEO Aaron Wall pour avoir écrit sur l'interdiction.[16] Matt Cutts, de Google, a confirmé par la suite que Google avait effectivement interdit Traffic Power et certains de ses clients.[17]

Certains moteurs de recherche ont également fait appel à l'industrie du référencement. Ils parrainent et invitent souvent à des conférences, webchats et séminaires sur le référencement. Les principaux moteurs de recherche fournissent des informations et des directives pour vous aider à optimiser votre site Web.[18][19] Google dispose d'un programme Sitemaps pour aider les webmasters à savoir si Google rencontre des problèmes d'indexation de leur site Web et fournit également des données sur le trafic de Google au site Web.[20]Les outils pour les webmasters de Bing permettent aux webmasters de soumettre un plan du site et des flux Web, de déterminer le "taux d'analyse" et de suivre l'état de l'index des pages Web.

En 2015, il a été signalé que Google développait et promouvait la recherche sur mobile en tant qu'élément clé des futurs produits. En réponse, de nombreuses marques ont commencé à adopter une approche différente de leurs stratégies de marketing Internet.[21]

Relation avec Google

En 1998, Larry Page et Sergey Brin, deux étudiants des cycles supérieurs de l’Université de Stanford, ont développé «Backrub», un moteur de recherche reposant sur un algorithme mathématique pour évaluer l’importance des pages Web. Le nombre calculé par l'algorithme, PageRank, est fonction de la quantité et de la force des liens entrants.[22] PageRank évalue la probabilité qu'une page donnée soit atteinte par un utilisateur Web qui navigue de manière aléatoire sur le Web et qui suit les liens d'une page à une autre. En effet, cela signifie que certains liens sont plus forts que d’autres, puisqu’une page de classement PageRank plus élevée est plus susceptible d’être atteinte par l’internaute aléatoire.

Page et Brin ont fondé Google en 1998.[23] Google a attiré un public fidèle parmi le nombre croissant d'utilisateurs d'Internet, qui ont aimé sa conception simple.[24] Des facteurs hors page (tels que le PageRank et l'analyse des hyperliens) ont été pris en compte, ainsi que des facteurs sur la page (tels que la fréquence des mots clés, les balises méta, les titres, les liens et la structure du site) afin de permettre à Google d'éviter le type de manipulation observé dans les moteurs de recherche. qui ont uniquement pris en compte les facteurs de la page pour leur classement. Bien que le PageRank soit plus difficile à jouer, les webmasters avaient déjà développé des outils de création de liens et des schémas permettant d'influencer le moteur de recherche Inktomi. Ces méthodes se sont révélées tout aussi applicables au jeu PageRank. De nombreux sites se sont concentrés sur l'échange, l'achat et la vente de liens, souvent à grande échelle. Certains de ces systèmes, ou fermes de liens, impliquaient la création de milliers de sites uniquement à des fins de spam.[25]

En 2004, les moteurs de recherche avaient intégré un large éventail de facteurs non divulgués dans leurs algorithmes de classement afin de réduire l'impact de la manipulation de liens. En juin 2007, Le New York Times' Saul Hansell a déclaré que Google classait les sites en utilisant plus de 200 signaux différents.[26] Les principaux moteurs de recherche, Google, Bing et Yahoo, ne divulguent pas les algorithmes qu’ils utilisent pour classer les pages. Certains praticiens du référencement ont étudié différentes approches d'optimisation des moteurs de recherche et ont partagé leurs opinions personnelles.[27] Les brevets liés aux moteurs de recherche peuvent fournir des informations permettant de mieux comprendre les moteurs de recherche.[28] En 2005, Google a commencé à personnaliser les résultats de recherche pour chaque utilisateur. En fonction de l'historique de leurs recherches précédentes, Google a créé des résultats pour les utilisateurs connectés.[29]

En 2007, Google a annoncé une campagne contre les liens payants qui transfèrent le PageRank.[30] Le 15 juin 2009, Google a annoncé avoir pris des mesures pour atténuer les effets de la sculpture sur le PageRank en utilisant l'attribut nofollow sur les liens. Matt Cutts, un ingénieur logiciel bien connu de Google, a annoncé que Google Bot ne traiterait plus les liens non suivis de la même manière, afin d'empêcher les fournisseurs de services de référencement d'utiliser nofollow pour sculpter PageRank.[31] À la suite de ce changement, l’utilisation de nofollow a entraîné l’évaporation du PageRank. Afin d'éviter ce qui précède, les ingénieurs en référencement ont mis au point des techniques alternatives qui remplacent les tags nofollowed par du code Javascript obfusqué et permettent ainsi de sculpter le PageRank. De plus, plusieurs solutions ont été suggérées, notamment l'utilisation d'iframes, Flash et Javascript.[32]

En décembre 2009, Google a annoncé qu'il utiliserait l'historique de recherche sur le Web de tous ses utilisateurs afin de renseigner les résultats de recherche.[33] Le 8 juin 2010, un nouveau système d'indexation Web appelé Google Caffeine a été annoncé. Conçu pour permettre aux utilisateurs de trouver les résultats des actualités, les messages de forum et d’autres contenus beaucoup plus rapidement après leur publication, la caféine de Google a changé la façon dont Google a mis à jour son index afin que les choses apparaissent plus rapidement sur Google qu’avant. Selon Carrie Grimes, l'ingénieur en logiciel qui a annoncé Caffeine pour Google, "La caféine fournit des résultats 50% plus récents pour les recherches sur le Web que notre dernier index …"[34]Google Instant, la recherche en temps réel, a été introduite à la fin de 2010 dans le but de rendre les résultats de la recherche plus pertinents et à jour. Historiquement, les administrateurs de site ont passé des mois voire des années à optimiser un site Web afin d’améliorer le classement dans les résultats de recherche. Avec la popularité croissante des sites de médias sociaux et des blogs, les principaux moteurs ont modifié leurs algorithmes pour permettre aux nouveaux contenus de figurer rapidement dans les résultats de recherche.[35]

En février 2011, Google a annoncé la mise à jour de Panda, qui pénalise les sites Web contenant du contenu dupliqué à partir d'autres sites Web et sources. Historiquement, les sites Web ont copié le contenu les uns des autres et ont tiré profit du classement des moteurs de recherche en se livrant à cette pratique. Cependant, Google a mis en place un nouveau système qui punit les sites dont le contenu n’est pas unique.[36] Le Google Penguin 2012 a tenté de pénaliser les sites Web utilisant des techniques de manipulation pour améliorer leur classement sur le moteur de recherche.[37] Bien que Google Penguin ait été présenté comme un algorithme visant à lutter contre le spam sur le Web, il se concentre vraiment sur les liens spammés.[38] en évaluant la qualité des sites d'où proviennent les liens. La mise à jour Google Hummingbird 2013 proposait un changement d'algorithme conçu pour améliorer le traitement du langage naturel et la compréhension sémantique des pages Web par Google. Le système de traitement de la langue de Hummingbird relève du nouveau terme de 'Recherche conversationnelle ' où le système accorde plus d'attention à chaque mot de la requête afin de mieux faire correspondre les pages au sens de la requête plutôt qu'à quelques mots [39]. En ce qui concerne les modifications apportées à l'optimisation des moteurs de recherche pour les éditeurs et les rédacteurs de contenu, Hummingbird vise à résoudre les problèmes en éliminant le contenu non pertinent et le spam, ce qui permet à Google de produire un contenu de haute qualité et de compter sur eux pour être des auteurs dignes de confiance. .

Les méthodes

Se faire indexer

Les moteurs de recherche utilisent des algorithmes mathématiques complexes pour interpréter les sites Web recherchés par un utilisateur. Dans ce diagramme, si chaque bulle représente un site Web, des programmes parfois appelés les araignées examinez quels sites pointent vers d'autres sites, avec des flèches représentant ces liens. Les sites Web générant plus de liens entrants, ou des liens plus forts, sont supposés être plus importants et ce que recherche l'utilisateur. Dans cet exemple, étant donné que le site Web B est le destinataire de nombreux liens entrants, il se classe mieux dans une recherche Web. Et les liens «subsistent», de sorte que le site Web C, même s’il ne comporte qu’un seul lien entrant, possède un lien entrant depuis un site très populaire (B), alors que le site E ne l’a pas. Remarque: les pourcentages sont arrondis.

Les principaux moteurs de recherche, tels que Google, Bing et Yahoo !, utilisent des robots pour rechercher des pages pour leurs résultats de recherche algorithmiques. Les pages liées à partir d'autres pages indexées dans les moteurs de recherche n'ont pas besoin d'être soumises car elles sont automatiquement trouvées. Le Yahoo! Directory et DMOZ, deux annuaires majeurs fermés respectivement en 2014 et 2017, nécessitaient tous deux une soumission manuelle et une révision éditoriale humaine.[40] Google propose la console de recherche Google pour laquelle un flux de plan Sitemap XML peut être créé et soumis gratuitement afin de garantir la recherche de toutes les pages, en particulier des pages non détectables en suivant automatiquement les liens.[41] en plus de leur console de soumission d'URL.[42] Yahoo! exploitait auparavant un service de soumission payant qui garantissait l'exploration pour un coût par clic;[43] toutefois, cette pratique a été abandonnée en 2009.

Les robots des moteurs de recherche peuvent examiner différents facteurs lors de l’exploration d’un site. Toutes les pages ne sont pas indexées par les moteurs de recherche. La distance des pages par rapport au répertoire racine d'un site peut également être un facteur déterminant dans le fait que les pages soient explorées ou non.[44]

Aujourd'hui, la plupart des internautes effectuent des recherches sur Google à l'aide d'un appareil mobile.[45] En novembre 2016, Google a annoncé un changement majeur dans la manière d'explorer les sites Web et a commencé à faire de leur index une première sur mobile, ce qui signifie que la version mobile de votre site Web devient le point de départ de ce que Google inclut dans leur index.[46]

Prévenir l'exploration

Pour éviter tout contenu indésirable dans les index de recherche, les webmasters peuvent demander aux araignées de ne pas analyser certains fichiers ou répertoires via le fichier robots.txt standard situé dans le répertoire racine du domaine. De plus, une page peut être explicitement exclue de la base de données d'un moteur de recherche en utilisant une balise méta spécifique aux robots (généralement ). Lorsqu'un moteur de recherche visite un site, le fichier robots.txt situé dans le répertoire racine est le premier fichier analysé. Le fichier robots.txt est ensuite analysé et indiquera au robot quelles pages ne doivent pas être explorées. Comme un robot de moteur de recherche peut conserver une copie en cache de ce fichier, il peut parfois analyser les pages qu'un webmaster ne souhaite pas explorer. Les pages dont l’exploration est généralement empêchée incluent les pages spécifiques à la connexion, telles que les paniers et le contenu spécifique à l’utilisateur, telles que les résultats de recherche issus de recherches internes. En mars 2007, Google a averti les webmasters qu'ils devaient interdire l'indexation des résultats de recherche internes car ces pages étaient considérées comme du spam de recherche.[47]

Une notoriété croissante

Une variété de méthodes peut augmenter la visibilité d'une page Web dans les résultats de recherche. Les liens croisés entre les pages d'un même site Web pour fournir davantage de liens vers des pages importantes peuvent améliorer sa visibilité.[48]

L'écriture de contenu incluant des mots clés fréquemment recherchés, de manière à être pertinente pour une grande variété de requêtes de recherche, aura tendance à augmenter le trafic.[48] La mise à jour du contenu de manière à ce que les moteurs de recherche reviennent fréquemment dans le passé peut donner plus de poids à un site. L'ajout de mots clés pertinents aux métadonnées d'une page Web, notamment la balise de titre et la méta description, aura tendance à améliorer la pertinence des listes de recherche d'un site, augmentant ainsi le trafic. Canonisation d'URL de pages Web accessibles via plusieurs URL, à l'aide de l'élément de lien canonique[49] ou via les redirections 301 peuvent vous aider à vous assurer que les liens vers les différentes versions de l'URL comptent pour le score de popularité de la page.

Techniques du chapeau blanc contre le chapeau noir

Les techniques de référencement peuvent être classées en deux grandes catégories: les techniques recommandées par les moteurs de recherche dans le cadre d’une bonne conception ("chapeau blanc") et les techniques que les moteurs de recherche n’approuvent pas ("chapeau noir"). Les moteurs de recherche tentent de minimiser l’effet de ces derniers, notamment le spamdexing. Les commentateurs de l'industrie ont classé ces méthodes, et les praticiens qui les utilisent, en tant que SEO blanc ou SEO noir.[50] Les chapeaux blancs ont tendance à produire des résultats qui durent longtemps, tandis que les chapeaux noirs prévoient que leurs sites pourront éventuellement être interdits, de manière temporaire ou permanente, une fois que les moteurs de recherche auront découvert ce qu’ils faisaient.[51]

Une technique de référencement est considérée comme un chapeau blanc si elle est conforme aux directives des moteurs de recherche et ne comporte aucune déception. Comme les directives du moteur de recherche[18][19][52] ne sont pas écrits comme une série de règles ou de commandements, c’est une distinction importante à noter. White Hat SEO ne consiste pas seulement à suivre des directives, mais à faire en sorte que le contenu indexé par un moteur de recherche et classé par la suite soit identique à celui qu'un utilisateur verra. Le conseil en chapeau blanc se résume généralement à créer du contenu pour les utilisateurs, et non pour les moteurs de recherche, et à rendre ce contenu facilement accessible aux algorithmes en ligne "d'araignée", plutôt que d'essayer de détourner l'algorithme de son objectif. White Hat SEO est à bien des égards similaire au développement Web qui favorise l'accessibilité,[53] bien que les deux ne soient pas identiques.

Black Hat SEO tente d'améliorer les classements d'une manière qui est désapprouvée par les moteurs de recherche, ou implique la déception. Une technique de chapeau noir utilise un texte qui est masqué, sous forme de texte coloré similaire à l’arrière-plan, dans un div invisible ou placé hors écran. Une autre méthode donne une page différente selon que la page est demandée par un visiteur humain ou par un moteur de recherche, technique connue sous le nom de cloaking. Une autre catégorie parfois utilisée est le référencement SEO. Cela se situe entre les approches Black Hat et White Hat, où les méthodes utilisées évitent que le site ne soit pénalisé, mais n'agissent pas pour produire le meilleur contenu possible pour les utilisateurs. Gray Hat SEO est entièrement concentré sur l'amélioration du classement des moteurs de recherche.

Les moteurs de recherche peuvent pénaliser les sites qu’ils découvrent en utilisant des méthodes de type chapeau noir, soit en réduisant leur classement, soit en éliminant complètement leurs listes de leurs bases de données. Ces pénalités peuvent être appliquées soit automatiquement par les algorithmes des moteurs de recherche, soit par une révision manuelle du site. Un exemple en a été le retrait, en février 2006, de BMW Allemagne et de Ricoh Allemagne par Google, pour avoir eu recours à des pratiques trompeuses.[54] Cependant, les deux sociétés se sont rapidement excusées, ont corrigé les pages incriminées et ont été restaurées sur la page de résultats du moteur de recherche de Google.[55]

Comme stratégie marketing

Le référencement n’est pas une stratégie appropriée pour tous les sites Web et d’autres stratégies de marketing Internet peuvent être plus efficaces, telles que la publicité payée via des campagnes de paiement au clic (PPC), en fonction des objectifs de l’exploitant du site. Le marketing par moteur de recherche (SEM) consiste à concevoir, exécuter et optimiser des campagnes publicitaires dans les moteurs de recherche.[56] Sa différence par rapport au référencement est plus simplement décrite comme la différence entre le classement de priorité payé et non payé dans les résultats de recherche. Son but concerne plus la notoriété que la pertinence; Les développeurs de sites Web doivent accorder une importance primordiale à la visibilité de SEM, compte tenu de la visibilité, car la plupart d'entre eux accèdent aux principales listes de leurs recherches.[57] Une campagne de marketing Internet réussie peut également dépendre de la création de pages Web de haute qualité pour susciter l'engagement et la persuasion, la mise en place de programmes d'analyse permettant aux propriétaires de sites de mesurer les résultats et l'amélioration du taux de conversion d'un site.[58] En novembre 2015, Google a publié une version complète de 160 pages de ses règles d'évaluation de la qualité de la recherche,[59] qui a révélé un changement dans leur intérêt pour "l'utilité" et la recherche mobile. Ces dernières années, le marché de la téléphonie mobile a explosé, dépassant l'utilisation des ordinateurs de bureau, comme l'a montré StatCounter en octobre 2016, qui a analysé 2,5 millions de sites Web et constaté que 51,3% des pages étaient chargées à l'aide d'un appareil mobile. [60]. Google est l'une des sociétés qui profite de la popularité de l'utilisation du mobile en encourageant les sites Web à utiliser leur console de recherche Google. Test adapté aux mobiles, qui permet aux entreprises d’adapter leur site Web aux résultats des moteurs de recherche et à la convivialité de ce dernier.

Le référencement peut générer un retour sur investissement adéquat. Toutefois, les moteurs de recherche ne sont pas rémunérés pour le trafic de recherche organique, leurs algorithmes changent et rien ne garantit une référence continue. En raison de ce manque de garantie et de certitude, une entreprise qui s'appuie fortement sur le trafic des moteurs de recherche peut subir de lourdes pertes si les moteurs de recherche cessent d'envoyer des visiteurs.[61] Les moteurs de recherche peuvent modifier leurs algorithmes, ce qui peut avoir un impact sur l'emplacement d'un site Web et entraîner une perte de trafic importante. Selon le président de Google, Eric Schmidt, Google a apporté plus de 500 modifications d'algorithme en 2010, soit près de 1,5 par jour.[62] Il est considéré comme une pratique commerciale sage pour les opérateurs de sites Web de se libérer de la dépendance au trafic des moteurs de recherche.[63] Outre l'accessibilité en termes de robots Web (voir ci-dessus), l'accessibilité Web des utilisateurs est devenue de plus en plus importante pour le référencement.

Marchés internationaux

Les techniques d'optimisation sont hautement adaptées aux principaux moteurs de recherche du marché cible.
Les parts de marché des moteurs de recherche varient d'un marché à l'autre, tout comme la concurrence.
En 2003, Danny Sullivan a déclaré que Google représentait environ 75% de toutes les recherches.[64] En dehors des États-Unis, la part de Google est souvent plus importante et, à compter de 2007, Google reste le principal moteur de recherche dans le monde.[65] En 2006, Google détenait une part de marché de 85 à 90% en Allemagne.[66] À l'époque, il y avait des centaines de sociétés de référencement aux États-Unis, mais il n'y en avait que cinq environ en Allemagne.[66] En juin 2008, la part de marché de Google au Royaume-Uni était proche de 90% selon Hitwise.[67] Cette part de marché est réalisée dans un certain nombre de pays.

En 2009, Google n'était pas le premier moteur de recherche sur quelques grands marchés. Dans la plupart des cas, lorsque Google n’est pas leader sur un marché donné, il est en retard sur un acteur local. Les exemples les plus remarquables sont la Chine, le Japon, la Corée du Sud, la Russie et la République tchèque, où se trouvent respectivement Baidu, Yahoo! Le Japon, Naver, Yandex et Seznam sont les leaders du marché.

L’optimisation des recherches sur les marchés internationaux peut nécessiter une traduction professionnelle des pages Web, l’enregistrement d’un nom de domaine auprès d’un domaine de premier niveau du marché cible et un hébergement Web fournissant une adresse IP locale. Sinon, les éléments fondamentaux de l'optimisation de la recherche sont essentiellement les mêmes, quelle que soit la langue.[66]

Jurisprudence

Le 17 octobre 2002, SearchKing a intenté un recours contre le moteur de recherche Google devant le tribunal de district des États-Unis, dans le district ouest de l'Oklahoma. SearchKing affirmait que la tactique de Google visant à empêcher le spam-spam constituait une ingérence délictuelle dans les relations contractuelles. Le 27 mai 2003, le tribunal a accueilli la requête de Google visant à ce que sa plainte soit rejetée, car SearchKing "n'avait pas formulé de revendication susceptible de permettre une réparation".[68][69]

En mars 2006, KinderStart a intenté une action en justice contre Google concernant le classement des moteurs de recherche. Le site Web de KinderStart a été supprimé de l'index de Google avant le procès et le trafic sur le site a diminué de 70%. Le 16 mars 2007, le tribunal de district des États-Unis du district nord de la Californie (division San Jose) a rejeté la plainte de KinderStart sans autorisation, et a partiellement fait droit à la requête de Google visant à obtenir des sanctions au titre de la règle 11 contre l'avocat de KinderStart, l'obligeant à payer une partie des frais de justice de Google. les dépenses.[70][71]

Voir également

Remarques

  1. ^ "SEO – optimisation de moteur de recherche". Webopedia.
  2. ^ Beel, Jöran et Gipp, Bela et Wilde, Erik (2010). "Optimisation académique des moteurs de recherche (ASEO): optimisation de la littérature scientifique pour Google Scholar and Co" (PDF). Journal of Scholarly Publishing. pp. 176–190. Récupéré 18 avril 2010.CS1 maint: Noms multiples: liste des auteurs (lien)
  3. ^ "Dans AdWords: construire pour le moment suivant" Google Inside Adwords 15 mai 2015.
  4. ^ Ortiz-Cordova, A. et Jansen, B. J. (2012), Classification des requêtes de recherche sur le Web afin d'identifier les clients générant des revenus élevés. Journal de la société américaine pour les sciences de l'information et de la technologie. 63 (7), 1426-1441.
  5. ^ Brian Pinkerton. "Trouver ce que les gens veulent: expériences avec le WebCrawler" (PDF). Deuxième conférence internationale sur le Web, Chicago, États-Unis, du 17 au 20 octobre 1994. Récupéré 7 mai 2007.
  6. ^ "Introduction à l'optimisation de Search Engine | Montre de Search Engine". searchenginewatch.com. Récupéré 29 juin 2017.
  7. ^ Danny Sullivan (14 juin 2004). "Qui a inventé le terme" Optimisation de moteur de recherche "?". Montre de moteur de recherche. Archivé de l'original le 23 avril 2010. Récupéré 14 mai 2007. Voir le fil des groupes Google.
  8. ^ "Demande de marque de commerce / de service, Registre principal". Récupéré 30 mai 2014.
  9. ^ "Certification de nom commercial". État de l'Arizona.
  10. ^ Cory Doctorow (26 août 2001). "Métacrap: Mettre le flambeau à sept hommes de la méta-utopie". e-LearningGuru. Archivé de l'original le 9 avril 2007. Récupéré 8 mai 2007.
  11. ^ Pringle, G., Allison, L. et Dowe, D. (avril 1998). "Qu'est-ce qu'un grand coquelicot parmi les pages Web?". Proc. 7ème Int. Conférence sur le Web. Récupéré 8 mai 2007.CS1 maint: Noms multiples: liste des auteurs (lien)
  12. ^ Laurie J. Flynn (11 novembre 1996). "Cherchant désespérément des surfeurs". New York Times. Récupéré Le 9 mai 2007.
  13. ^ Jason Demers (20 janvier 2016). "La densité de mots-clés est-elle toujours importante pour le référencement". Forbes. Récupéré 15 août, 2016.
  14. ^ "AIRWeb". Recherche d'informations contradictoires sur le Web, conférence annuelle. Récupéré 4 octobre 2012.
  15. ^ David Kesmodel (22 septembre 2005). "Les sites sont supprimés par les moteurs de recherche après avoir essayé d '" optimiser "les classements". le journal Wall Street. Récupéré 30 juillet 2008.
  16. ^ Adam L. Penenberg (8 septembre 2005). "L'affrontement juridique dans les recherches Fracas". Magazine filaire. Récupéré 11 août 2016.
  17. ^ Matt Cutts (2 février 2006). "Confirmer une pénalité". mattcutts.com/blog. Récupéré Le 9 mai 2007.
  18. ^ une b "Directives de Google sur la conception de sites". google.com. Récupéré 18 avril 2007.
  19. ^ une b "Directives pour les webmasters Bing". bing.com. Récupéré 11 septembre, 2014.
  20. ^ "Sitemaps". google.com. Récupéré 4 mai 2012.
  21. ^ "Par les données: pour les consommateurs, le mobile est l'Internet" Démarrage de Google pour les entrepreneurs Grind 20 septembre 2015.
  22. ^ Brin, Sergey & Page, Larry (1998). "L'anatomie d'un moteur de recherche Web hypertextuel à grande échelle". Actes de la septième conférence internationale sur le World Wide Web. pp. 107–117. Récupéré 8 mai 2007.
  23. ^ "Les co-fondateurs de Google n'ont peut-être pas le nom de Bill Gates, mais leur laissent du temps: Google n'a pas été aussi long que Microsoft". 15 octobre 2008.
  24. ^ Thompson, Bill (19 décembre 2003). "Google est-il bon pour vous?". nouvelles de la BBC. Récupéré 16 mai 2007.
  25. ^ Zoltan Gyongyi et Hector Garcia-Molina (2005). "Alliances Spam" (PDF). Actes de la 31ème conférence du VLDB, Trondheim, Norvège. Récupéré Le 9 mai 2007.
  26. ^ Hansell, Saul (3 juin 2007). "Google continue de peaufiner son moteur de recherche". New York Times. Récupéré 6 juin 2007.
  27. ^ Danny Sullivan (29 septembre 2005). "Rundown On Search Ranking Factors". Montre de moteur de recherche. Archivé de l'original le 28 mai 2007. Récupéré 8 mai 2007.
  28. ^ Christine Churchill (23 novembre 2005). "Comprendre les brevets des moteurs de recherche". Montre de moteur de recherche. Archivé de l'original le 7 février 2007. Récupéré 8 mai 2007.
  29. ^ "La recherche personnalisée de Google quitte Google Labs". searchenginewatch.com. Moteur de recherche. Récupéré 5 septembre 2009.
  30. ^ "8 choses que nous avons apprises au sujet de Google PageRank". www.searchenginejournal.com. Récupéré 17 août 2009.
  31. ^ "Sculpture PageRank". Matt Cutts. Récupéré 12 janvier 2010.
  32. ^ "Google perd la" compatibilité ascendante "sur le blocage de liens rémunérés et le découpage PageRank". searchengineland.com. Récupéré 17 août 2009.
  33. ^ "Recherche personnalisée pour tout le monde". Google. Récupéré 14 décembre 2009.
  34. ^ "Notre nouvel index de recherche: la caféine". Google: Blog officiel. Récupéré 10 mai 2014.
  35. ^ "La pertinence rencontre le Web en temps réel". Google Blog.
  36. ^ "Mises à jour sur la qualité des recherches Google". Google Blog.
  37. ^ "Ce que vous devez savoir sur la mise à jour Google Penguin de Google". Inc.com.
  38. ^ "Google Penguin regarde principalement votre source de lien, dit Google". Moteur de recherche. 10 octobre 2016. Récupéré 20 avril 2017.
  39. ^ "FAQ: Tout sur le nouvel algorithme" "Colibri" de Google. www.searchengineland.com. Récupéré Le 17 mars, 2018.
  40. ^ "Soumission aux annuaires: Yahoo et l'Open Directory". Montre de moteur de recherche. 12 mars 2007. Archivé de l'original le 19 mai 2007. Récupéré 15 mai 2007.
  41. ^ "Qu'est-ce qu'un fichier Sitemap et pourquoi devrais-je en avoir un?". google.com. Récupéré 19 mars 2007.
  42. ^ "Console de recherche – URL à explorer". Google. Récupéré 18 décembre 2015.
  43. ^ "Soumettre aux robots de recherche: Google, Yahoo, Ask et Microsoft Live Search". Montre de moteur de recherche. 12 mars 2007. Archivé de l'original le 10 mai 2007. Récupéré 15 mai 2007.
  44. ^ Cho, J., Garcia-Molina, H. (1998). "Analyse efficace via la commande d'URL". Actes de la septième conférence sur le World Wide Web, Brisbane, Australie. Récupéré Le 9 mai 2007.CS1 maint: Noms multiples: liste des auteurs (lien)
  45. ^ "Mobile-first Index". Google.com. Récupéré 19 mars 2018.
  46. ^ Phan, Doantam (4 novembre 2016). "Mobile-first Indexing". Blog officiel de Google Webmaster Central. Google. Récupéré 16 janvier 2019.
  47. ^ "Journaux Amok! New York Times spammant Google? LA Times détournant Cars.com?". Moteur de recherche Terre. 8 mai 2007. Récupéré Le 9 mai 2007.
  48. ^ une b "La stratégie de référencement la plus importante". clickz.com. ClickZ. Récupéré 18 avril 2010.
  49. ^ "Bing – Partenariat pour aider à résoudre les problèmes de contenu en double – Blog de Webmaster – Communauté Bing". www.bing.com. Récupéré 30 octobre 2009.
  50. ^ Andrew Goodman. "Search Engine Showdown: Chapeaux noirs contre les chapeaux blancs à SES". SearchEngineWatch. Archivé de l'original le 22 février 2007. Récupéré Le 9 mai 2007.
  51. ^ Jill Whalen (16 novembre 2004). "Optimisation de moteur de recherche Black Hat / White Hat". searchengineguide.com. Récupéré Le 9 mai 2007.
  52. ^ "Qu'est-ce qu'un référencement? Google recommande-t-il de travailler avec des entreprises qui proposent de rendre mon site compatible avec Google?". google.com. Récupéré 18 avril 2007.
  53. ^ Andy Hagans (8 novembre 2005). "Une accessibilité élevée est une optimisation efficace du moteur de recherche". Une liste à part. Récupéré Le 9 mai 2007.
  54. ^ Matt Cutts (4 février 2006). "Ramping up sur webspam international". mattcutts.com/blog. Récupéré Le 9 mai 2007.
  55. ^ Matt Cutts (7 février 2006). "Réinclusions récentes". mattcutts.com/blog. Récupéré Le 9 mai 2007.
  56. ^ "Introduction à l'optimisation des moteurs de recherche: Débuter avec le référencement pour atteindre les objectifs de l'entreprise" (PDF).
  57. ^ Tapan, Panda (juillet 2013). "Marketing de moteur de recherche: le processus de découverte des connaissances aide-t-il les détaillants en ligne?". IUP Journal of Knowledge Management; Hyderabad. 11 (3): 56–66 – via Proquest.
  58. ^ Melissa Burdon (13 mars 2007). "La bataille entre l'optimisation de Search Engine et la conversion: Qui gagne?". Grok.com. Archivé de l'original le 15 mars 2008. Récupéré 10 avril 2017.
  59. ^ "Directives pour les évaluateurs de qualité de recherche" Comment fonctionne la recherche 12 novembre 2015.
  60. ^ Titcomb, James. "L'utilisation du Web mobile dépasse le bureau pour la première fois". www.telegraph.co.uk. Le télégraphe. Récupéré Le 17 mars, 2018.
  61. ^ Andy Greenberg (30 avril 2007). "Condamné à Google Hell". Forbes. Archivé de l'original le 2 mai 2007. Récupéré Le 9 mai 2007.
  62. ^ Matt McGee (21 septembre 2011). "Le témoignage de Schmidt révèle comment Google teste les changements d'algorithme".
  63. ^ Jakob Nielsen (9 janvier 2006). "Les moteurs de recherche comme sangsues sur le Web". useit.com. Récupéré 14 mai 2007.
  64. ^ Graham, Jefferson (26 août 2003). "Le moteur de recherche qui pourrait". États-Unis aujourd'hui. Récupéré 15 mai 2007.
  65. ^ Greg Jarboe (22 février 2007). "Stats Show Google domine le paysage de la recherche internationale". Moteur de recherche. Récupéré 15 mai 2007.
  66. ^ une b c Mike Grehan (3 avril 2006). "Optimisation de moteur de recherche pour l'Europe". Cliquez sur. Récupéré 14 mai 2007.
  67. ^ Jack Schofield (10 juin 2008). "Google UK ferme à 90% de part de marché". Londres: Guardian. Récupéré 10 juin 2008.
  68. ^ "Recherche King, Inc. c. Google Technology, Inc., CIV-02-1457-M" (PDF). docstoc.com. 27 mai 2003. Récupéré 23 mai 2008.
  69. ^ Stefanie Olsen (30 mai 2003). "Le juge rejette l'action contre Google". CNET. Récupéré 10 mai 2007.
  70. ^
    "Blogue Droit de la technologie et du marketing: KinderStart v. Google rejeté – avec des sanctions contre l'avocat de KinderStart". blog.ericgoldman.org. Récupéré 23 juin 2008.
  71. ^
    "Blog de droit de technologie et de marketing: Google poursuivi au-dessus des rangs—KinderStart.com v. Google". blog.ericgoldman.org. Récupéré 23 juin 2008.

Liens externes


Optimisation des moteurs de recherche – Wikipedia
Qu\'en pensez vous ?

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *