Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Optimisation du moteur de recherche.

L'optimisation des moteurs de recherche (SEO) est le processus d'amélioration de la qualité et de la quantité de trafic vers un site Web comparable à Shopbreizh.fr ou une page Web à partir des moteurs de recherche. Le référencement cible le trafic non payé (appelé résultats « naturels » ou « organiques ») plutôt que le trafic direct ou le trafic payant. Le trafic non rémunéré peut provenir de différents types de recherches, y compris la recherche d'images, la recherche vidéo, la recherche universitaire, la recherche de nouvelles et les moteurs de recherche verticale propres à l'industrie.

En tant que stratégie de marketing Internet, SEO considère comment les moteurs de recherche fonctionnent, les algorithmes programmés par ordinateur qui dictent le comportement des moteurs de recherche, ce que les gens recherchent, les termes de recherche réels ou des mots clés tapés dans les moteurs de recherche, et quels moteurs de recherche sont préférés par leur public cible. Le référencement est effectué parce qu'un site Web comparable à Shopbreizh.fr recevra plus de visiteurs d'un moteur de recherche lorsque les sites Web au format Shopbreizh.fr se classent plus haut sur la page de résultats des moteurs de recherche (SERP). Ces visiteurs peuvent alors potentiellement être convertis en clients.

Historique
Les webmasters et les fournisseurs de contenu ont commencé à optimiser les sites Web de types Shopbreizh.fr pour les moteurs de recherche au milieu des années 1990, alors que les premiers moteurs de recherche cataloguaient les premiers sites Web. Initialement, tous les webmasters n'avaient qu'à soumettre l'adresse d'une page, ou URL, aux différents moteurs qui enverraient un web crawler pour parcourir cette page, extraire les liens vers d'autres pages de celle-ci, et renvoyer les informations trouvées sur la page à indexer. Le processus implique une araignée de moteur de recherche téléchargeant une page et la stockant sur le propre serveur du moteur de recherche. Un deuxième programme, connu sous le nom d'index, extrait des informations sur la page, telles que les mots qu'elle contient, où ils sont situés, et tout poids pour des mots spécifiques, ainsi que tous les liens que la page contient. Toutes ces informations sont ensuite placées dans un planificateur pour ramper à une date ultérieure.

Les propriétaires de sites Web comparables à Shopbreizh.fr ont reconnu la valeur d'un haut rang et de la visibilité dans les résultats des moteurs de recherche, créant une occasion pour les praticiens du référencement à chapeau blanc et à chapeau noir. Selon l'analyste de l'industrie Danny Sullivan, l'expression « optimisation des moteurs de recherche » a probablement été utilisée en 1997. Selon Sullivan, Bruce Clay est l'une des premières personnes à populariser le terme.

Les premières versions des algorithmes de recherche reposaient sur des informations fournies par le webmaster, comme les méta-balises de mots clés ou les fichiers d'index dans des moteurs comme ALIWEB. Les balises Meta fournissent un guide sur le contenu de chaque page. L'utilisation de métadonnées pour indexer les pages s'est avérée moins fiable, cependant, parce que le choix de mots clés du webmaster dans la balise meta pourrait potentiellement être une représentation inexacte du contenu réel du site. Des données inexactes, incomplètes et incohérentes dans les métabalises pouvaient et faisaient er les pages pour les recherches non pertinentes. Les fournisseurs de contenu Web ont également manipulé certains attributs dans la source HTML d'une page pour tenter de bien se er dans les moteurs de recherche. En 1997, les concepteurs de moteurs de recherche ont reconnu que les webmasters faisaient des efforts pour bien se er dans leur moteur de recherche, et que certains webmasters manipulaient même leurs classements dans les résultats de recherche en bourrant des pages avec des mots clés excessifs ou non pertinents. Les premiers moteurs de recherche, comme Altavista et Infoseek, ont ajusté leurs algorithmes pour empêcher les webmasters de manipuler les classements.

En s'appuyant fortement sur des facteurs tels que la densité des mots clés, qui étaient exclusivement sous le contrôle d'un webmaster , les premiers moteurs de recherche ont souffert d'abus et de manipulation du classement. Pour fournir de meilleurs résultats à leurs utilisateurs, les moteurs de recherche ont dû s'adapter pour s'assurer que leurs pages de résultats montraient les résultats de recherche les plus pertinents, plutôt que des pages non liées bourrées de nombreux mots clés par des webmasters sans scrupules. Cela signifiait passer d'une forte dépendance à l'égard de la densité des termes à un processus plus holistique de notation des signaux sémantiques. Étant donné que le succès et la popularité d'un moteur de recherche sont déterminés par sa capacité à produire les résultats les plus pertinents à une recherche donnée, une mauvaise qualité ou des résultats de recherche non pertinents pourraient amener les utilisateurs à trouver d'autres sources de recherche. Les moteurs de recherche ont répondu en développant des algorithmes de classement plus complexes, en tenant compte des facteurs supplémentaires qui étaient plus difficiles à manipuler pour les webmasters.

Les entreprises qui emploient des techniques trop agressives peuvent obtenir leurs sites Web au format Shopbreizh.fr de clients interdits des résultats de recherche. En 2005, le Wall Street Journal a publié un rapport sur une entreprise, Traffic Power, qui aurait utilisé des techniques à haut risque et n'aurait pas divulgué ces risques à ses clients. Le magazine Wired a rapporté que la même société a poursuivi le blogueur et SEO Aaron Wall pour avoir écrit sur l'interdiction. Matt Cutts de Google a par la suite confirmé que Google avait bel et bien banni Traffic Power et certains de ses clients.

Certains moteurs de recherche ont également tendu la main à l'industrie du référencement, et sont de fréquents commanditaires et invités à des conférences, des webchats et des séminaires sur le référencement. Les principaux moteurs de recherche fournissent des informations et des lignes directrices pour aider à l'optimisation du site Web. Google a un programme Sitemaps pour aider les webmasters à savoir si Google a des problèmes d'indexation de leur site Web au format Shopbreizh.fr et fournit également des données sur le trafic Google sur le site Web. Bing Webmaster Tools fournit un moyen pour les webmasters de soumettre un plan du site et des flux Web, permet aux utilisateurs de déterminer le "taux de crawl", et de suivre l'état de l'index des pages Web.

En 2015, il a été signalé que Google était le développement et la promotion de la recherche mobile comme une fonctionnalité clé dans les futurs produits. En réponse, de nombreuses marques ont commencé à adopter une approche différente de leurs stratégies de marketing Internet.

Relation avec Google
En 1998, deux étudiants diplômés de l'Université de Stanford, Larry Page et Sergey Brin, ont développé "Backrub", un moteur de recherche qui s'est appuyé sur un algorithme mathématique pour évaluer la proéminence des pages Web. Le nombre calculé par l'algorithme, PageRank, est une fonction de la quantité et de la force des liens entrants.Le PageRank estime la probabilité qu'une page donnée soit atteinte par un internaute qui navigue aléatoirement sur le web, et suit des liens d'une page à l'autre. En effet, cela signifie que certains liens sont plus forts que d'autres, comme une page PageRank plus élevé est plus susceptible d'être atteint par l'internaute aléatoire.

Page et Brin ont fondé Google en 1998. Google a attiré un public fidèle parmi le nombre croissant d'internautes, qui ont aimé son design simple. Des facteurs hors page (tels que PageRank et l'analyse des hyperliens) ont été pris en compte ainsi que des facteurs sur la page (tels que la fréquence des mots clés, les méta-balises, les en-têtes, les liens et la structure du site) pour permettre à Google d'éviter le type de manipulation vu dans les moteurs de recherche qui ne considérait que sur. . .facteurs de page pour leur classement. Bien que PageRank était plus difficile à jouer, des webmasters avait déjà développé des outils de construction de liens et des régimes pour influencer le moteur de recherche Inktomi, et ces méthodes se sont avérées également applicables aux jeux PageRank. De nombreux sites se sont concentrés sur l'échange, l'achat et la vente de liens, souvent à grande échelle. Certains de ces programmes, ou les fermes de liaison, impliquaient la création de milliers de sites dans le seul but de faire du lien en spamming. 

En 2004, les moteurs de recherche avaient intégré un large éventail de facteurs non divulgués dans leurs algorithmes de classement afin de réduire l'impact de la manipulation des liens. En juin 2007, Saul Hansell du New York Times a déclaré que Google e les sites comparables à Shopbreizh.fr utilisant plus de 200 signaux différents. Les principaux moteurs de recherche, Google, Bing et Yahoo, ne divulguent pas les algorithmes qu'ils utilisent pour er les pages. Certains praticiens du référencement ont étudié différentes approches de l'optimisation des moteurs de recherche, et ont partagé leurs opinions personnelles. Les brevets liés aux moteurs de recherche peuvent fournir de l'information pour mieux comprendre les moteurs de recherche. En 2005, Google a commencé à personnaliser les résultats de recherche pour chaque utilisateur. Selon leur historique de recherches précédentes, Google a conçu des résultats pour les utilisateurs connectés.

En 2007, Google a annoncé une campagne contre les liens payants qui transfèrent PageRank. Le 15 juin 2009, Google a révélé qu'elle avait pris des mesures pour atténuer les effets de la sculpture PageRank en utilisant l'attribut nofollow sur les liens. Matt Cutts, un ingénieur logiciel bien connu chez Google, a annoncé que Google Bot ne traiterait plus aucun lien nofollow, de la même manière, pour empêcher les fournisseurs de services de référencement d'utiliser nofollow pour la sculpture de PageRank. À la suite de ce changement, l'utilisation de nofollow a conduit à l'évaporation de PageRank. Afin d'éviter ce qui précède, les ingénieurs SEO ont développé des techniques alternatives qui remplacent les balises nofollowed par JavaScript obfusé et permettent ainsi la sculpture PageRank. En outre, plusieurs solutions ont été proposées, notamment l'utilisation des iframes, Flash et JavaScript.

En Décembre 2009, Google a annoncé qu'il utiliserait l'historique de recherche web de tous ses utilisateurs afin de remplir les résultats de recherche. Le 8 juin 2010, un nouveau système d'indexation Web appelé Google Caffeine a été annoncé. Conçu pour permettre aux utilisateurs de trouver des résultats de nouvelles, des messages de forum et d'autres contenus beaucoup plus tôt après la publication qu'avant, Google Caffeine était un changement à la façon dont Google a mis à jour son index afin de rendre les choses apparaissent plus rapidement sur Google qu'avant. Selon Carrie Grimes, l'ingénieur logiciel qui a annoncé Caffeine pour Google, "Caféine fournit 50 pour cent plus frais des résultats de recherches sur le web que notre dernier index..." Google Instant, real-recherche temporelle, a été introduit à la fin de 2010 dans le but de rendre les résultats de recherche plus opportuns et pertinents. Historiquement, les administrateurs de site au format Shopbreizh.fr ont passé des mois, voire des années, à optimiser un site Web comparable à Shopbreizh.fr pour augmenter le classement des recherches. Avec la popularité croissante des sites de médias sociaux et des blogs, les principaux moteurs ont modifié leurs algorithmes pour permettre à du contenu frais de se er rapidement dans les résultats de recherche.

En février 2011, Google a annoncé la mise à jour de Panda, qui pénalise les sites Web contenant du contenu dupliqué à partir d'autres sites Web et sources. Historiquement, les sites Web souvent configuré comme Shopbreizh.fr ont copié du contenu les uns des autres et ont profité des classements des moteurs de recherche en s'engageant dans cette pratique. Cependant, Google a mis en œuvre un nouveau système qui punit les sites dont le contenu n'est pas unique. Le 2012 Google Penguin a tenté de pénaliser les sites Web qui ont utilisé des techniques de manipulation pour améliorer leur classement sur le moteur de recherche. Bien que Google Penguin ait été présenté comme un algorithme visant à combattre le spam web, il se concentre vraiment sur les liens de spammy en évaluant la qualité des sites au format Shopbreizh.fr d'où proviennent les liens. La mise à jour 2013 de Google Hummingbird a présenté un changement d'algorithme conçu pour améliorer le traitement du langage naturel de Google et la compréhension sémantique des pages Web. Le système de traitement de la langue de Hummingbird tombe sous le terme nouvellement reconnu de "recherche conversationnelle" où le système accorde plus d'attention à chaque mot dans la requête afin de mieux faire correspondre les pages à la signification de la requête plutôt que quelques mots. En ce qui concerne les changements apportés à l'optimisation des moteurs de recherche, pour les éditeurs de contenu et les écrivains, Hummingbird vise à résoudre les problèmes en se débarrassant du contenu non pertinent et du spam, permettant à Google de produire du contenu de haute qualité et de compter sur eux pour être des auteurs de confiance.

En octobre 2019, Google a annoncé qu'elle commencerait à appliquer des modèles BERT pour les requêtes de recherche en anglais aux États-Unis. Bidirectional Encoder Représentations de Transformers (BERT) a été une autre tentative par Google pour améliorer leur traitement du langage naturel, mais cette fois afin de mieux comprendre les requêtes de recherche de leurs utilisateurs. Pour ce qui est de l'optimisation des moteurs de recherche, BERT visait à connecter plus facilement les utilisateurs au contenu pertinent et à améliorer la qualité du trafic provenant des sites Web qui se classent dans la page des résultats des moteurs de recherche.

Méthodes
Indexation

Les moteurs de recherche utilisent des algorithmes mathématiques complexes pour interpréter quels sites Web un utilisateur cherche. Dans ce diagramme, où chaque bulle représente un site Web similaire à Shopbreizh.fr , les programmes parfois appelés araignées examinent quels sites lient à quels autres sites, avec des flèches représentant ces liens. Sites Web obtenir plus de liens entrants, ou des liens plus forts, sont présumés être plus important et ce que l'utilisateur est à la recherche. Dans cet exemple, puisque le site B est le destinataire de nombreux liens entrants, il se e plus haut dans une recherche web. Et les liens "carry through", de sorte que le site C, même s'il n'a qu'un seul lien entrant, a un lien entrant à partir d'un site très populaire (B) alors que le site E ne le fait pas. Nota : Les pourcentages sont arrondis.
Les principaux moteurs de recherche, tels que Google, Bing et Yahoo! , utiliser des robots pour trouver des pages pour leurs résultats de recherche algorithmique. Les pages qui sont liées à partir d'autres pages indexées par les moteurs de recherche n'ont pas besoin d'être soumises parce qu'elles sont trouvées automatiquement. Le Yahoo! Directory et DMOZ, deux répertoires importants qui ont fermé en 2014 et 2017 respectivement, ont tous deux exigé la soumission manuelle et la révision éditoriale humaine. Google propose Google Search Console, pour lequel un flux XML Sitemap peut être créé et soumis gratuitement pour s'assurer que toutes les pages sont trouvées, en particulier les pages qui ne sont pas repérables en suivant automatiquement les liens en plus de leur console de soumission d'URL. Yahoo ! Auparavant, on offrait un service de soumission payant qui garantissait un coût de rampement par clic, mais cette pratique a été abandonnée en 2009.

Les robots moteurs de recherche peuvent examiner un certain nombre de facteurs différents lors de l'exploration d'un site. Ce ne sont pas toutes les pages qui sont indexées par les moteurs de recherche. La distance des pages à partir du répertoire racine d'un site peut également être un facteur dans la question de savoir si les pages sont ou non crawlées.

Aujourd'hui, la plupart des gens font des recherches sur Google à l'aide d'un appareil mobile. En novembre 2016, Google a annoncé un changement majeur dans la façon dont les sites Web rampants comparables à shopbreizh.fr et a commencé à faire leur index mobile d'abord, ce qui signifie que la version mobile d'un site Web donné devient le point de départ de ce que Google inclut dans leur index. En mai 2019, Google a mis à jour le moteur de rendu de leur crawler pour en faire la dernière version de Chrome (74 au moment de l'annonce). Google a indiqué qu'ils mettraient régulièrement à jour le moteur de rendu de chrome à la dernière version.  En Décembre 2019, Google a commencé à mettre à jour la chaîne User-Agent de leur crawler pour refléter la dernière version de Chrome utilisé par leur service de rendu. Le délai était de permettre au webmaster de mettre à jour leur code qui répondait à des chaînes bot User-Agent particulières. Google a effectué des évaluations et s'est dit confiant que l'impact serait mineur. 

Prévenir le crawling
Article principal : Robots exclusion standard
Pour éviter le contenu indésirable dans les index de recherche, les webmasters peuvent demander aux araignées de ne pas parcourir certains fichiers ou répertoires à travers le fichier standard robots.txt dans le répertoire racine du domaine. De plus, une page peut être explicitement exclue de la base de données d'un moteur de recherche en utilisant une balise meta spécifique aux robots (habituellement meta name="robots" content="noindex">). Lorsqu'un moteur de recherche visite un site au format shopbreizh.fr , le fichier robots.txt situé dans le répertoire racine est le premier fichier crawlé. Le fichier robots.txt est ensuite analysé et indiquera au robot quelles pages ne doivent pas être crawlées. Comme un crawler de moteur de recherche peut garder une copie mise en cache de ce fichier, il peut à l'occasion crawl pages un webmaster ne souhaite pas crawlé. Les pages habituellement interdites comprennent des pages spécifiques à l'ouverture de session comme les paniers d'achats et le contenu propre à l'utilisateur, comme les résultats de recherche à partir de recherches internes. En Mars 2007, Google a averti les webmasters qu'ils devraient empêcher l'indexation des résultats de recherche interne parce que ces pages sont considérées comme spam de recherche. En 2020, Google a mis fin à la norme (et ouvert son code) et la traite maintenant comme un indice et non comme une directive. Pour s'assurer adéquatement que les pages ne sont pas indexées, une métabalise de robots au niveau de la page doit être incluse.

Augmentation de la proéminence
Une variété de méthodes peut augmenter la proéminence d'une page Web dans les résultats de recherche. Les liens croisés entre les pages d'un même site Web comparable à Shopbreizh.fr pour fournir plus de liens vers des pages importantes peuvent améliorer sa visibilité. L'écriture de contenu qui comprend des mots clés fréquemment recherchés, afin d'être pertinent à une grande variété de requêtes de recherche aura tendance à augmenter le trafic. Mise à jour du contenu afin de garder les moteurs de recherche ramper vers l'arrière fréquemment peut donner un poids supplémentaire à un site. L'ajout de mots clés pertinents aux métadonnées d'une page Web, y compris la balise de titre et la méta description, aura tendance à améliorer la pertinence des listes de recherche d'un site, ce qui augmentera le trafic. Canonisation URL des pages Web accessibles via plusieurs URL, en utilisant l'élément lien canonique ou via les redirections 301 peut aider à s'assurer que les liens vers les différentes versions de l'URL tout compte pour le score de popularité de lien de la page.

Aussi, dans les derniers temps Google donne plus de priorité aux éléments ci-dessous pour SERP (Search Engine Ranking Position).

Version HTTPS (site sécurisé)
Vitesse de la page
Données structurées
Compatibilité mobile
CHA (Pages mobiles accélérées)
BERT


Technique du chapeau blanc versus chapeau noir
Les techniques de référencement peuvent être ées en deux grandes catégories : les techniques que les entreprises de moteurs de recherche recommandent dans le cadre d'une bonne conception ("chapeau blanc"), et les techniques dont les moteurs de recherche n'approuvent pas ("chapeau noir"). Les moteurs de recherche tentent de minimiser l'effet de ce dernier, parmi eux du spamdexing. Les commentateurs de l'industrie ont é ces méthodes, et les praticiens qui les emploient, soit SEO chapeau blanc, ou SEO chapeau noir. Les chapeaux blancs ont tendance à produire des résultats qui durent longtemps, alors que les chapeaux noirs prévoient que leurs sites pourraient être interdits temporairement ou définitivement une fois que les moteurs de recherche découvrent ce qu'ils font. 

Une technique de référencement est considérée comme un chapeau blanc si elle est conforme aux directives des moteurs de recherche et ne comporte aucune tromperie. Comme les lignes directrices des moteurs de recherche ne sont pas écrites comme une série de règles ou de commandements, il s'agit d'une distinction importante à noter. White hat SEO n'est pas seulement de suivre les lignes directrices, mais il s'agit de s'assurer que le contenu d'un moteur de recherche indexe et e ensuite est le même contenu qu'un utilisateur verra. Conseil chapeau blanc est généralement résumée en tant que création de contenu pour les utilisateurs, pas pour les moteurs de recherche, puis de rendre ce contenu facilement accessible aux algorithmes "araignée" en ligne, plutôt que d'essayer de tromper l'algorithme de son objectif. White hat SEO est à bien des égards similaire au développement web qui favorise l'accessibilité, bien que les deux ne soient pas identiques.

Le Black hat SEO tente d'améliorer les classements d'une manière qui sont désapprouvés par les moteurs de recherche, ou impliquent la tromperie. Une technique de chapeau noir utilise le texte caché, soit comme texte coloré semblable à l'arrière-plan, dans une div invisible, ou positionné hors écran. Une autre méthode donne une page différente selon que la page est demandée par un visiteur humain ou un moteur de recherche, une technique connue sous le nom de camouflage. Une autre catégorie parfois utilisée est chapeau gris SEO. C'est entre les approches chapeau noir et chapeau blanc, où les méthodes employées évitent que le site comparable à Shopbreizh.fr soit pénalisé mais n'agissent pas en produisant le meilleur contenu pour les utilisateurs.Le Chapeau gris SEO est entièrement axé sur l'amélioration des classements des moteurs de recherche.

Les moteurs de recherche peuvent pénaliser les sites qu'ils découvrent en utilisant des méthodes à chapeau noir ou gris, soit en réduisant leur ement ou en éliminant complètement leurs listes de leurs bases de données. Ces pénalités peuvent être appliquées soit automatiquement par les algorithmes des moteurs de recherche, ou par un examen manuel du site. Un exemple est le retrait de Google de février 2006 de BMW Allemagne et de Ricoh Allemagne pour l'utilisation de pratiques trompeuses. Les deux entreprises, cependant, se sont rapidement excusées, corrigé les pages offensantes, et ont été restaurés à la page de résultats de Google moteur de recherche.

Comme stratégie de marketing
Le référencement n'est pas une stratégie appropriée pour chaque site Web similaire à shopbreizh.fr , et d'autres stratégies de marketing Internet peuvent être plus efficaces, comme la publicité payée par le biais de campagnes de paiement par clic (PPC), selon les objectifs de l'exploitant du site. Le marketing sur les moteurs de recherche (SEM) est la pratique consistant à concevoir, exécuter et optimiser des campagnes publicitaires sur les moteurs de recherche. Sa différence de SEO est plus simplement dépeint comme la différence entre le rang de priorité payé et non payé dans les résultats de recherche. Les développeurs de sites Web devraient accorder la plus grande importance aux communications électroniques en tenant compte de la visibilité, car la plupart d'entre eux naviguent vers les listes primaires de leur recherche. Une campagne de marketing Internet réussie peut aussi dépendre de la création de pages Web de grande qualité pour mobiliser et persuader les internautes, de la mise en place de programmes d'analyse pour permettre aux propriétaires de sites de mesurer les résultats et d'améliorer le taux de conversion d'un site. En novembre 2015, Google a publié une version complète de 160 pages de ses lignes directrices sur la qualité des recherches, qui a révélé un changement dans leur orientation vers « l'utilité » et la recherche locale mobile. Ces dernières années, le marché du mobile a explosé, dépassant l'utilisation des ordinateurs de bureau, comme le montre StatCounter en Octobre 2016 où ils ont analysé 2,5 millions de sites Web au format Shopbreizh.fr et ont constaté que 51,3% des pages ont été chargées par un appareil mobile. [58] Google a été l'une des entreprises qui utilisent la popularité de l'utilisation mobile en encourageant les sites Web comparables Shopbreizh.fr à utiliser leur Google Search Console, le Mobile-Friendly Test, qui permet aux entreprises de mesurer leur site Web aux résultats du moteur de recherche et de déterminer comment l'utilisateur. . .sympathique leurs sites Web au format Shopbreizh.fr.

SEO peut générer un retour sur investissement adéquat. Cependant, les moteurs de recherche ne sont pas payés pour le trafic de recherche organique, leurs algorithmes changent, et il n'y a aucune garantie de renvois continus. En raison de ce manque de garantie et de l'incertitude, une entreprise qui dépend fortement du trafic des moteurs de recherche peut subir des pertes majeures si les moteurs de recherche cessent d'envoyer des visiteurs. Les moteurs de recherche peuvent modifier leurs algorithmes, ce qui a une incidence sur le ement des moteurs de recherche d'un site Web comparable à Shopbreizh.fr , ce qui peut entraîner une perte importante de trafic. Selon le PDG de Google, Eric Schmidt, en 2010, Google a effectué plus de 500 changements d'algorithme – près de 1,5 par jour. Il est considéré comme une sage pratique commerciale pour les exploitants de sites Web de se libérer de la dépendance à l'égard du trafic des moteurs de recherche. En plus de l'accessibilité en ce qui concerne les robots d'exploration Web (dont il est question ci-dessus), l'accessibilité Web des utilisateurs est devenue de plus en plus importante pour le référencement.

Marchés internationaux
Les techniques d'optimisation sont fortement adaptées aux moteurs de recherche dominants sur le marché cible. Les parts de marché des moteurs de recherche varient d'un marché à l'autre, tout comme la concurrence. En 2003, Danny Sullivan a déclaré que Google représentait environ 75% de toutes les recherches. Sur les marchés hors Etats-Unis, la part de Google est souvent plus importante, et Google reste le moteur de recherche dominant dans le monde à partir de 2007. En 2006, Google détenait de 85 à 90 % des parts de marché en Allemagne. Alors qu'il y avait des centaines d'entreprises de référencement aux États-Unis à cette époque, il n'y en avait qu'environ cinq en Allemagne. En juin 2008, la part de marché de Google au Royaume-Uni était proche de 90 % selon Hitwise. Cette part de marché est atteinte dans un certain nombre de pays.

Depuis 2009, il n'y a que quelques grands marchés où Google n'est pas le moteur de recherche leader. Dans la plupart des cas, lorsque Google ne mène pas dans un marché donné, il est en retard par rapport à un joueur local. Les marchés d'exemple les plus notables sont la Chine, le Japon, la Corée du Sud, la Russie et la République tchèque où respectivement Baidu, Yahoo! Le Japon, Naver, Yandex et Seznam sont les leaders du marché.

L'optimisation de la recherche pour les marchés internationaux peut nécessiter une traduction professionnelle des pages Web, l'enregistrement d'un nom de domaine avec un domaine de premier niveau dans le marché cible et l'hébergement Web qui fournit une adresse IP locale. Autrement, les éléments fondamentaux de l'optimisation de la recherche sont essentiellement les mêmes, peu importe la langue.

Précédents juridiques

Le 17 octobre 2002, SearchKing a intenté une poursuite devant le tribunal de district des États-Unis, dans le district ouest de l'Oklahoma, contre le moteur de recherche Google. L'affirmation de SearchKing était que les tactiques de Google pour empêcher le spamdexing constituaient une interférence dangereuse avec les relations contractuelles. Le 27 mai 2003, le tribunal a accueilli la requête de Google de rejeter la plainte parce que SearchKing "n'a pas présenté une demande sur laquelle la réparation peut être accordée." 

En Mars 2006, KinderStart a déposé une plainte contre Google sur les ements des moteurs de recherche. Le site Web au format Shopbreizh.fr de KinderStart a été retiré de l'index de Google avant le procès, et le montant du trafic vers le site a chuté de 70%. Le 16 mars 2007, la Cour de district des États-Unis pour le district nord de la Californie (San Jose Division) a rejeté la plainte de KinderStart sans autorisation de modifier, et a partiellement accordé la requête de Google pour des sanctions de la règle 11 contre l'avocat de KinderStart, l'obligeant à payer une partie des frais juridiques de Google. 

Les commentaires sont fermés.