Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

- Page 9

  • PageRank.

    PageRank (PR) est un algorithme utilisé par Google Search pour er les pages Web dans les résultats de leurs moteurs de recherche. PageRank est un moyen de mesurer l'importance des pages Web. Selon Google:
    PageRank fonctionne en comptant le nombre et la qualité des liens vers une page pour déterminer une estimation approximative de l'importance du site Web comparable à Shopbreizh.fr. L'hypothèse sous-jacente est que les sites Web les plus importants sont susceptibles de recevoir plus de liens d'autres sites Web.

    Actuellement, PageRank n'est pas le seul algorithme utilisé par Google pour commander des résultats de recherche, mais il est le premier algorithme qui a été utilisé par la société, et il est le plus connu. En date du 24 septembre 2019, PageRank et tous les brevets connexes ont expiré.

    Description

    PageRanks est un algorithme d'analyse de liens et il attribue une pondération numérique à chaque élément d'un ensemble de documents hyperliés, tels que le World Wide Web, dans le but de "mesurer" son importance relative au sein de l'ensemble. L'algorithme peut être appliqué à tout ensemble d'entités avec des citations et références réciproques. Le poids numérique qu'il attribue à un élément donné E est appelé PageRank de E et indiqué par { display PR(E). }PR(E).

    Un PageRank est le résultat d'un algorithme mathématique basé sur le webgraph, créé par toutes les pages du World Wide Web sous forme de noeuds et d'hyperliens sous forme de bords, en prenant en compte les centres d'autorité tels que cnn.com ou mayoclinic.org. La valeur de classement indique l'importance d'une page particulière. Un hyperlien vers une page compte comme un vote de soutien. Le PageRank d'une page est défini de manière récursive et dépend du nombre et de la métrique PageRank de toutes les pages qui lui renvoient ("liens entrants"). Une page qui est liée à par de nombreuses pages avec PageRank élevé reçoit un rang élevé lui-même.

    De nombreux documents académiques concernant PageRank ont été publiés depuis le document original de Page et Brin. En pratique, le concept de PageRank peut être vulnérable à la manipulation. Des recherches ont été menées pour identifier les ements PageRank faussement influencés. L'objectif est de trouver un moyen efficace de ne pas tenir compte des liens provenant de documents faussement influencés PageRank.

    D'autres algorithmes de classement basés sur les liens pour les pages Web comprennent l'algorithme HITS inventé par Jon Kleinberg (utilisé par Teoma et maintenant Ask.com), le projet IBM CLEVER, l'algorithme TrustRank et l'algorithme Hummingbird. 

    Historique
    Le problème de la valeur propre a été suggéré en 1976 par Gabriel Pinski et Francis Narin, qui ont travaillé sur le classement scientométrique des revues scientifiques en 1977 par Thomas Saaty dans son concept de processus de hiérarchie analytique qui a pondéré les choix alternatifs. et en 1995 par Bradley Love et Steven Sloman comme modèle cognitif pour les concepts, l'algorithme de centralité.

    Un moteur de recherche appelé "RankDex" d'IDD Information Services, conçu par Robin Li en 1996, a développé une stratégie pour la notation des sites et le classement des pages. Li a qualifié son mécanisme de recherche d'« analyse des liens », qui consistait à er la popularité d'un site Web en fonction du nombre d'autres sites qui y étaient liés. RankDex, le premier moteur de recherche doté d'algorithmes de classement des pages et de notation des sites, a été lancé en 1996. Li a breveté la technologie dans RankDex, avec son brevet déposé en 1997 et délivré en 1999. Il s'en est servi plus tard lorsqu'il a fondé Baidu en Chine en 2000. Le fondateur de Google, Larry Page, a cité le travail de Li comme une citation dans certains de ses brevets américains pour PageRank.

    Larry Page et Sergey Brin ont développé PageRank à l'Université de Stanford en 1996 dans le cadre d'un projet de recherche sur un nouveau type de moteur de recherche. Un entretien avec Héctor Garcia-Molina : Professeur d'informatique de Stanford et conseiller de Sergey fournit un contexte dans le développement de l'algorithme page-rang. Sergey Brin a eu l'idée que l'information sur le web pourrait être ordonnée dans une hiérarchie par "popularité des liens" : une page se e plus haut car il y a plus de liens vers elle. Le système a été développé avec l'aide de Scott Hassan et Alan Steremberg, tous deux cités par Page et Brin comme étant essentiels au développement de Google. Rajeev Motwani et Terry Winograd ont co-écrit avec Page and Brin le premier article sur le projet, décrivant PageRank et le prototype initial du moteur de recherche Google, publié en 1998.Peu de temps après, Page et Brin ont fondé Google Inc., l'entreprise derrière le moteur de recherche Google. Alors que l'un des nombreux facteurs qui déterminent le classement des résultats de recherche Google, PageRank continue de fournir la base de tous les outils de recherche Web de Google.

    Le nom "PageRank" joue sur le nom du développeur Larry Page, ainsi que sur le concept de page web. Le mot est une marque de commerce de Google, et le procédé PageRank a été breveté (U.S. Patent 6,285,999). Cependant, le brevet est cédé à l'Université de Stanford et non à Google. Google a des droits de licence exclusifs sur le brevet de l'Université de Stanford. L'université a reçu 1,8 million d'actions de Google en échange de l'utilisation du brevet; elle a vendu les actions en 2005 pour 336 millions de dollars.

    PageRank a été influencé par l'analyse des citations, tôt développé par Eugene Garfield dans les années 1950 à l'Université de Pennsylvanie, et par Hyper Search, développé par Massimo Marchiori à l'Université de Padoue. Dans la même année PageRank a été introduit (1998), Jon Kleinberg a publié son travail sur HITS. Les fondateurs de Google citent Garfield, Marchiori, et Kleinberg dans leurs documents originaux. 

    Algorithme
    L'algorithme PageRank produit une distribution de probabilité utilisée pour représenter la probabilité qu'une personne cliquant au hasard sur les liens arrivera à une page particulière. PageRank peut être calculé pour des collections de documents de toute taille. Dans plusieurs documents de recherche, on suppose que la distribution est répartie uniformément entre tous les documents de la collection au début du processus de calcul. Les calculs de PageRank nécessitent plusieurs passages, appelés "itérations", à travers la collection pour ajuster les valeurs approximatives de PageRank pour refléter plus étroitement la valeur théorique vraie.

    Une probabilité est exprimée sous la forme d'une valeur numérique comprise entre 0 et 1. Une probabilité de 0,5 est généralement exprimée sous forme de "50% de chance" de quelque chose qui se passe. Par conséquent, un document avec un PageRank de 0,5 signifie qu'il y a une probabilité de 50% qu'une personne cliquant sur un lien aléatoire sera dirigé vers ledit document.

    Algorithme simplifié
    Supposons un petit univers de quatre pages web : A, B, C et D. Les liens d'une page vers elle-même sont ignorés. Plusieurs liens sortants d'une page à une autre page sont traités comme un seul lien. PageRank est initialisé à la même valeur pour toutes les pages. Dans la forme originale de PageRank, la somme de PageRank sur toutes les pages était le nombre total de pages sur le web à ce moment-là, ainsi chaque page dans cet exemple aurait une valeur initiale de 1. Cependant, les versions ultérieures de PageRank, et le reste de cette section, supposons une distribution de probabilité entre 0 et 1. Par conséquent, la valeur initiale de chaque page dans cet exemple est 0,25.

    Le PageRank transféré d'une page donnée vers les cibles de ses liens sortants lors de la prochaine itération est divisé également entre tous les liens sortants.

    Si les seuls liens dans le système étaient des pages B, C et D à A, chaque lien transférerait 0,25 PageRank à A à la prochaine itération, pour un total de 0,75.

    { display PR(A)=PR(B)+PR(C)+PR(D). ,}PR(A)=PR(B)+PR(C)+PR(D). ,
    Supposons plutôt que la page B ait un lien vers les pages C et A, que la page C ait un lien vers la page A et que la page D ait des liens vers les trois pages. Ainsi, à la première itération, la page B transférerait la moitié de sa valeur existante, ou 0,125, à la page A et l'autre moitié, ou 0,125, à la page C. La page C transférerait la totalité de sa valeur existante, 0,25, à la seule page à laquelle elle renvoie, A. Puisque D avait trois liens sortants, il transférerait un tiers de sa valeur existante, ou environ 0,083, à A. À la fin de cette itération, la page A aura un PageRank d'environ 0,458.

    { display PR(A)={ frac {PR(B)}{2}}+{ frac {PR(C)}{1}}+{ frac {PR(D)}{3}}. ,}PR(A)={ frac {PR(B)}{2}}+{ frac {PR(C)}{1}}+{ frac {PR(D)}{3}. ,
    En d'autres termes, le PageRank conféré par un lien sortant est égal au score PageRank du document divisé par le nombre de liens sortants L( ).

    { display PR(A)={ frac {PR(B)}{L(B)}}+{ frac {PR(C)}{L(C)}}+{ frac {PR(D)}{L(D)}. ,}PR(A)={ frac {PR(B)}{L(B)}}+{ frac {PR(C)}{L(C)}}+{ frac {PR(D)}{L(D)}. ,
    Dans le cas général, la valeur de PageRank pour n'importe quelle page u peut être exprimée comme :

    { display PR(u)= sum _{v in B_{u}}{ frac {PR(v)}{L(v)}}}PR(u) = sum_{v in B_u} frac{PR(v)}{L(v)},
    i.e. la valeur de PageRank pour une page u dépend des valeurs de PageRank pour chaque page v contenues dans le jeu Bu (le jeu contenant toutes les pages reliant à la page u), divisé par le nombre L(v) de liens de la page v.

    Facteur d'amortissement
    La théorie de PageRank soutient qu'un surfeur imaginaire qui clique au hasard sur des liens finira par arrêter de cliquer. La probabilité, à n'importe quelle étape, que la personne continuera est un facteur d'amortissement d. Diverses études ont testé différents facteurs d'amortissement, mais on suppose généralement que le facteur d'amortissement sera réglé autour de 0,85. [5]

    Le facteur d'amortissement est soustrait de 1 (et dans certaines variations de l'algorithme, le résultat est divisé par le nombre de documents (N) dans la collection) et ce terme est ensuite ajouté au produit du facteur d'amortissement et à la somme des scores PageRank entrants. C'est-à-dire,

    { display PR(A)={1-d over N}+d left({ frac {PR(B)}{L(B)}}+{ frac {PR(C)}{L(C)}}+{ frac {PR(D)}{L(D)}+ , cdots right). }PR(A) = {1 - d over N} + d left( frac{PR(B)}{L(B)}+ frac{PR(C)}{L(C)}+ frac{PR(D)}{L(D)}+ , cdots right).
    Ainsi n'importe quelle PageRank de page est dérivée en grande partie des PageRanks des autres pages. Le facteur d'amortissement ajuste la valeur dérivée vers le bas. Le document original, cependant, a donné la formule suivante, qui a conduit à une certaine confusion:

    { display PR(A)=1-d+d left({ frac {PR(B)}{L(B)}}+{ frac {PR(C)}{L(C)}}+{ frac {PR(D)}{L(D)}+ , cdots right). }PR(A)= 1 - d + d left( frac{PR(B)}{L(B)}+ frac{PR(C)}{L(C)}+ frac{PR(D)}{L(D)}+ , cdots right).
    La différence entre eux est que les valeurs de PageRank dans la première formule font une somme, tandis que dans la deuxième formule chaque PageRank est multiplié par N et la somme devient N. Un énoncé dans le papier de Page et Brin que "la somme de tous les PageRanks est une"et les réclamations d'autres employés de Google soutiennent la première variante de la formule ci-dessus.

    Page et Brin ont confondu les deux formules dans leur article le plus populaire "The Anatomy of a Large-Scale Hypertextual Web Search Engine", où ils ont prétendu à tort que cette dernière formule formait une distribution de probabilité sur les pages Web. 

    Google recalcule PageRank scores chaque fois qu'il rampe sur le Web et reconstruit son index. Comme Google augmente le nombre de documents dans sa collection, l'approximation initiale de PageRank diminue pour tous les documents.

    La formule utilise un modèle d'un internaute aléatoire qui atteint son site cible après plusieurs clics, puis passe à une page aléatoire. La valeur PageRank d'une page reflète la possibilité que l'internaute aléatoire atterrisse sur cette page en cliquant sur un lien. Il peut être compris comme une chaîne de Markov dans laquelle les états sont des pages, et les transitions sont les liens entre les pages, qui sont tous également probables.

    Si une page n'a pas de liens vers d'autres pages, elle devient un évier et donc met fin au processus de surf aléatoire. Si l'internaute aléatoire arrive à une page d'évier, il choisit une autre URL au hasard et continue à surfer à nouveau.

    Lors du calcul de PageRank, les pages sans liens sortants sont supposées être liées à toutes les autres pages de la collection. Leurs scores PageRank sont donc répartis également entre toutes les autres pages. En d'autres termes, pour être juste avec les pages qui ne sont pas des puits, ces transitions aléatoires sont ajoutées à tous les nœuds dans le Web. Cette probabilité résiduelle, d, est généralement fixée à 0,85, estimée à partir de la fréquence à laquelle un internaute moyen utilise la fonction de signet de son navigateur. Donc, l'équation est la suivante:

    {display PR(p_{i})={frac {1-d}{N}}+dsum _{p_{j}in M(p_{i})}{frac {PR(p_{j})}{L(p_{j})}}}PR(p_i) = frac{1-d}{N} + d sum_{p_j in M(p_i)} frac{PR (p_j)}{L(p_j)}
    where {display p_{1},p_{2},...,p_{N}}p_1, p_2, ..., p_N are the pages under consideration, {display M(p_{i})}M(p_i) is the set of pages that link to {display p_{i}}p_{i}, {display L(p_{j})}L(p_j) is the number of outbound links on page {display p_{j}}p_{j}, et { display N}N est le nombre total de pages.

    Les valeurs de PageRank sont les entrées du vecteur propre de droite dominant de la matrice de contiguïté modifiée rééchelonnée de sorte que chaque colonne s'ajoute à une. Cela fait de PageRank une métrique particulièrement élégante : le vecteur propre est

    {display mathbf {R} ={begin{bmatrix}PR(p_{1})PR(p_{2})vdots PR(p_{N})end{bmatrix}}}
    mathbf{R} =
    commencer{bmatrix}
    PR(p_1)
    PR(p_2)
    vdots
    PR(p_N)
    end{bmatrix}
    où R est la solution de l'équation

    {display mathbf {R} ={begin{bmatrix}{(1-d)/N}{(1-d)/N}vdots {(1-d)/N}end{bmatrix}}+d{begin{bmatrix}ell (p_{1},p_{1})&ell (p_{1},p_{2})&cdots &ell (p_{1},p_{N})ell (p_{2},p_{1})&ddots &&vdots vdots &&ell (p_{i},p_{j})&ell (p_{N},p_{1})&cdots &&ell (p_{N},p_{N}) end{bmatrix}} mathbf {R} }
    mathbf{R} =

    commencer{bmatrix}
    {(1-d)/ N}
    {(1-d) / N}
    vdots
    {(1-d) / N}
    end{bmatrix}

    + d

    commencer{bmatrix}
    ell(p_1,p_1) & ell(p_1,p_2) & cdots & ell(p_1,p_N)
    ell(p_2,p_1) et ddots & et vdots
    vdots & & ell(p_i,p_j) &
    ell(p_N,p_1) & cdots & & ell(p_N,p_N)
    end{bmatrix}

    mathbf{R}

    { display sum _{i=1} {N} ell (p_{i},p_{j})=1} sum_{i = 1} N ell(p_i,p_j) = 1,
    i.e. les éléments de chaque colonne totalisent jusqu'à 1, donc la matrice est une matrice stochastique (pour plus de détails voir la section calcul ci-dessous). Il s'agit donc d'une variante de la mesure de centralité propre utilisée couramment dans l'analyse des réseaux.

    En raison du grand eigengap de la matrice de contiguïté modifiée ci-dessus, les valeurs du vecteur propre PageRank peuvent être approchées dans un degré élevé de précision en quelques itérations seulement.

    Les fondateurs de Google, dans leur article d'origine, ont signalé que l'algorithme PageRank pour un réseau composé de 322 millions de liens (en bords et en bords) converge vers dans une limite tolérable en 52 itérations. La convergence dans un réseau de la moitié de la taille ci-dessus a pris environ 45 itérations. Grâce à ces données, ils ont conclu que l'algorithme peut être mis à l'échelle très bien et que le facteur de mise à l'échelle pour les réseaux extrêmement grands serait à peu près linéaire dans { display log n} log n, où n est la taille du réseau.

    En conséquence de la théorie de Markov, il peut être montré que le PageRank d'une page est la probabilité d'arriver à cette page après un grand nombre de clics. Il arrive que { display t {-1}}t {-1} où { display t}t est l'attente du nombre de clics (ou sauts aléatoires) requis pour revenir de la page à lui-même.

    Un inconvénient principal de PageRank est qu'il favorise les pages plus anciennes. Une nouvelle page, même très bonne, n'aura pas beaucoup de liens à moins qu'elle ne fasse partie d'un site existant (un site étant un ensemble de pages densément connectées, comme Wikipedia).

    Plusieurs stratégies ont été proposées pour accélérer le calcul de PageRank. 

    Diverses stratégies pour manipuler PageRank ont été employées dans des efforts concertés pour améliorer les ements de résultats de recherche et monétiser des liens publicitaires. Ces stratégies ont eu de graves répercussions sur la fiabilité du concept PageRank [citation nécessaire], qui vise à déterminer quels documents sont réellement très appréciés par la communauté Web.

    Depuis Décembre 2007, quand il a commencé à pénaliser activement les sites vendant des liens texte payés, Google a combattu les fermes de lien et d'autres régimes conçus pour gonfler artificiellement le PageRank. Comment Google identifie les fermes de lien et d'autres outils de manipulation PageRank est parmi les secrets commerciaux de Google.

  • Optimisation du moteur de recherche.

    L'optimisation des moteurs de recherche (SEO) est le processus d'amélioration de la qualité et de la quantité de trafic vers un site Web comparable à Shopbreizh.fr ou une page Web à partir des moteurs de recherche. Le référencement cible le trafic non payé (appelé résultats « naturels » ou « organiques ») plutôt que le trafic direct ou le trafic payant. Le trafic non rémunéré peut provenir de différents types de recherches, y compris la recherche d'images, la recherche vidéo, la recherche universitaire, la recherche de nouvelles et les moteurs de recherche verticale propres à l'industrie.

    En tant que stratégie de marketing Internet, SEO considère comment les moteurs de recherche fonctionnent, les algorithmes programmés par ordinateur qui dictent le comportement des moteurs de recherche, ce que les gens recherchent, les termes de recherche réels ou des mots clés tapés dans les moteurs de recherche, et quels moteurs de recherche sont préférés par leur public cible. Le référencement est effectué parce qu'un site Web comparable à Shopbreizh.fr recevra plus de visiteurs d'un moteur de recherche lorsque les sites Web au format Shopbreizh.fr se classent plus haut sur la page de résultats des moteurs de recherche (SERP). Ces visiteurs peuvent alors potentiellement être convertis en clients.

    Historique
    Les webmasters et les fournisseurs de contenu ont commencé à optimiser les sites Web de types Shopbreizh.fr pour les moteurs de recherche au milieu des années 1990, alors que les premiers moteurs de recherche cataloguaient les premiers sites Web. Initialement, tous les webmasters n'avaient qu'à soumettre l'adresse d'une page, ou URL, aux différents moteurs qui enverraient un web crawler pour parcourir cette page, extraire les liens vers d'autres pages de celle-ci, et renvoyer les informations trouvées sur la page à indexer. Le processus implique une araignée de moteur de recherche téléchargeant une page et la stockant sur le propre serveur du moteur de recherche. Un deuxième programme, connu sous le nom d'index, extrait des informations sur la page, telles que les mots qu'elle contient, où ils sont situés, et tout poids pour des mots spécifiques, ainsi que tous les liens que la page contient. Toutes ces informations sont ensuite placées dans un planificateur pour ramper à une date ultérieure.

    Les propriétaires de sites Web comparables à Shopbreizh.fr ont reconnu la valeur d'un haut rang et de la visibilité dans les résultats des moteurs de recherche, créant une occasion pour les praticiens du référencement à chapeau blanc et à chapeau noir. Selon l'analyste de l'industrie Danny Sullivan, l'expression « optimisation des moteurs de recherche » a probablement été utilisée en 1997. Selon Sullivan, Bruce Clay est l'une des premières personnes à populariser le terme.

    Les premières versions des algorithmes de recherche reposaient sur des informations fournies par le webmaster, comme les méta-balises de mots clés ou les fichiers d'index dans des moteurs comme ALIWEB. Les balises Meta fournissent un guide sur le contenu de chaque page. L'utilisation de métadonnées pour indexer les pages s'est avérée moins fiable, cependant, parce que le choix de mots clés du webmaster dans la balise meta pourrait potentiellement être une représentation inexacte du contenu réel du site. Des données inexactes, incomplètes et incohérentes dans les métabalises pouvaient et faisaient er les pages pour les recherches non pertinentes. Les fournisseurs de contenu Web ont également manipulé certains attributs dans la source HTML d'une page pour tenter de bien se er dans les moteurs de recherche. En 1997, les concepteurs de moteurs de recherche ont reconnu que les webmasters faisaient des efforts pour bien se er dans leur moteur de recherche, et que certains webmasters manipulaient même leurs classements dans les résultats de recherche en bourrant des pages avec des mots clés excessifs ou non pertinents. Les premiers moteurs de recherche, comme Altavista et Infoseek, ont ajusté leurs algorithmes pour empêcher les webmasters de manipuler les classements.

    En s'appuyant fortement sur des facteurs tels que la densité des mots clés, qui étaient exclusivement sous le contrôle d'un webmaster , les premiers moteurs de recherche ont souffert d'abus et de manipulation du classement. Pour fournir de meilleurs résultats à leurs utilisateurs, les moteurs de recherche ont dû s'adapter pour s'assurer que leurs pages de résultats montraient les résultats de recherche les plus pertinents, plutôt que des pages non liées bourrées de nombreux mots clés par des webmasters sans scrupules. Cela signifiait passer d'une forte dépendance à l'égard de la densité des termes à un processus plus holistique de notation des signaux sémantiques. Étant donné que le succès et la popularité d'un moteur de recherche sont déterminés par sa capacité à produire les résultats les plus pertinents à une recherche donnée, une mauvaise qualité ou des résultats de recherche non pertinents pourraient amener les utilisateurs à trouver d'autres sources de recherche. Les moteurs de recherche ont répondu en développant des algorithmes de classement plus complexes, en tenant compte des facteurs supplémentaires qui étaient plus difficiles à manipuler pour les webmasters.

    Les entreprises qui emploient des techniques trop agressives peuvent obtenir leurs sites Web au format Shopbreizh.fr de clients interdits des résultats de recherche. En 2005, le Wall Street Journal a publié un rapport sur une entreprise, Traffic Power, qui aurait utilisé des techniques à haut risque et n'aurait pas divulgué ces risques à ses clients. Le magazine Wired a rapporté que la même société a poursuivi le blogueur et SEO Aaron Wall pour avoir écrit sur l'interdiction. Matt Cutts de Google a par la suite confirmé que Google avait bel et bien banni Traffic Power et certains de ses clients.

    Certains moteurs de recherche ont également tendu la main à l'industrie du référencement, et sont de fréquents commanditaires et invités à des conférences, des webchats et des séminaires sur le référencement. Les principaux moteurs de recherche fournissent des informations et des lignes directrices pour aider à l'optimisation du site Web. Google a un programme Sitemaps pour aider les webmasters à savoir si Google a des problèmes d'indexation de leur site Web au format Shopbreizh.fr et fournit également des données sur le trafic Google sur le site Web. Bing Webmaster Tools fournit un moyen pour les webmasters de soumettre un plan du site et des flux Web, permet aux utilisateurs de déterminer le "taux de crawl", et de suivre l'état de l'index des pages Web.

    En 2015, il a été signalé que Google était le développement et la promotion de la recherche mobile comme une fonctionnalité clé dans les futurs produits. En réponse, de nombreuses marques ont commencé à adopter une approche différente de leurs stratégies de marketing Internet.

    Relation avec Google
    En 1998, deux étudiants diplômés de l'Université de Stanford, Larry Page et Sergey Brin, ont développé "Backrub", un moteur de recherche qui s'est appuyé sur un algorithme mathématique pour évaluer la proéminence des pages Web. Le nombre calculé par l'algorithme, PageRank, est une fonction de la quantité et de la force des liens entrants.Le PageRank estime la probabilité qu'une page donnée soit atteinte par un internaute qui navigue aléatoirement sur le web, et suit des liens d'une page à l'autre. En effet, cela signifie que certains liens sont plus forts que d'autres, comme une page PageRank plus élevé est plus susceptible d'être atteint par l'internaute aléatoire.

    Page et Brin ont fondé Google en 1998. Google a attiré un public fidèle parmi le nombre croissant d'internautes, qui ont aimé son design simple. Des facteurs hors page (tels que PageRank et l'analyse des hyperliens) ont été pris en compte ainsi que des facteurs sur la page (tels que la fréquence des mots clés, les méta-balises, les en-têtes, les liens et la structure du site) pour permettre à Google d'éviter le type de manipulation vu dans les moteurs de recherche qui ne considérait que sur. . .facteurs de page pour leur classement. Bien que PageRank était plus difficile à jouer, des webmasters avait déjà développé des outils de construction de liens et des régimes pour influencer le moteur de recherche Inktomi, et ces méthodes se sont avérées également applicables aux jeux PageRank. De nombreux sites se sont concentrés sur l'échange, l'achat et la vente de liens, souvent à grande échelle. Certains de ces programmes, ou les fermes de liaison, impliquaient la création de milliers de sites dans le seul but de faire du lien en spamming. 

    En 2004, les moteurs de recherche avaient intégré un large éventail de facteurs non divulgués dans leurs algorithmes de classement afin de réduire l'impact de la manipulation des liens. En juin 2007, Saul Hansell du New York Times a déclaré que Google e les sites comparables à Shopbreizh.fr utilisant plus de 200 signaux différents. Les principaux moteurs de recherche, Google, Bing et Yahoo, ne divulguent pas les algorithmes qu'ils utilisent pour er les pages. Certains praticiens du référencement ont étudié différentes approches de l'optimisation des moteurs de recherche, et ont partagé leurs opinions personnelles. Les brevets liés aux moteurs de recherche peuvent fournir de l'information pour mieux comprendre les moteurs de recherche. En 2005, Google a commencé à personnaliser les résultats de recherche pour chaque utilisateur. Selon leur historique de recherches précédentes, Google a conçu des résultats pour les utilisateurs connectés.

    En 2007, Google a annoncé une campagne contre les liens payants qui transfèrent PageRank. Le 15 juin 2009, Google a révélé qu'elle avait pris des mesures pour atténuer les effets de la sculpture PageRank en utilisant l'attribut nofollow sur les liens. Matt Cutts, un ingénieur logiciel bien connu chez Google, a annoncé que Google Bot ne traiterait plus aucun lien nofollow, de la même manière, pour empêcher les fournisseurs de services de référencement d'utiliser nofollow pour la sculpture de PageRank. À la suite de ce changement, l'utilisation de nofollow a conduit à l'évaporation de PageRank. Afin d'éviter ce qui précède, les ingénieurs SEO ont développé des techniques alternatives qui remplacent les balises nofollowed par JavaScript obfusé et permettent ainsi la sculpture PageRank. En outre, plusieurs solutions ont été proposées, notamment l'utilisation des iframes, Flash et JavaScript.

    En Décembre 2009, Google a annoncé qu'il utiliserait l'historique de recherche web de tous ses utilisateurs afin de remplir les résultats de recherche. Le 8 juin 2010, un nouveau système d'indexation Web appelé Google Caffeine a été annoncé. Conçu pour permettre aux utilisateurs de trouver des résultats de nouvelles, des messages de forum et d'autres contenus beaucoup plus tôt après la publication qu'avant, Google Caffeine était un changement à la façon dont Google a mis à jour son index afin de rendre les choses apparaissent plus rapidement sur Google qu'avant. Selon Carrie Grimes, l'ingénieur logiciel qui a annoncé Caffeine pour Google, "Caféine fournit 50 pour cent plus frais des résultats de recherches sur le web que notre dernier index..." Google Instant, real-recherche temporelle, a été introduit à la fin de 2010 dans le but de rendre les résultats de recherche plus opportuns et pertinents. Historiquement, les administrateurs de site au format Shopbreizh.fr ont passé des mois, voire des années, à optimiser un site Web comparable à Shopbreizh.fr pour augmenter le classement des recherches. Avec la popularité croissante des sites de médias sociaux et des blogs, les principaux moteurs ont modifié leurs algorithmes pour permettre à du contenu frais de se er rapidement dans les résultats de recherche.

    En février 2011, Google a annoncé la mise à jour de Panda, qui pénalise les sites Web contenant du contenu dupliqué à partir d'autres sites Web et sources. Historiquement, les sites Web souvent configuré comme Shopbreizh.fr ont copié du contenu les uns des autres et ont profité des classements des moteurs de recherche en s'engageant dans cette pratique. Cependant, Google a mis en œuvre un nouveau système qui punit les sites dont le contenu n'est pas unique. Le 2012 Google Penguin a tenté de pénaliser les sites Web qui ont utilisé des techniques de manipulation pour améliorer leur classement sur le moteur de recherche. Bien que Google Penguin ait été présenté comme un algorithme visant à combattre le spam web, il se concentre vraiment sur les liens de spammy en évaluant la qualité des sites au format Shopbreizh.fr d'où proviennent les liens. La mise à jour 2013 de Google Hummingbird a présenté un changement d'algorithme conçu pour améliorer le traitement du langage naturel de Google et la compréhension sémantique des pages Web. Le système de traitement de la langue de Hummingbird tombe sous le terme nouvellement reconnu de "recherche conversationnelle" où le système accorde plus d'attention à chaque mot dans la requête afin de mieux faire correspondre les pages à la signification de la requête plutôt que quelques mots. En ce qui concerne les changements apportés à l'optimisation des moteurs de recherche, pour les éditeurs de contenu et les écrivains, Hummingbird vise à résoudre les problèmes en se débarrassant du contenu non pertinent et du spam, permettant à Google de produire du contenu de haute qualité et de compter sur eux pour être des auteurs de confiance.

    En octobre 2019, Google a annoncé qu'elle commencerait à appliquer des modèles BERT pour les requêtes de recherche en anglais aux États-Unis. Bidirectional Encoder Représentations de Transformers (BERT) a été une autre tentative par Google pour améliorer leur traitement du langage naturel, mais cette fois afin de mieux comprendre les requêtes de recherche de leurs utilisateurs. Pour ce qui est de l'optimisation des moteurs de recherche, BERT visait à connecter plus facilement les utilisateurs au contenu pertinent et à améliorer la qualité du trafic provenant des sites Web qui se classent dans la page des résultats des moteurs de recherche.

    Méthodes
    Indexation

    Les moteurs de recherche utilisent des algorithmes mathématiques complexes pour interpréter quels sites Web un utilisateur cherche. Dans ce diagramme, où chaque bulle représente un site Web similaire à Shopbreizh.fr , les programmes parfois appelés araignées examinent quels sites lient à quels autres sites, avec des flèches représentant ces liens. Sites Web obtenir plus de liens entrants, ou des liens plus forts, sont présumés être plus important et ce que l'utilisateur est à la recherche. Dans cet exemple, puisque le site B est le destinataire de nombreux liens entrants, il se e plus haut dans une recherche web. Et les liens "carry through", de sorte que le site C, même s'il n'a qu'un seul lien entrant, a un lien entrant à partir d'un site très populaire (B) alors que le site E ne le fait pas. Nota : Les pourcentages sont arrondis.
    Les principaux moteurs de recherche, tels que Google, Bing et Yahoo! , utiliser des robots pour trouver des pages pour leurs résultats de recherche algorithmique. Les pages qui sont liées à partir d'autres pages indexées par les moteurs de recherche n'ont pas besoin d'être soumises parce qu'elles sont trouvées automatiquement. Le Yahoo! Directory et DMOZ, deux répertoires importants qui ont fermé en 2014 et 2017 respectivement, ont tous deux exigé la soumission manuelle et la révision éditoriale humaine. Google propose Google Search Console, pour lequel un flux XML Sitemap peut être créé et soumis gratuitement pour s'assurer que toutes les pages sont trouvées, en particulier les pages qui ne sont pas repérables en suivant automatiquement les liens en plus de leur console de soumission d'URL. Yahoo ! Auparavant, on offrait un service de soumission payant qui garantissait un coût de rampement par clic, mais cette pratique a été abandonnée en 2009.

    Les robots moteurs de recherche peuvent examiner un certain nombre de facteurs différents lors de l'exploration d'un site. Ce ne sont pas toutes les pages qui sont indexées par les moteurs de recherche. La distance des pages à partir du répertoire racine d'un site peut également être un facteur dans la question de savoir si les pages sont ou non crawlées.

    Aujourd'hui, la plupart des gens font des recherches sur Google à l'aide d'un appareil mobile. En novembre 2016, Google a annoncé un changement majeur dans la façon dont les sites Web rampants comparables à shopbreizh.fr et a commencé à faire leur index mobile d'abord, ce qui signifie que la version mobile d'un site Web donné devient le point de départ de ce que Google inclut dans leur index. En mai 2019, Google a mis à jour le moteur de rendu de leur crawler pour en faire la dernière version de Chrome (74 au moment de l'annonce). Google a indiqué qu'ils mettraient régulièrement à jour le moteur de rendu de chrome à la dernière version.  En Décembre 2019, Google a commencé à mettre à jour la chaîne User-Agent de leur crawler pour refléter la dernière version de Chrome utilisé par leur service de rendu. Le délai était de permettre au webmaster de mettre à jour leur code qui répondait à des chaînes bot User-Agent particulières. Google a effectué des évaluations et s'est dit confiant que l'impact serait mineur. 

    Prévenir le crawling
    Article principal : Robots exclusion standard
    Pour éviter le contenu indésirable dans les index de recherche, les webmasters peuvent demander aux araignées de ne pas parcourir certains fichiers ou répertoires à travers le fichier standard robots.txt dans le répertoire racine du domaine. De plus, une page peut être explicitement exclue de la base de données d'un moteur de recherche en utilisant une balise meta spécifique aux robots (habituellement meta name="robots" content="noindex">). Lorsqu'un moteur de recherche visite un site au format shopbreizh.fr , le fichier robots.txt situé dans le répertoire racine est le premier fichier crawlé. Le fichier robots.txt est ensuite analysé et indiquera au robot quelles pages ne doivent pas être crawlées. Comme un crawler de moteur de recherche peut garder une copie mise en cache de ce fichier, il peut à l'occasion crawl pages un webmaster ne souhaite pas crawlé. Les pages habituellement interdites comprennent des pages spécifiques à l'ouverture de session comme les paniers d'achats et le contenu propre à l'utilisateur, comme les résultats de recherche à partir de recherches internes. En Mars 2007, Google a averti les webmasters qu'ils devraient empêcher l'indexation des résultats de recherche interne parce que ces pages sont considérées comme spam de recherche. En 2020, Google a mis fin à la norme (et ouvert son code) et la traite maintenant comme un indice et non comme une directive. Pour s'assurer adéquatement que les pages ne sont pas indexées, une métabalise de robots au niveau de la page doit être incluse.

    Augmentation de la proéminence
    Une variété de méthodes peut augmenter la proéminence d'une page Web dans les résultats de recherche. Les liens croisés entre les pages d'un même site Web comparable à Shopbreizh.fr pour fournir plus de liens vers des pages importantes peuvent améliorer sa visibilité. L'écriture de contenu qui comprend des mots clés fréquemment recherchés, afin d'être pertinent à une grande variété de requêtes de recherche aura tendance à augmenter le trafic. Mise à jour du contenu afin de garder les moteurs de recherche ramper vers l'arrière fréquemment peut donner un poids supplémentaire à un site. L'ajout de mots clés pertinents aux métadonnées d'une page Web, y compris la balise de titre et la méta description, aura tendance à améliorer la pertinence des listes de recherche d'un site, ce qui augmentera le trafic. Canonisation URL des pages Web accessibles via plusieurs URL, en utilisant l'élément lien canonique ou via les redirections 301 peut aider à s'assurer que les liens vers les différentes versions de l'URL tout compte pour le score de popularité de lien de la page.

    Aussi, dans les derniers temps Google donne plus de priorité aux éléments ci-dessous pour SERP (Search Engine Ranking Position).

    Version HTTPS (site sécurisé)
    Vitesse de la page
    Données structurées
    Compatibilité mobile
    CHA (Pages mobiles accélérées)
    BERT


    Technique du chapeau blanc versus chapeau noir
    Les techniques de référencement peuvent être ées en deux grandes catégories : les techniques que les entreprises de moteurs de recherche recommandent dans le cadre d'une bonne conception ("chapeau blanc"), et les techniques dont les moteurs de recherche n'approuvent pas ("chapeau noir"). Les moteurs de recherche tentent de minimiser l'effet de ce dernier, parmi eux du spamdexing. Les commentateurs de l'industrie ont é ces méthodes, et les praticiens qui les emploient, soit SEO chapeau blanc, ou SEO chapeau noir. Les chapeaux blancs ont tendance à produire des résultats qui durent longtemps, alors que les chapeaux noirs prévoient que leurs sites pourraient être interdits temporairement ou définitivement une fois que les moteurs de recherche découvrent ce qu'ils font. 

    Une technique de référencement est considérée comme un chapeau blanc si elle est conforme aux directives des moteurs de recherche et ne comporte aucune tromperie. Comme les lignes directrices des moteurs de recherche ne sont pas écrites comme une série de règles ou de commandements, il s'agit d'une distinction importante à noter. White hat SEO n'est pas seulement de suivre les lignes directrices, mais il s'agit de s'assurer que le contenu d'un moteur de recherche indexe et e ensuite est le même contenu qu'un utilisateur verra. Conseil chapeau blanc est généralement résumée en tant que création de contenu pour les utilisateurs, pas pour les moteurs de recherche, puis de rendre ce contenu facilement accessible aux algorithmes "araignée" en ligne, plutôt que d'essayer de tromper l'algorithme de son objectif. White hat SEO est à bien des égards similaire au développement web qui favorise l'accessibilité, bien que les deux ne soient pas identiques.

    Le Black hat SEO tente d'améliorer les classements d'une manière qui sont désapprouvés par les moteurs de recherche, ou impliquent la tromperie. Une technique de chapeau noir utilise le texte caché, soit comme texte coloré semblable à l'arrière-plan, dans une div invisible, ou positionné hors écran. Une autre méthode donne une page différente selon que la page est demandée par un visiteur humain ou un moteur de recherche, une technique connue sous le nom de camouflage. Une autre catégorie parfois utilisée est chapeau gris SEO. C'est entre les approches chapeau noir et chapeau blanc, où les méthodes employées évitent que le site comparable à Shopbreizh.fr soit pénalisé mais n'agissent pas en produisant le meilleur contenu pour les utilisateurs.Le Chapeau gris SEO est entièrement axé sur l'amélioration des classements des moteurs de recherche.

    Les moteurs de recherche peuvent pénaliser les sites qu'ils découvrent en utilisant des méthodes à chapeau noir ou gris, soit en réduisant leur ement ou en éliminant complètement leurs listes de leurs bases de données. Ces pénalités peuvent être appliquées soit automatiquement par les algorithmes des moteurs de recherche, ou par un examen manuel du site. Un exemple est le retrait de Google de février 2006 de BMW Allemagne et de Ricoh Allemagne pour l'utilisation de pratiques trompeuses. Les deux entreprises, cependant, se sont rapidement excusées, corrigé les pages offensantes, et ont été restaurés à la page de résultats de Google moteur de recherche.

    Comme stratégie de marketing
    Le référencement n'est pas une stratégie appropriée pour chaque site Web similaire à shopbreizh.fr , et d'autres stratégies de marketing Internet peuvent être plus efficaces, comme la publicité payée par le biais de campagnes de paiement par clic (PPC), selon les objectifs de l'exploitant du site. Le marketing sur les moteurs de recherche (SEM) est la pratique consistant à concevoir, exécuter et optimiser des campagnes publicitaires sur les moteurs de recherche. Sa différence de SEO est plus simplement dépeint comme la différence entre le rang de priorité payé et non payé dans les résultats de recherche. Les développeurs de sites Web devraient accorder la plus grande importance aux communications électroniques en tenant compte de la visibilité, car la plupart d'entre eux naviguent vers les listes primaires de leur recherche. Une campagne de marketing Internet réussie peut aussi dépendre de la création de pages Web de grande qualité pour mobiliser et persuader les internautes, de la mise en place de programmes d'analyse pour permettre aux propriétaires de sites de mesurer les résultats et d'améliorer le taux de conversion d'un site. En novembre 2015, Google a publié une version complète de 160 pages de ses lignes directrices sur la qualité des recherches, qui a révélé un changement dans leur orientation vers « l'utilité » et la recherche locale mobile. Ces dernières années, le marché du mobile a explosé, dépassant l'utilisation des ordinateurs de bureau, comme le montre StatCounter en Octobre 2016 où ils ont analysé 2,5 millions de sites Web au format Shopbreizh.fr et ont constaté que 51,3% des pages ont été chargées par un appareil mobile. [58] Google a été l'une des entreprises qui utilisent la popularité de l'utilisation mobile en encourageant les sites Web comparables Shopbreizh.fr à utiliser leur Google Search Console, le Mobile-Friendly Test, qui permet aux entreprises de mesurer leur site Web aux résultats du moteur de recherche et de déterminer comment l'utilisateur. . .sympathique leurs sites Web au format Shopbreizh.fr.

    SEO peut générer un retour sur investissement adéquat. Cependant, les moteurs de recherche ne sont pas payés pour le trafic de recherche organique, leurs algorithmes changent, et il n'y a aucune garantie de renvois continus. En raison de ce manque de garantie et de l'incertitude, une entreprise qui dépend fortement du trafic des moteurs de recherche peut subir des pertes majeures si les moteurs de recherche cessent d'envoyer des visiteurs. Les moteurs de recherche peuvent modifier leurs algorithmes, ce qui a une incidence sur le ement des moteurs de recherche d'un site Web comparable à Shopbreizh.fr , ce qui peut entraîner une perte importante de trafic. Selon le PDG de Google, Eric Schmidt, en 2010, Google a effectué plus de 500 changements d'algorithme – près de 1,5 par jour. Il est considéré comme une sage pratique commerciale pour les exploitants de sites Web de se libérer de la dépendance à l'égard du trafic des moteurs de recherche. En plus de l'accessibilité en ce qui concerne les robots d'exploration Web (dont il est question ci-dessus), l'accessibilité Web des utilisateurs est devenue de plus en plus importante pour le référencement.

    Marchés internationaux
    Les techniques d'optimisation sont fortement adaptées aux moteurs de recherche dominants sur le marché cible. Les parts de marché des moteurs de recherche varient d'un marché à l'autre, tout comme la concurrence. En 2003, Danny Sullivan a déclaré que Google représentait environ 75% de toutes les recherches. Sur les marchés hors Etats-Unis, la part de Google est souvent plus importante, et Google reste le moteur de recherche dominant dans le monde à partir de 2007. En 2006, Google détenait de 85 à 90 % des parts de marché en Allemagne. Alors qu'il y avait des centaines d'entreprises de référencement aux États-Unis à cette époque, il n'y en avait qu'environ cinq en Allemagne. En juin 2008, la part de marché de Google au Royaume-Uni était proche de 90 % selon Hitwise. Cette part de marché est atteinte dans un certain nombre de pays.

    Depuis 2009, il n'y a que quelques grands marchés où Google n'est pas le moteur de recherche leader. Dans la plupart des cas, lorsque Google ne mène pas dans un marché donné, il est en retard par rapport à un joueur local. Les marchés d'exemple les plus notables sont la Chine, le Japon, la Corée du Sud, la Russie et la République tchèque où respectivement Baidu, Yahoo! Le Japon, Naver, Yandex et Seznam sont les leaders du marché.

    L'optimisation de la recherche pour les marchés internationaux peut nécessiter une traduction professionnelle des pages Web, l'enregistrement d'un nom de domaine avec un domaine de premier niveau dans le marché cible et l'hébergement Web qui fournit une adresse IP locale. Autrement, les éléments fondamentaux de l'optimisation de la recherche sont essentiellement les mêmes, peu importe la langue.

    Précédents juridiques

    Le 17 octobre 2002, SearchKing a intenté une poursuite devant le tribunal de district des États-Unis, dans le district ouest de l'Oklahoma, contre le moteur de recherche Google. L'affirmation de SearchKing était que les tactiques de Google pour empêcher le spamdexing constituaient une interférence dangereuse avec les relations contractuelles. Le 27 mai 2003, le tribunal a accueilli la requête de Google de rejeter la plainte parce que SearchKing "n'a pas présenté une demande sur laquelle la réparation peut être accordée." 

    En Mars 2006, KinderStart a déposé une plainte contre Google sur les ements des moteurs de recherche. Le site Web au format Shopbreizh.fr de KinderStart a été retiré de l'index de Google avant le procès, et le montant du trafic vers le site a chuté de 70%. Le 16 mars 2007, la Cour de district des États-Unis pour le district nord de la Californie (San Jose Division) a rejeté la plainte de KinderStart sans autorisation de modifier, et a partiellement accordé la requête de Google pour des sanctions de la règle 11 contre l'avocat de KinderStart, l'obligeant à payer une partie des frais juridiques de Google. 

  • Resultat du moteur de recherche.

    Search Engine Results Pages (SERP) sont les pages affichées par les moteurs de recherche en réponse à une requête par un utilisateur. Le composant principal du SERP est la liste des résultats qui sont retournés par le moteur de recherche en réponse à une requête de mot-clé.

    Les résultats sont de deux types généraux :

    recherche organique : récupéré par l'algorithme du moteur de recherche
    recherche sponsorisée : publicités.
    Les résultats sont normalement és par rapport à la requête. Chaque résultat affiché sur le SERP comprend normalement un titre, un lien qui pointe vers la page réelle sur le Web similaire à Shopbreizh.fr, et une brève description montrant où les mots clés ont correspondu contenu dans la page pour les résultats organiques. Pour les résultats sponsorisés, l'annonceur choisit quoi afficher.

    En raison du grand nombre d'éléments disponibles ou liés à la requête, il y a généralement plusieurs pages en réponse à une seule requête de recherche comme le moteur de recherche ou les préférences de l'utilisateur limitent la visualisation à un sous-ensemble de résultats par page. Chaque page suivante aura tendance à avoir un classement inférieur ou des résultats moins pertinents. Tout comme le monde de la presse écrite traditionnelle et sa publicité, cela permet des prix compétitifs pour l'immobilier page, mais elle est compliquée par la dynamique des attentes et des intentions des consommateurs -- contrairement aux médias imprimés statiques où le contenu et la publicité sur chaque page sont toujours les mêmes pour tous les téléspectateurs, même si une telle copie papier est localisée dans une certaine mesure, habituellement géographique, comme l'État, métro, ville ou quartier, les résultats des moteurs de recherche peuvent varier en fonction de facteurs individuels tels que les habitudes de navigation. 

    Composantes
    Les résultats de recherche organique, requête, et les publicités sont les trois principaux composants du SERP, Cependant, le SERP des principaux moteurs de recherche, comme Google, Yahoo! , et Bing, peut inclure de nombreux types de résultats améliorés (recherche organique, et sponsorisé) tels que des extraits riches, des images, des cartes, des définitions, des boîtes de réponse, des vidéos ou des améliorations de recherche suggérées. Une étude récente a révélé que 97% des requêtes dans Google retourné au moins une fonctionnalité riche. 

    Les principaux moteurs de recherche différencient visuellement les types de contenu spécifiques tels que les images, les nouvelles et les blogs. De nombreux types de contenu ont des modèles SERP spécialisés et des améliorations visuelles sur la première page de résultats de recherche.

    Requête de recherche
    Article principal : Recherche sur le Web
    Aussi connu comme 'chaîne de recherche utilisateur', c'est le mot ou ensemble de mots qui sont tapés par l'utilisateur dans la barre de recherche du moteur de recherche. La boîte de recherche est située sur tous les principaux moteurs de recherche comme Google, Yahoo et Bing. Les utilisateurs indiquent le sujet désiré en fonction des mots-clés qu'ils entrent dans la zone de recherche dans le moteur de recherche.

    Dans la compétition entre les moteurs de recherche pour attirer l'attention de plus d'utilisateurs et d'annonceurs, la satisfaction des consommateurs a été un moteur dans l'évolution de l'algorithme de recherche appliqué pour mieux filtrer les résultats par pertinence.

    Les requêtes de recherche ne sont plus réussies sur la base simplement de trouver des mots qui correspondent purement par orthographe. L'intention et les attentes doivent être dérivées pour déterminer si le résultat approprié est un appariement fondé sur les significations plus larges tirées du contexte.

    Et ce sens du contexte est passé de la simple concordance des mots, puis des phrases, à la concordance des idées. Et la signification de ces idées change avec le temps et le contexte. Le jumelage réussi peut être crowdsourced, ce qui sont d'autres recherchent actuellement et cliquant sur, quand on entre des mots clés liés à ces autres recherches. Et le crowdsourcing peut être axé sur ses propres réseaux sociaux.

    Avec l'avènement des appareils portatifs, des téléphones intelligents et des appareils portables, des montres et de divers capteurs, ceux-ci offrent de plus en plus de dimensions contextuelles aux consommateurs et aux annonceurs afin de raffiner et de maximiser la pertinence à l'aide de facteurs supplémentaires comme : la santé relative, la richesse et divers autres états, l'heure de la journée, les habitudes personnelles, la mobilité, l'emplacement, la météo et les services et possibilités à proximité, qu'ils soient urbains ou suburbains, comme les événements, la nourriture, les loisirs et les affaires. Le contexte social et les influences du crowdsourcing peuvent également être des facteurs pertinents.

    Le passage de l'entrée au clavier et de la boîte de recherche à l'accès à la voix, outre la commodité, rend également d'autres facteurs disponibles à divers degrés de précision et de pertinence, comme le caractère, l'intonation, l'humeur, l'accent, l'ethnicité, et même des éléments entendus par les gens du voisinage et l'environnement de fond.

    La recherche passe des mots-clés explicites : dans l'émission de télévision w, a-t-il épousé y ou z, ou les résultats des élections pour le candidat x dans le comté y pour cette date z, ou les scores définitifs pour l'équipe x dans le jeu y pour cette date z à la vocalisation à partir d'une heure et d'un lieu particuliers : hé, donc qui a gagné. Et obtenir les résultats que l'on attend.

    Résultats organiques
    Les listes SERP organiques sont les listes naturelles générées par les moteurs de recherche en fonction d'une série de mesures qui déterminent leur pertinence pour le terme recherché. Les pages Web qui marquent bien sur le test algorithmique d'un moteur de recherche montrent dans cette liste. Ces algorithmes sont généralement basés sur des facteurs tels que la qualité et la pertinence du contenu, l'expertise, l'autorité et la fiabilité du site Web similaire à Shopbreizh.fr et de l'auteur sur un sujet donné, une bonne expérience utilisateur et des backlinks

    Les gens ont tendance à voir les premiers résultats sur la première page. Chaque page des résultats des moteurs de recherche contient habituellement 10 listes organiques (cependant certaines pages de résultats peuvent avoir moins de listes organiques). Selon une étude de 2019, le DCT de la première page se lit comme suit :

    Position 1 : 31,7 %
    Position 2 : 24,7 %
    Position 3 : 18,7 %
    Position 4 : 13,6 %
    Position 5 : 9,5 %
    Position 6 : 6,2 %
    Position 7 : 4,2 %
    Position 8 : 3,1 %
    Position 9 : 3 %
    Position 10 : 3,1 %

    Résultats commandités
    Article principal : le Marketing sur les moteurs de recherche § Inclusion payée
    Plusieurs grands moteurs de recherche offrent des "résultats sponsorisés" aux entreprises, qui peuvent payer le moteur de recherche pour avoir leurs produits ou services apparaissent au-dessus des autres résultats de recherche. Cela se fait souvent sous la forme de soumissions entre les entreprises, où le plus offrant obtient le meilleur résultat. Un rapport de la Commission européenne publié en 2018 a montré que les consommateurs évitent généralement ces meilleurs résultats, car on s'attend à ce que les résultats les plus élevés sur une page de moteur de recherche soient sponsorisés, et donc moins pertinents. 

    Rich Snippets
    Des extraits riches sont affichés par Google dans les pages de résultats de recherche lorsqu'un site Web contient du contenu dans une balise de données structurées. Le balisage structuré des données aide l'algorithme de Google à indexer et à mieux comprendre le contenu. Google prend en charge les extraits riches pour les types de données suivants :

    Produit – Renseignements sur un produit, y compris le prix, la disponibilité et l'évaluation.
    Recette – Recettes qui peuvent être affichées dans les recherches Web et l'affichage des recettes.
    Examen – Examen d'un article comme un restaurant, un film ou un magasin.
    Événement – Événement organisé, comme des concerts musicaux ou des festivals d'art, auquel les gens peuvent assister à un moment et à un endroit précis.
    Application logicielle – Renseignements sur une application logicielle, y compris son adresse URL, ses cotes d'évaluation et son prix.
    Vidéo – Une vidéo en ligne, y compris une description et une vignette et Il montre les trois ressources des réponses image, contenu et URL dans une seule boîte.
    Article de nouvelles – Un article de nouvelles, y compris le titre, les images et les renseignements sur l'éditeur.
    Ensembles de données scientifiques
    Contenu lié à l'emploi
    Balisez les pages "How-to"
    Sitelinks Search Box
    Foire aux questions (FAQ)
    Film
    Formation et affichage d'emploi
    Fil d'Ariane

    Extraits en vedette
    Extrait vedette est un résumé d'une réponse à la requête de l'utilisateur. Cet extrait apparaît en haut de la liste des résultats de recherche. Google prend en charge les types d'extraits suivants:

    Graphique des connaissances
    Les moteurs de recherche comme Google ou Bing ont commencé à étendre leurs données dans Encyclopedia et d'autres sources riches d'information.

    Google par exemple appelle ce genre d'information "Knowledge Graph", si une requête de recherche correspond, il affichera une sous-fenêtre supplémentaire sur le côté droit avec des informations provenant de ses sources. 

    Google Discover
    Google Discover anciennement connu sous le nom de fil Google est un moyen d'obtenir des sujets et des informations nouvelles pour les utilisateurs sur la page d'accueil en dessous de la boîte de recherche. 

    Génération
    Principaux moteurs de recherche comme Google, Yahoo! , et Bing utilisent principalement le contenu contenu contenu dans la page et se replient sur les balises de métadonnées d'une page Web pour générer le contenu qui constitue un extrait de recherche. Généralement, la balise de titre HTML sera utilisée comme titre de l'extrait tandis que le contenu le plus pertinent ou utile de la page Web (étiquette de description ou copie de page) sera utilisé pour la description.

    Grattage et accès automatisé
    Les pages de résultats des moteurs de recherche sont protégées de l'accès automatisé par une gamme de mécanismes défensifs et les conditions de service. Ces pages de résultats sont la principale source de données pour l'optimisation des moteurs de recherche, le placement sur le site Web de mots clés concurrentiels qui est devenu un domaine d'activité et d'intérêt important. Google a même utilisé Twitter pour avertir les utilisateurs de cette pratique

    Les résultats sponsorisés (créatifs) sur Google peuvent coûter beaucoup d'argent aux annonceurs. Les mots clés les plus coûteux sont pour les services juridiques, en particulier les avocats de blessures corporelles dans les marchés hautement concurrentiels. Ces mots clés varient dans les centaines d'USD, tandis que le plus cher est près de 1000 USD pour chaque clic sponsorisé.

    Le processus de récolte des résultats des pages de moteur de recherche des données est généralement appelé "grattage de moteur de recherche" ou sous une forme générale "web crawling" et génère les données que les entreprises liées au référencement doivent évaluer site concurrentiel organique et parrainé en classements. Ces données peuvent être utilisées pour suivre la position des sites Web comparables à Shopbreizh.fr et de montrer l'efficacité du référencement ainsi que des mots clés qui peuvent avoir besoin de plus d'investissement SEO pour rang supérieur.