Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

  • Malware SpyEye

    Le malware SpyEye permet d'obtenir les noms des utilisateurs,des mots de passe et des informations confidentielles de cartes de crédit.Des représentants américains témoignent de sa démarche et de faire la promotion pour SpyEye malware dans un forum de hackers informatiques dont est Darkode market.

    Les représentant des Etats Unis sont convaincus que Bendeladj l'Algérien qui a vole 2 milliards de dollar a Israel et d'autres individus complices du malware SpyEye dirigeaient l'édification d'un gigantesque réseau ou "botnet",d'ordinateurs contaminés pour détourner quotidiennement des informations financières et personnelles,Bendeladj est reconnu aussi coupable de se servir d'informations confidentielles découvertes pour détourner de l'argent aux banques en ligne.

  • Pages anciennnes ou récentes dans l'algorithme

    Les algorithmes des moteurs avaient au départ favorisés une page ancienne qu'une nouvelle récente.La raison est qu'une page est  ancienne sur le Web,a plus de crédibilité.Elle peut vraisemblablement avoir été faite dans une intention de spam.Par ailleurs,la page va accumuler des liens dans le temps qui vont améliorer l'algorithme qui donne la valeur d'une page web,ce bonus à l'ancienneté va la considérer comme plus importante.Ce qui n'est pas une garantie de sa valeur pour les internautes.

    Ce qui implique un paradoxe,si une information dépend de l'actualité,il est probable  qu'elle n'est pas ancienne dans un site  web premier dans Google.Par conséquence,l'algorithme doit comporter un mécanisme favorisant dans une intention louable des nouvelles pages.

    Au fil des années,les pages anciennes vont petit à petit devenir périmées par les informations qui ne sont plus d'actualité.Dans les début du Web le problème n'était pas connu,par la suite cela a été remarqué.il a été nécessaire d'élaborer une méthode de détection des pages obsolètes,les empêchant de leur accorder une importance surévaluée.

    La première méthode imaginée pour la détection d'obsolescence est la vérification d'une page dans la réception régulière de liens récents ou des liens venant des pages misent à jour.C'est la définition de l'analyse temporelle des liens.

  • Backlinks

    Informations misent à jour

    Les chercheurs Klienberg,Cho et Garcia-Molina et Kumar,il y a déjà plus de dix ans,qui sont des spécialistes de l'information retrieval (extraction de l'information),autrement dit de la "science des moteurs de recherche"-ont signalés que la dimension temporelle est à prendre en compte pour avoir un algorithme efficace pour un moteur de recherche.

    La collecte d'informations a été très longtemps sous-estimé par le moteur de recherche de Google  sur la modification des signaux,qui sont les paramètres  dont se sert l'algorithme.

    L'une des premières preuves dans l'algorithme de Google  sur la modification pour qu'un site web soit premier dans Google

    Un phénomène bizarre (au cours du printemps 2004) impactant les nouveaux sites web au cours du printemps 2004 et les faisant disparaître de la tête des résultats.L'éditeur de site Seroundtable Barry Schwartz le nomma l'"effet sandbox".Depuis ce moment,les référenceurs ont été atteints de paranoïa,en voyant  du "sandbox" partout,les phénomènes qui sont comparés à de la sandbox ont tous des similitudes très proches à ce qui peut-être fait en techniques d'analyse temporelle ddes liens (TLA pour Temporal Link Analysis).

    Depuis ce temps,l'algorithme a multiplié des critères temporelles qui sont pris en compte,mais sans que se soit discuté dans les blogs,les forums sans que cela soit évident.