Les moteurs de recherche sont des sites qui lancent des requêtes sur une base de données constituée de façon automatique d'après le contenu des pages recensées par les "spiders", outils qui parcourent régulièrement le web en se basant sur les liens hypertextes.
On peut avoir une idée de ce que "voit" un spider sur le site www.spider-simulator. Les données contenues dans les pages rencontrées sont indexées et pondérées automatiquement, selon différents critères qui varient selon les outils :
Lorsque l'on interroge un moteur de recherche, c'est dans cette base préconstituée qu'il va puiser pour proposer une liste de réponses, triées en fonction de leur adéquation supposée (c'est à dire calculée) avec la question. Chaque moteur a sa propre méthode de tri - jalousement gardée...
Les performances des moteurs s'accroissent régulièrement (cf http://www.searchenginewatch.com/reports/ ). Mais le nombre de pages web est en progression constante et aucun moteur ne peut toutes les indexer :
Quant aux résultats proposés par les moteurs, ils sont souvent très pertinents et génèrent relativement peu de "bruit" ( réponses sans rapport avec la question), mais :
Creative Commons License. Attribution : ce site peut être reproduit et distribué à condition que l'auteur initial, eric pichon, soit cité.- Non commercial : aucune adaptation, reproduction ou utilisation de ce site ne peut être faite à des fins commerciales, sans accord de l'offrant ('licensor') - Partage à l'identique : des adaptations de ce site ne peuvent être diffusées que sous une autorisation identique.