Jump to content
WebFrance
Sign in to follow this  
WebFrance

Le Spamdexing : Kezako ?

Recommended Posts

Quelques informations concernant le Spamdexing :

Néologisme anglais composé du substantif "spam " et du suffixe "dexing " pris sur le terme indexing signifiant référencement. En français, on peut traduire

" spamdexing " par " référencement abusif."

[hide]C'est un ensemble de techniques consistant à tromper les moteurs de recherche sur la qualité d'une page ou d'un site afin d'obtenir, pour un mot-clef donné, un bon classement dans les résultats des moteurs (de préférence dans les tous premiers résultats, car les utilisateurs vont rarement au-delà de la première page qui, pour les principaux moteurs, ne comprend par défaut que dix adresses). Elle est parfois sévèrement punie par les moteurs, même s'il n'y a pas de code de conduite précis pour les référenceurs (il est parfois difficile de distinguer le spamdexing de la SEO, l'optimisation « honnête »).[/hide]

Les techniques habituelles de spamdexing consistent par exemple à truffer une page satellite de listes de mots-clefs (pour attirer les utilisateurs de moteurs qui font une recherche sur ces mots), ou à créer des dizaines de sites qui pointent les uns vers les autres (« link farms ») pour améliorer leur classement dans les moteurs qui jugent la qualité d'une page en fonction du nombre de liens pointant vers elle...

Fonctionnement

En principe, les moteurs de recherche classent les résultats selon la qualité des pages et leur pertinence par rapport à la requête ; mais les moteurs actuels (s'opposant ainsi aux annuaires, produits par des humains, qui refusent les sites de qualité insuffisante) tentent d'estimer la qualité et la pertinence des pages par des procédés automatiques, dont les principes sont connus, dans leurs grandes lignes, par les spammeurs et les optimiseurs de sites:

une page est supposée de bonne qualité si un grand nombre de liens externes pointent vers elle (quand un concepteur de page web place un lien vers une page, il est ainsi censé " voter " pour cette page); il est facile de créer plusieurs sites qui pointent vers le site qu'on veut promouvoir (ou bien d'échanger des liens avec des sites amis, gérés par d'autres personnes)

une page est supposée pertinente, en réponse à une requête donnée, si elle contient beaucoup de mots présents dans la requête

les différents mots de la page obtiennent un poids plus important selon leur emplacement (par exemple, si l'expression " vente de voitures" figure dans le titre, la page est très probablement consacrée à ce sujet)

les moteurs tiennent également compte des mots présents dans l'adresse de la page (ce qui explique qu'on trouve parfois des URL longues, avec des répétitions de mots, comme example.com/voyages-pas-chers/voyage-en-chine/voyage-en-chine.html)

--------------------------------------------------------------

Le spamdexing et le droit

Le spamdexing entre en total contradiction avec la loi sur les pratiques du commerce. De plus il s'apparente à de la fraude informatique puisque le but est de détourner un processus informatique automatisé de son but initial et ce dans un but d'enrichissement personnel.

Dissimulation du spam

Pour ne pas donner des soupçons à l'utilisateur qui verrait sur son écran une longue liste de mots, les nombreux termes placés dans une page pour « piéger » les moteurs sont souvent camouflés par différents procédés :

relégation de ces listes de mots en bas de page

écriture en caractères minuscules

mots placés dans une section " noframes ", " noscript " ou " display:none " (généralement non affichée par le navigateur, mais lue par les robots des moteurs)

caractères de même couleur que le fond de la page (ce qui rend le texte invisible)

moteurs ou annuaires affichant de longues listes de « dernières recherches » ou de « recherches populaires »

Il y a aussi les pages dynamiques - par exemple celles de moteurs de recherche - déguisées en pages statiques, avec des adresses telles que example.com/trouver-requete.php: une telle adresse ressemble à celle d'un fichier statique qui s'appellerait trouver-requete.php, qui serait situé sur le serveur du moteur, sur le serveur, alors qu'il s'agit en fait d'une page dynamique (la sortie d'un script PHP, affichant les résultats de recherche) créée au moment de la requête...

Le fait de « déguiser » ainsi l'URL permet de faciliter son indexation si on suppose que les pages dynamiques peuvent ne pas être indexées par les moteurs, ou obtenir un classement inférieur à celui des pages statiques.

En général, les pages de résultats des principaux moteurs possèdent des adresses telles que example.com/search.cgi?requete, où le contenu de la requête n'est pas déguisé en nom de fichier ; de plus, ces moteurs interdisent expressément l'indexation de ces pages au moyen d'un fichier robots.txt

Retrait des mots via un script ex.: Javascript

une page satellite (« doorway ») , truffée de mots-clefs, est lue par les robots des moteurs de recherche; mais quand un humain la consulte, il est redirigé vers une autre page (et donc il ne voit pas la page « spammesque »).

Le « cloaking » consiste à présenter des résultats différents selon le logiciel utilisé pour afficher la page: une page anodine pour un navigateur web, une page optimisée, remplie de mots-clefs, réservée aux robots des moteurs

les sociétés de SEO , sur leur page d'accueil, donnent des exemples de sites qu'elles ont optimisés, chacune de ces adresses étant placée derrière un mot décrivant le sujet du site en question; ce qui permet aux pages des optimiseurs de contenir des mots qui n'ont rien à voir avec leur activité (et donc de figurer parmi les résultats des recherches portant sur ces mots). Elles peuvent aussi mettre un lien vers leur propre site dans chaque page qu'elles modifient

Source : Wikipedia

Share this post


Link to post
Share on other sites
Partagez cette page :

>> Nouveau : Découvrez la marketplace d'Achat / Vente de Sites !

On voit parfois une confusion entre spamindexing et keyword stuffing.

En fait, on fait quasiment toujours du keyword stuffing quand on pratique le spamindexing, mais par contre on peut faire du keyword stuffing sans spamindexing... En d'autres termes, on peut imaginer des pages truffées de mots clés qui ne rentrent pas dans la catégorie des pages satellites (certains moteurs ou annuaires font ça très bien). Comme on associe obligatoirement les pages sat au spamindexing il faut bien dissocier toutes ces dénominations.

PS : y a assez de "spamindexing" dans mon post pour être qualifié de keyword stuffing ? :O

Share this post


Link to post
Share on other sites
Partagez cette page :

moteurs ou annuaires affichant de longues listes de « dernières recherches » ou de « recherches populaires »

Ah bon ? Y en a qui font ça ??

:o

Plus sérieusement, la frontière est difficile entre les méthodes non recommandables (quelles que soient les noms qu'on leur donne) et celles recommandées pour un bon positionnement moteur.

C'est une question de bon sens et de cohérence. En gros, essayer de répondre à la question "ce que je suis en train de faire a-t-il une utilité autre que le SEO ? Utilité pour l'internaute, pour les clients, pour le marketing, etc.

Si oui, alors, à priori, on devrait être dans les clous. Et il faut espérer que les moteurs aient la même réponse à cette question. :wacko:

[hide]Punaise, Thick ! J'ai toujours l'impresion d'être un vieux con croulant quand je te lis ! :D Connaissais pô l'expression "keyword stuffing " !

Finalement, je dois être vraiment un vieux con croulant... :shout:[/hide]

Edited by Lurch

Share this post


Link to post
Share on other sites
Partagez cette page :

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

Partagez cette page :



© WebFrance - Contact - Annonceurs - Conditions générales - Legal

×
×
  • Create New...

Achat / Vente de Sites

Découvrez la marketplace WebFrance :

site.jpg