Aller au contenu
WebFrance

Rejoignez WebFrance (Cadeau : Le Guide 2018 pour rentabiliser un site)

Rejoindre WebFrance

Connexion  
WebFrance

Le Spamdexing : Kezako ?

Messages recommandés

Quelques informations concernant le Spamdexing :

Néologisme anglais composé du substantif "spam " et du suffixe "dexing " pris sur le terme indexing signifiant référencement. En français, on peut traduire

" spamdexing " par " référencement abusif."

[hide]C'est un ensemble de techniques consistant à tromper les moteurs de recherche sur la qualité d'une page ou d'un site afin d'obtenir, pour un mot-clef donné, un bon classement dans les résultats des moteurs (de préférence dans les tous premiers résultats, car les utilisateurs vont rarement au-delà de la première page qui, pour les principaux moteurs, ne comprend par défaut que dix adresses). Elle est parfois sévèrement punie par les moteurs, même s'il n'y a pas de code de conduite précis pour les référenceurs (il est parfois difficile de distinguer le spamdexing de la SEO, l'optimisation « honnête »).[/hide]

Les techniques habituelles de spamdexing consistent par exemple à truffer une page satellite de listes de mots-clefs (pour attirer les utilisateurs de moteurs qui font une recherche sur ces mots), ou à créer des dizaines de sites qui pointent les uns vers les autres (« link farms ») pour améliorer leur classement dans les moteurs qui jugent la qualité d'une page en fonction du nombre de liens pointant vers elle...

Fonctionnement

En principe, les moteurs de recherche classent les résultats selon la qualité des pages et leur pertinence par rapport à la requête ; mais les moteurs actuels (s'opposant ainsi aux annuaires, produits par des humains, qui refusent les sites de qualité insuffisante) tentent d'estimer la qualité et la pertinence des pages par des procédés automatiques, dont les principes sont connus, dans leurs grandes lignes, par les spammeurs et les optimiseurs de sites:

une page est supposée de bonne qualité si un grand nombre de liens externes pointent vers elle (quand un concepteur de page web place un lien vers une page, il est ainsi censé " voter " pour cette page); il est facile de créer plusieurs sites qui pointent vers le site qu'on veut promouvoir (ou bien d'échanger des liens avec des sites amis, gérés par d'autres personnes)

une page est supposée pertinente, en réponse à une requête donnée, si elle contient beaucoup de mots présents dans la requête

les différents mots de la page obtiennent un poids plus important selon leur emplacement (par exemple, si l'expression " vente de voitures" figure dans le titre, la page est très probablement consacrée à ce sujet)

les moteurs tiennent également compte des mots présents dans l'adresse de la page (ce qui explique qu'on trouve parfois des URL longues, avec des répétitions de mots, comme example.com/voyages-pas-chers/voyage-en-chine/voyage-en-chine.html)

--------------------------------------------------------------

Le spamdexing et le droit

Le spamdexing entre en total contradiction avec la loi sur les pratiques du commerce. De plus il s'apparente à de la fraude informatique puisque le but est de détourner un processus informatique automatisé de son but initial et ce dans un but d'enrichissement personnel.

Dissimulation du spam

Pour ne pas donner des soupçons à l'utilisateur qui verrait sur son écran une longue liste de mots, les nombreux termes placés dans une page pour « piéger » les moteurs sont souvent camouflés par différents procédés :

relégation de ces listes de mots en bas de page

écriture en caractères minuscules

mots placés dans une section " noframes ", " noscript " ou " display:none " (généralement non affichée par le navigateur, mais lue par les robots des moteurs)

caractères de même couleur que le fond de la page (ce qui rend le texte invisible)

moteurs ou annuaires affichant de longues listes de « dernières recherches » ou de « recherches populaires »

Il y a aussi les pages dynamiques - par exemple celles de moteurs de recherche - déguisées en pages statiques, avec des adresses telles que example.com/trouver-requete.php: une telle adresse ressemble à celle d'un fichier statique qui s'appellerait trouver-requete.php, qui serait situé sur le serveur du moteur, sur le serveur, alors qu'il s'agit en fait d'une page dynamique (la sortie d'un script PHP, affichant les résultats de recherche) créée au moment de la requête...

Le fait de « déguiser » ainsi l'URL permet de faciliter son indexation si on suppose que les pages dynamiques peuvent ne pas être indexées par les moteurs, ou obtenir un classement inférieur à celui des pages statiques.

En général, les pages de résultats des principaux moteurs possèdent des adresses telles que example.com/search.cgi?requete, où le contenu de la requête n'est pas déguisé en nom de fichier ; de plus, ces moteurs interdisent expressément l'indexation de ces pages au moyen d'un fichier robots.txt

Retrait des mots via un script ex.: Javascript

une page satellite (« doorway ») , truffée de mots-clefs, est lue par les robots des moteurs de recherche; mais quand un humain la consulte, il est redirigé vers une autre page (et donc il ne voit pas la page « spammesque »).

Le « cloaking » consiste à présenter des résultats différents selon le logiciel utilisé pour afficher la page: une page anodine pour un navigateur web, une page optimisée, remplie de mots-clefs, réservée aux robots des moteurs

les sociétés de SEO , sur leur page d'accueil, donnent des exemples de sites qu'elles ont optimisés, chacune de ces adresses étant placée derrière un mot décrivant le sujet du site en question; ce qui permet aux pages des optimiseurs de contenir des mots qui n'ont rien à voir avec leur activité (et donc de figurer parmi les résultats des recherches portant sur ces mots). Elles peuvent aussi mettre un lien vers leur propre site dans chaque page qu'elles modifient

Source : Wikipedia

Partager ce message


Lien à poster
Partager sur d’autres sites
Partagez cette page :

>> Nouveau : Découvrez la marketplace d'Achat / Vente de Sites !

On voit parfois une confusion entre spamindexing et keyword stuffing.

En fait, on fait quasiment toujours du keyword stuffing quand on pratique le spamindexing, mais par contre on peut faire du keyword stuffing sans spamindexing... En d'autres termes, on peut imaginer des pages truffées de mots clés qui ne rentrent pas dans la catégorie des pages satellites (certains moteurs ou annuaires font ça très bien). Comme on associe obligatoirement les pages sat au spamindexing il faut bien dissocier toutes ces dénominations.

PS : y a assez de "spamindexing" dans mon post pour être qualifié de keyword stuffing ? :O

Partager ce message


Lien à poster
Partager sur d’autres sites
Partagez cette page :

moteurs ou annuaires affichant de longues listes de « dernières recherches » ou de « recherches populaires »

Ah bon ? Y en a qui font ça ??

:o

Plus sérieusement, la frontière est difficile entre les méthodes non recommandables (quelles que soient les noms qu'on leur donne) et celles recommandées pour un bon positionnement moteur.

C'est une question de bon sens et de cohérence. En gros, essayer de répondre à la question "ce que je suis en train de faire a-t-il une utilité autre que le SEO ? Utilité pour l'internaute, pour les clients, pour le marketing, etc.

Si oui, alors, à priori, on devrait être dans les clous. Et il faut espérer que les moteurs aient la même réponse à cette question. :wacko:

[hide]Punaise, Thick ! J'ai toujours l'impresion d'être un vieux con croulant quand je te lis ! :D Connaissais pô l'expression "keyword stuffing " !

Finalement, je dois être vraiment un vieux con croulant... :shout:[/hide]

Modifié par Lurch

Partager ce message


Lien à poster
Partager sur d’autres sites
Partagez cette page :

Ajouter un commentaire :

-

Créer un compte

en 3 secondes

INSCRIPTION

Se connecter

ici

CONNEXION
Connexion  

Partagez cette page :

  • Audit SEO Gratuit

  • Sites internet

  • Réseaux sociaux

  • Dernières vidéos



© WebFrance 2018 - Contact - Annonceurs - Conditions générales

×

Nouveau : Marketplace WebFrance

2.png

Vente de sites internet, domaines, applications...