Glossaire du webmarketing

AdRank : 1ère définition SEA, Adrank est la formule qui détermine le positionnement de vos adsenses dans la page

Adrank est un indice de position qui correspond à une formule complexe qui détermine quelle annonce publicitaire doit apparaitre et à quel rang dans la page.
Adrank = montant des enchères x quality score
Adrank détermine la place d’une annonce sur un site utilisant les adsenses et sur la page de résultats de Google. Le positionnement d’une publicité ciblée sur des mots clés est basé sur le montant des enchères pour un mot clé multiplié par le score de qualité du mot. Pour un bon positionnement dans les pages de résultats de Google, il faut que votre publicité dépasse un niveau de qualité prédéterminé qui permet au moteur de recherche de contrôler que seules les publicités pertinentes apparaissent dans les meilleures positions.

AdSense : votre site web support publicitaire

Les adsenses sont des annonces contextualisées de textes, d’images ou de vidéos destinées aux webmasters désireux de mettre en place sur leur site les annonces publicitaires des affiliés adwords. Le système adsense est un programme qui choisit de façon automatique les annonces à diffuser sur vos pages selon le contexte sémantique de ces dernières.
Google a démocratisé l’accès à la publicité sur le web grâce à deux programmes :

  • le programme adwords destiné aux annonceurs
  • le programme Adsense dédié aux sites web.

Les annonces Adsense ont un rapport étroit avec les requêtes des internautes qui visitent votre site ou avec leurs centres d’intérêt. Adsense permet aux éditeurs de sites web d’afficher des annonces Google pertinentes sur des pages de contenu de leur site tout en augmentant leur revenu grâce aux clics des visiteurs sur les liens adsenses. Pour l’annonceur c’est un moyen d’acquérir de la visibilité en ciblant un public proche de son activité, de ses services ou de ses produits.
Les publicités adsenses utilisent les formats publicitaires traditionnels que sont les bannières, les affichages horizontaux ou verticaux, les rectangles.
Plus d’infos 

AdWords : boostez rapidement votre visibilité

Les adwords sont des annonces publicitaires ciblées proposées par Google et diffusées sur les pages de résultats Google, sur les sites partenaires de Google, sur les sites personnels et le webmail de Google avec le système des adsenses. C’est une solution pour obtenir rapidement de la visibilité sur le web.
Les adwords sont un programme de publicité qui permet aux annonceurs de publier des liens sponsorisés sur des pages web. Une campagne adwords est facturée au coût par clic (CPC), ce qui signifie que l’annonceur ne paye que lorsque l’utilisateur clique sur le lien sponsorisé. Les budgets engagés sont variables en fonction du secteur d’activité et de la concurrentialité des mots clés sur lesquels l’annonceur souhaite être visible. Les adwords sont des liens textuels placés en tête de page de résultats de Google (dans la partie légèrement colorée) et dans la zone «liens commerciaux». Les mots clés utilisés pour rédiger les annonces correspondent aux termes recherchés par les internautes. Google met ainsi en relation des entreprises et des utilisateurs intéressés par les produits ou services de la dite entreprise. D’ailleurs, n’hésitez pas à retrouver notre FAQ : comment mesurer les résultats d’une campagne adwords ? Et découvrez d’autre définition SEM.

Plus d’infos

Algorithme : le détecteur de pertinence

Un algorithme est un ensemble de règles et de techniques. Il s’agit d’un énoncé qui permet de résoudre par un système d’équations un problème donné. Pour les moteurs de recherche, l’algorithme est le système qui permet de trier, de classifier, d’organiser une collection de sites dans un ordre déterminé. La méthode de tri la plus connue est le tri alphabétique qui n’implique qu’un seul paramètre, la première lettre du mot et une hiérarchisation entre chaque lettre.
L’algorithme des moteurs de recherche est une formule de tri mathématique impliquant de nombreux paramètres utilisés pour classer des pages web selon les requêtes mots clés faites par les internautes.
L’algorithme Google dépend en partie :

  • de la pertinence du contenu des pages indexées (occurrences des mots clés, leur place dans la page)
  • du Page Rank, calculée à partir des liens entrants et sortants d’un site.

Ces algorithmes restent secrets et sont régulièrement mis à jour.

Alt : optimisez vos images et accentuez votre visibilité

Alt est un attribut de balises HTML, notamment <img> qui permet d’optimiser les images de vos pages web et d’en donner une description précise. Sans cet attribut, les robots des moteurs de recherche ne parviennent pas à lire et indexer vos images. L’attribut Alt a donc pour fonction de rendre accessibles et lisibles vos images aux robots en y associant un texte optimisé avec des mots clés pertinents décrivant l’image. Les visiteurs peuvent apercevoir le texte ou les mots clés contenus dans l’attribut Alt en glissant quelques instants la souris sur l’image.

Annuaire : un outil pour améliorer votre visibilité

L’annuaire (ex : annuaire Dmoz) est un outil de recherche qui organise le classement de site en fonction de rubriques et de catégories. Les annuaires jouent un rôle essentiel dans le référencement d’un site internet. L’indexation des sites dans la base de données d’un annuaire se fait par un travail humain qui consiste en la consultation des sites, leur classement dans les rubriques adéquates de l’annuaire et des inscriptions dans un formulaire.
Un annuaire se présente comme un répertoire constitué de rubriques et de sous rubriques et qui recense des liens. Il existe des annuaires entièrement automatisés et des annuaires soumis à validation manuelle. Dans le premier cas, le webmaster soumet son site via un formulaire. Une vérification humaine est faite avant ajout dans la base de données de l’annuaire. Dans le deuxième cas de figure, le site est stocké dans une base de données de l’annuaire en attente d’indexation.
Les annuaires offrent de la visibilité aux sites répertoriés et améliorent leur trafic.

Backlink : misez sur le netlinking

Un backlink, est un lien entrant. Tous les liens qui pointent sur une page web en provenance d’une autre page web, que ce soit d’une page ayant le même nom de domaine (lien entrant interne) ou un nom de domaine différent (lien entrant externe), sont considérés comme des backlinks. Les backlinks peuvent provenir d’un annuaire, de blogs, de forum…
Dans l’univers du SEO (Search engine optimisation), la visibilité d’un site passe par la mise en place d’une stratégie de netlinking et notamment par la création de liens entrants (backlinks) vers les pages du site. La valeur d’un backlink est évaluée à partir de la qualité des pages d’où ils proviennent. La qualité des backlinks est un critère d’évaluation pour les moteurs de recherche pour déterminer la popularité et la pertinence d’un site. Ces liens entrants sont dits soit naturel, soit artificiel. Les liens naturels sont des backlinks fait à partir d’un autre site par le webmaster qui juge le vôtre pertinent. Les liens artificiels sont des liens payants ou automatisés.
Chaque backlink doit avoir un texte d’ancrage (anchor text) pertinent. Les textes des liens permettent aux robots d’identifier les thématiques des pages cibles.

Blacklist : la réponse des moteurs et annuaires aux fraudeurs

La blacklist est une liste noire de sites ou de pages qui ont utilisé des techniques frauduleuses et qui n’ont donc pas respecté les règles ou les conditions d’utilisation des moteurs de recherche ou annuaires. Ces sites ont donc été écartés des pages de résultats de façon momentanée ou définitive. Les conditions d’utilisation diffèrent d’un moteur à un autre, d’un annuaire à un autre. Ainsi un site peut être dans la blacklist de Google et toujours être présent dans les résultats de Yahoo.
Le blacklistage se traduit par la disparition du site en entier ou d’une partie du site de l’index des moteurs. Cela signifie concrètement que le site ou les pages du site ne sont plus visibles aux internautes.
Les principales raisons d’un blacklistage ? Toutes les techniques abusives qui visent à tromper les moteurs de recherche telles que l’utilisation de pages satellites, de duplication de contenu, de textes cachés, de longues séries d’expressions clés séparées par une simple ponctuation (keyword stuffing), de balises de commentaires spammantes ou encore de liens payants, ferme de liens… sont susceptibles d’entraîner un site dans la blacklist des moteurs.

Blacklister : synonyme de perte de visibilité

Action des moteurs de recherche et annuaires pour désindexer de leur base de données tout ou partie d’un site qui a utilisé des techniques dites abusives dans le but d’augmenter sa visibilité dans les pages de résultats.

Un blog ou web blog

Un blog ou web blog est un site web constitué de billets publiés à intervalles plus ou moins réguliers. Les publications gérées par des systèmes de gestion de contenu sont simples et peuvent être faites en temps réel, la ligne éditoriale est choisie par le blogueur. Ces billets sont répertoriés par ordre chronologique. On retrouve divers type d’articles sur les blogs corporate :
des articles d’actualités avec une analyse, un avis argumenté qui donne une valeur ajoutée à l’information. Il peut s’agir d’actualités dont vous avez l’exclusivité ou reprises sur d’autres sources d’information.

  • des articles de fond documentés sur un sujet général ou concernant votre secteur d’activité
  • des tutoriaux qui mettent en avant votre expertise
  • des enquêtes ou des sondages
  • des comptes rendu d’un salon, d’une conférence
  • des vidéos
  • des articles en réponses à d’autres blogs

D’ailleurs, n’hésitez pas à jeter un œil sur notre blog pour découvrir de nouvelles pratiques et définition de référencement naturel.

Cloaking ou technique d’optimisation abusive

Le cloaking consiste à dissimuler un texte sans intérêt à l’internaute et à le rendre visible aux seuls moteurs de recherche. Le principal objectif de cette dissimulation consiste donc à tromper le moteur en lui procurant une page spécialement conçue et optimisée pour lui (répétition de mots clés non affichés pour les visiteurs).
Le cloaking a pour objectif d’améliorer la visibilité d’un site en boostant ses pages vers les premières positions des résultats des moteurs de recherche. Il s’agit d’une technique frauduleuse, considérée comme du spamdexing par les principaux moteurs de recherche. L’utilisation du cloaking pour optimiser les pages d’un site entraine à plus ou moins long terme la non indexation des pages du site dans les résultats jusqu’au bannissement du site pour plusieurs mois. … Inutile donc de jouer avec le feu : préférez des méthodes de rédaction éditoriale « propres » pour donner des bases saines à votre référencement en rédigeant un contenu destiné en priorité aux internautes.

Community Manager : Le porte parole de la marque

Le « community manager », ou en français « animateur de communautés » est un expert des communautés en ligne. Son objectif premier est de fédérer une communauté d’internautes autour d’un intérêt commun. Grâce à sa capacité d’animation et sa passion, il veille à favoriser l’échange sur sa thématique tout en faisant respecter les règles de bonne conduite qu’il a fixé.
Le community manager a pour mission principale de développer la présence en ligne d’une organisation dont il est le porte-parole sur les médias sociaux.
Ses principaux traits de caractère doivent être l’empathie, l’autonomie et la curiosité.
C’est avant tout un passionné et un utilisateur assidu des plateformes social media. Pour chacune de ses publications son orthographe doit être irréprochable.
Définition rédigée par Alexandre moussier : community manager freelance pour Netskipper.fr

Retrouvez-nous sur Facebook, Twitter ou encore LinkedIn.

Concours de Référencement : ludique et instructif

Les concours de référencement sont organisés pour les référenceurs professionnels et amateurs qui souhaitent comparer leurs acquis en matière de référencement. L’objectif de ces concours de référencement est de parvenir à référencer en premier une page ou un site dans les principaux moteurs de recherche tels que Google, Live MSN, Yahoo, Voilà, AOL, Exalead…
Les participants aux concours de référencement doivent, avec un mot clé précis souvent un peu loufoque (ex : zobibi, racheumeuneu…), positionner au mieux des pages dans les pages de résultats des moteurs sur une requête donnée. Les concours de référencement n’ont pas d’enjeux si ce n’est le plaisir de chercher les critères qui permettent de battre ses adversaires de jeux et de gagner des places en laissant derrière soi les sites des concurrents. Les concours de référencement sont également l’occasion d’expérimentations qui permettent de tester les réactions des moteurs de recherche à des stratégies mises en place.

Contenu dupliqué : vous courez le risque d’être blacklisté

On parle de contenu dupliqué ou duplicate content en anglais lorsque l’on retrouve sur des pages indexées distinctes (URL différentes) un contenu similaire à plus de 80%.
Il arrive de façon récurrente que les webmasters ne se rendent pas compte que leur site contient du contenu dupliqué. En effet, plusieurs erreurs peuvent être à l’origine de la duplication de contenu. Les plus courantes :

  • avoir un site indexé avec et sans www.
    ex: http://www.monsite.fr/ et http://monsite.fr/
    Si ces deux URL sont accessibles aux moteurs de recherche sans redirection de l’une vers l’autre, il y a contenu dupliqué. La redirection est donc impérative !
  • avoir deux types d’URL indexables pour les pages d’un site avec des contenus similaires.
    C’est notamment le cas dans le cadre d’une réécriture d’URL (URL rewriting). Pour éviter d’avoir du contenu dupliqué, il faut interdire l’indexation de l’URL non réécrite ou les rediriger de façon permanente vers l’URL à indexer avec une redirection 301.
  • avoir plusieurs noms de domaines indexés pour un même site.
    Ex: http://www.monsite.com/, http://www.monsite.net/, etc…
    Pour éviter la duplication de contenu, l’ensemble des noms de domaine ne doivent pas être indexés et doivent rediriger de façon permanente vers le nom de domaine officiel.

Copywriter: les nouveaux métiers du web

Le terme de copywriter est un anglicisme utilisé pour désigner le rédacteur web ou web rédacteur. Il s’agit d’un métier de la communication. Le copywriter doit à la fois avoir un sens développé de l’artistique et du pragmatique.
Le développement de la communication web créé de nouveaux métiers. Souvent parent pauvre des projets web, l’e-contenu se professionnalise. A la fois concepteur et rédacteur de vos messages, le copywriter est donc le professionnel qui sait donner vie à vos idées par le mot.

Crawl : l’indexation dans les moteurs

Le crawl, c’est l’action de crawler, c’est à dire de parcourir régulièrement les pages accessibles du web en suivant les liens hypertextes de manière à répertorier et à collectionner dans les index des moteurs de recherche tous les documents indexables du web. Plus une page de site est profonde dans l’arborescence d’un site, par exemple si l’outil de crawl doit passer sur une dizaine de liens avant d’accéder à cette page, plus le robot mettra du temps à aspirer et à répertorier la page.

Crawler ou comment explorer un site

Le crawler aussi dénommé robot ou spider est une fonction des moteurs de recherche, un logiciel utilisé pour repérer et indexer dans la base de données des moteurs de recherche les adresses URL de sites. Le crawler balaye toutes les pages accessibles et collecte les ressources du web, vidéo, image, texte, PDF…
Les crawlers lisent le code source et plus précisément le code HTML qui structure le contenu d’une page web. Ce code est dans un premier temps stocké dans les bases de données des moteurs puis analysé pour une classification des contenus dans les index des moteurs. Il existe des crawlers libres (Nutch, GNU Wget…) et des crawlers propriétaires (Googlebot, Slurp, MSNbot…)

Cross linking : dopez vos résultats !

Le cross linking désigne des liens issus d’un site externe. Le cross linking, définition de référencement naturel indispensable à connaitre, participe à la notion de popularité.
Le cross linking fait partie de la stratégie de netlinking. Il s’agit d’une opération qui vise à développer le nombre de liens hypertextes pointant vers un site à partir d’autres sites dont le contenu et le public correspondent à la cible visée par le premier.
La position de votre site dans les pages de résultats dépend de l’analyse de la qualité et la pertinence des liens entrants sur vos pages. La meilleure solution pour un cross linking de qualité est de rédiger du contenu utile et original, complétant les informations déjà présentes sur d’autres sites et qui incite la mise en place de liens depuis d’autres pages web de thématiques connexes, parce que ce contenu apporte une réelle valeur ajoutée à l’utilisateur.
Attention au surnombre de liens réciproques peu appréciés des moteurs de recherche. Préférez-leur des échanges triangulaires.

CSS est l’acronyme de l’expression anglaise « cascading style sheets »

CSS est l’acronyme de l’expression anglaise « cascading style sheets » traduit en français par feuille de style en cascade. Il s’agit d’un document indépendant qui définit la mise en forme des pages d’un site, par exemple le choix de la police, de la couleur des titres ou du fond d’écran….
L’objectif d’une feuille de style est de séparer nettement la structure d’un document de ses styles de présentation. Les caractéristiques de mise en forme sont alors appelées dans le code source de la page pour lui être appliquées.

CTR : La mesure la performance d’une campagne adwords

CTR est l’acronyme de l’expression anglaise « click Throught Ratio » ce qui désigne en français le taux de clic. Il s’agit du nombre de clics effectués sur un lien commercial divisé par le nombre d’affichage de l’annonce. Le CTR est un indicateur qui permet de mesurer la performance d’une campagne adwords. Le taux de clic est affiché dans Google webmaster tools. Cet outil permet d’analyser les requêtes sur lesquelles un site est bien positionné et les requêtes qui ont apporté du clic.

DATA Center : Centre d’hébergement de serveur internet

Data center est l’expression anglaise qui désigne un centre de données. Il s’agit d’un lieu soit physique soit virtuel conçu pour stocker, gérer et diffuser des données et des informations organisées autour d’un domaine de connaissances. Un data center est également un centre d’hébergement de serveur internet. Il s’agit d’un environnement sécurisé qui intègre la gestion et le contrôle des matériels utilisés.
Selon les data center de Google interrogés, il est possible qu’un site n’atteigne pas exactement les mêmes positions sur une requête mot clé identique.

Densité des mots clés : un indicateur pour bien optimiser une page web

La densité de mots clés d’une page web représente le rapport entre le nombre d’occurrence d’un même mot clé et le nombre total de termes présents dans la page.
Il s’agit d’un indicateur utilisé par les rédacteurs qui souhaitent optimiser des pages de textes en vue du référencement de la dite page. La densité des mots clés est étudiée à partir de l’analyse du texte visible de la page mais aussi en fonction de la présence des expressions dans les balises métadonnées, les liens, le menu, la baseline, l’upline, le fil d’Ariane…en fait, tous les éléments de textes visibles et invisibles contenus dans la page.
Selon la concurrentialité des mots clés choisis, on considère qu’un texte correctement optimisé pour les moteurs de recherche a une densité de 3 à 7 % sur les mots clés principaux.
Par exemple une page contenant 100 mots comprendrait en 3 et 7 fois (balises inclues) le terme prioritaire.
Le rédacteur doit donc être vigilant dans sa rédaction à ne pas multiplier les mêmes occurrences de manière à ne pas tomber dans l’excès de densité qui pourrait être interpréter comme du spamdexing par les crawlers. Dans cette page la densité mot clé de l’expression éponyme est de 3.62%.
Si la densité des mots clés est importante pour les moteurs de recherche, il ne faut toutefois pas perdre de vue la qualité du texte diffusé. Outre le souci de « plaire » aux moteurs, le rédacteur doit donc concentrer sa rédaction sur un texte utile et pertinent pour le lecteur.
Il existe des outils d’analyse libre d’accès : https://www.outiref.com/

Duplicate Content : ou aussi duplication de contenu

Le duplicate content ou contenu dupliqué en français consiste en la reprise d’une page à l’autre d’un même site ou d’un autre site d’un contenu similaire à plus de 80 %. Pour éviter les cas de duplicated content, les pages d’un site doivent contenir des balises métas différentes.
Les moteurs de recherche gèrent le duplicated content en appliquant un filtre sur les pages sans pour autant éradiquer ces pages de leurs index. Dans le cas des sites miroirs, sites identiques à un autre, les moteurs de recherche désindexent les pages et reportent la popularité sur le site original.
Il existe deux types de duplicated content :
La duplication interne, souvent non intentionnelle, entre deux ou plusieurs pages d’un même site (même nom de domaine). Google applique des sanctions que s’il juge que la duplication est délibérée. Google conseille de retirer rapidement les pages dupliquées. Vous pouvez consulter l’ensemble des recommandations à l’adresse suivante
La duplication externe, qui peut être due à un vol de contenu (scraping en VO). Dans ce cas Google est généralement capable de déterminer la source originale du contenu. Comme tous les autres médias, Internet est soumis au code de la Propriété intellectuelle. Outre l’aspect répréhensible du procédé et les poursuites judiciaires auxquelles s’expose le plagiaire, la copie d’une partie ou tout d’un site entraine le déclassement voire le bannissement du site plagieur des pages de résultats au profit… du site copié ! Si toutefois vous empruntiez des documents ou textes d’un autre site, pensez à toujours justifier vos références en citant explicitement vos sources et à y ajouter votre patte de rédacteur avec un commentaire analytique du document par exemple.

EIAA: European interactive advertising association

L’EIAA est une association professionnelle basée au Royaume Uni et qui rassemble les plus grandes régies publicitaires pan-européennes. Créée en juin 2002 par 8 membres fondateurs -Tiscali, MSN, Yahoo Europe, Lycos Europe, AOL Europe, Adlink Internet Media, IP-web.net, T-online international- l’EIAA s’est fixée pour mission :
d’améliorer la compréhension de la valeur de la pub on line en tant que médium auprès des annonceurs et éditeurs
d’étudier les tendances et les comportements liés aux évolutions des marchés publicitaires des média
et de prouver son l’impact de l’e-publicité pour accroitre la vente d’espaces multimédia.

Etude de mots clés, ou la base d’un bon référencement

Objectif :
L’Etude mots clés permet de déterminer et optimiser les mots clés les plus stratégiques ainsi que les mots clés connexes générateurs de trafic ciblé.

Méthode :
Étude et analyse mots clés :

  • Identification du marché des recherches mots clés dans vos domaines d’activités
  • Identification des mots clés à préserver : présence en 1ère page, patrimoine à maintenir
  • Identification des mots clé à développer , présence en 2ème page et au-delà
  • Identification des mots clés à conquérir, non positionné
  • Optimisations techniques des pages.

Résultats :
Définition de votre stratégie d’optimisation pour le référencement naturel.
Nous vous fournissons les optimisations techniques à mettre en place sur vos pages..

Exalead : le moteur de recherche français

Exalead est un moteur de recherche conçu en France. Il fait partie du programme Quaero dans lequel la société Exalead est en charge du développement du moteur de recherche. Basé sur des algorithmes statistiques qui permettent de proposer des fonctions dites « intelligentes », Exalead fonctionne sur le principe de la lemmatisation et repèrent les spécificités sémantiques et linguistiques d’une expression.
Exalead n’est pas qu’un simple moteur de recherche. Un partenariat technique et commercial avec Lingway, éditeur français de moteur de recherche sémantique et text mining, permet aujourd’hui à Exalead de proposer diverses fonctionnalités de recherche sémantique multilingue et de cartographie des pages de résultats. Ces fonctionnalités sont:

  • Exalead one: workgroup pour la recherche sur les disques durs et les réseaux locaux ;
  • Exalead one: enterprise pour les bases de données, les serveurs d’entreprise, le web et les postes de travail.
  • Exalead one: websearch : le moteur de recherche généraliste sur le web ;
  • Exalead one: datacenter pour le traitement de milliards de documents avec des contraintes de trafic très élevées.
    http://www.exalead.fr

Le link farm est une technique considérée comme du spam

Une ferme de liens, définition de référencement naturel littérale de l’anglais « link farm » est une technique considérée comme du spam et qui vise à augmenter l’importance d’un site en exploitant le page ranking défini par les moteurs de recherche. Dans une ferme de liens, plusieurs sites font des liens réciproques les uns vers les autres dans le but d’augmenter artificiellement leur classement dans les pages de résultats des moteurs de recherche. Ces échanges de liens n’ont souvent aucune cohérence ou pertinence par rapport aux thématiques abordées sur les dits sites. L’accroissement de la popularité d’un site au moyen de fermes de liens est considéré par les moteurs de recherche comme un référencement abusif. Les sites qui utilisent les fermes de liens sont aujourd’hui largement pénalisés par les moteurs de recherche.

Le fil d’Ariane est aussi appelé chemin de fer

Le fil d’Ariane est aussi appelé chemin de fer. Il s’agit d’un élément d’ergonomie intégré à une page web et qui permet de faciliter la navigation des utilisateurs du site. Le fil d’Ariane est une indication de contextualisation qui permet de se repérer par rapport à la page d’accueil. Il s’agit en fait d’une succession de liens qui pointent vers les divers niveaux de l’arborescence depuis la page d’accueil jusqu’à la page en cours de consultation.
Le fil d’Ariane est une représentation de l’organisation des contenus dans un site. Il est toujours indépendant du chemin emprunté par l’internaute pour arriver sur la page de consultation.

Flash est un logiciel de création graphique et de bitmap

Flash est un logiciel de création graphique et de bitmap édité par la société Adobe qui permet de créer des animations légères et d’ajouter des objets interactifs sur une page web. Flash utilise un langage de script appelé actionscript. Pour être parcourues par un navigateur, les animations Flash requièrent la présence du plug-in Flash.
La technologie Flash permet donc de créer des sites très graphiques. Les moteurs de recherche ne lisent pas encore les sites en Flash – bien que Google et Yahoo travaillent activement à l’élaboration de nouveaux algorithmes qui permettront d’indexer les contenus textuels et hypertextes présents dans des pages en flash. Adobe coopère avec les deux moteurs de recherche et a élaboré un lecteur Flash qui interprète le contenu à la manière d’un utilisateur virtuel pour le rendre compréhensible aux crawlers.

Frame

C’est le terme anglais qui désigne les cadres qui peuvent diviser une page HTML en zones indépendantes
La fenêtre du navigateur peut être découpée en une ou plusieurs frames. Chaque frame affiche un contenu unique.
La frame est également une balise HTML appelée frameset ou iframe. Cette balise permet d’inclure et de positionner un cadre dans la page. La balise frameset fait appel dans le code source de la page contenant le jeu de cadre à une ou des pages tiers. Chaque cadre/frame correspond à une page. Les crawlers indexent page par page. Il n’y a pas d’intérêt pour les utilisateurs de trouver dans les pages de résultats une page de cadre toute seule puisqu’elle s’organise visuellement et ergonomiquement par rapport aux autres pages de frames d’une fenêtre.

Fraude au clic

Action qui consiste à générer des clics manuellement ou automatiquement sur les liens publicitaires d’un site concurrent.
La fraude au clic est une action qui consiste à générer des clics manuellement ou automatiquement sur les liens publicitaires d’un site concurrent de manière à dépenser tout le budget d’une campagne d’achat de mots clés très rapidement ou pour augmenter les revenus publicitaires d’un site web. En 2008, des statistiques (source : Click Forensics) montrent que plus de 23 % de la fraude au clic est générée par des botnet, des machines zombies.

Google : le roi du web

Google est le moteur de recherche le plus réputé au monde. Créée en 1998 par deux étudiants de l’université de Stanford, Larry Page et Sergei Brin, le siège de Google est actuellement basé en Californie, dans la Silicon Valley à Mountain View. La devise de Google « Don’t be evil »
http://www.google.fr
Google organise l’information du monde entier selon un algorithme tenu secret de manière à fournir des documents accessibles et utilisables au plus grand nombre d’utilisateurs.
Google a développé depuis 1998 de nombreux services en ligne. Voici une liste non exhaustive

  • Google directory: version Google de l’annuaire libre Dmoz. Google y répertorie les sites en fonction de leur page rank.
  • Google actualités: service qui offre une compilation d’articles publiés par des sources fiables d’information.
  • Google Analytics : analyse l’audience des sites.
  • Google Adwords: offre aux annonceurs la possibilité de créer des publicités pour leurs produits et services
  • Google Adsense: offre la possibilité aux éditeurs de site de créer et de vendre des espaces publicitaires sur leur page.
  • Google image: permet la recherche d’image
  • Google universel search: permet sur une seule et même requête de faire des recherches sur tous les types de documents disponibles en ligne (vidéo, image, audio, actualité…)
  • Google maps: permet la recherche géographique à partir de cartes et de plans.

Google c’est également des programmes, entre autres :

  • Google Earth qui est un programme de recherche géographique,
  • Google Toolbar qui aide à la navigation.
  • Google talk: messagerie instantanée
  • Google a racheté You Tube en 2005.

Google Analytics : analyseur d’audience

Google Analytics est une solution gratuite proposée par Google qui permet l’analyse quotidienne des statistiques d’un site. Cet outil permet aux éditeurs d’avoir une vue globale sur le trafic généré sur leur site. Il est donc indispensable par définition. En référencement SEO et SEA, Google Analytics permet d’identifier :

  • le nombre de visites,
  • la provenance des visites (moteur de recherche, annuaire, …)
  • le comportement des utilisateurs d’un site
  • les pages d’entrées sur le site
  • les pages de sortie
  • les marchés géographiques porteurs
  • la rentabilité des mots clés dans une campagne adwords

Google analytics est donc un outil précieux pour les annonceurs et les éditeurs de sites web qui, en fonction des rapports d’analyse édités, peuvent adapter leur stratégie marketing on line. Pour aller plus loin : Quels sont les KPI à suivre sur Analytics ? La réponse dans notre FAQ

Google Bombing

Truster d’une façon vicieuse les premières positions
Le Google bombing est une pratique généralement vicieuse, une action concertée de webmasters qui s’associent pour booster le positionnement d’une page d’un site tiers sur une requête mot clé souvent diffamatoire, dénonciatrice ou polémique souvent à l’insu de l’éditeur du dit site via des liens hypertextes.
Le google bombing peut aussi permettre de truster les premières positions des pages de résultats en utilisant la complicité de sites partenaires qui pointent des backlinks vers un même site dont le texte est identique à celui de la requête alors même que la page ne comporte aucune occurrence mot clé similaire. Il s’agit d’une technique frauduleuse qui exploite l’une des caractéristiques de l’algorithme du moteur : le page rank. En effet, pour qu’un site ait de bonnes positions dans les pages de résultats du moteur de recherche sur un mot clé donné, il faut qu’il soit populaire sur ce mot clé, c’est-à-dire que de nombreux liens entrants avec un nom de lien hypertextes semblables.
Début 2007, Google a modifié son algorithme pour parer d’éventuels référencements abusifs.

Google Bot

Google Bot est un robot d’indexation du moteur de recherche Google
Google Bot est un robot d’indexation du moteur de recherche Google qui parcourent les pages du web afin de les classifier dans son index.
Google Bot est un logiciel qui explore et analyse de manière automatique le web. Ce logiciel est conçu pour collecter les ressources su web, qu’elles soient textuelles, vidéos, images, document PDF… afin de les indexer et de les mettre à disposition des utilisateurs.
Google Bot analyse la structure du contenu page par page en identifiant des balises HTML ce qui lui permet de repérer les mots ou expressions importants dans une page (notamment les mots placés entre <h1>expressions clés</h1>). Ce traitement de l’information associé à d’autres critères est un élément qui permet à Google Bot de fournir des résultats pertinents aux internautes.
Google Bot consulte en permanence le web de façon à reconstruire sans cesse son index. Le processus d’exploration dont découle la fréquence des visites repose entièrement sur les algorithmes.
A partir de PR 5 Google Bot visite régulièrement les pages. A partir de PR 6 les pages sont visités quotidiennement en général. Placer un lien dans une page à PR élevé est donc un moyen efficace de booster le référencement de nouvelles pages.
Plus d’infos

Google Dance

La Google dance correspond à une période récurrente de quelques jours au cours de laquelle Google met à jour le classement des pages de son index et change son algorithme.
Cette période se traduit par une variation possible des positions d’une page sur un même mot clé dans les pages de résultats. La Google dance influe donc sur le nombre de pages indexées d’un site et sur son page rank. Google actualise son index environ une fois par mois. La Google dance peut durer de quelques heures à quelques jours.

Google Map

Google Map est un service gratuit fourni par le moteur de recherche éponyme
Ce service s’appuie sur des cartes et des plans. Le service Google Map s’est largement déployé en France depuis 2006 et devient un service de plus en plus attractif dans le cadre de la recherche universelle. En effet, cet outil apporte une visibilité accrue en dehors des pages classiques. En termes de services pour les internautes, Google Map permet de localiser précisément une entreprise sur une carte permettant de faciliter les rencontres directes avec les entreprises et réciproquement pour les entreprises.
Il est également possible d’intégrer du contenu dans une Google Map notamment avec le Local Business Center destiné aux entreprises et aux commerces qui souhaitent être référencé. Les webmasters peuvent y insérer des images illustrant leur activité ou des vidéos. Pour les autres usagers du web, il existe un service appelé « Mes cartes » basé sur le fonctionnement du web 2.0 qui autorise les utilisateurs à proposer leurs centres d’intérêt et adresse dans Google Map. Il s’agit d’un contenu communautaire informatif qui complète et enrichit les résultats de recherche professionnels dans Google Map sous forme de commentaire, de notations…
Comme pour tous les autres résultats de recherche Google, Google Maps organise ses listes de commerces et services en fonction de la pertinence des résultats par rapport aux termes recherchés, la distance géographique n’étant pas le seul critère pris en compte.
http://maps.google.fr/maps?hl=fr&ie=UTF-8&tab=wl

Google Toolbar

La Google Toolbar correspond à la barre d’outils présente dans Google.
Il s’agit d’un logiciel qui s’ajoute au navigateur et qui donne la possibilité aux utilisateurs de faciliter et d’améliorer leurs conditions de recherche. La google Toolbar est entièrement gratuite, il suffit de la télécharger pour en disposer sur http://toolbar.google.com/intl/fr/. Google Toolbar est compatible avec Internet Explorer et Mozilla Firefox.
Outre le fait que la Google Toolbar permette d’effectuer une recherche depuis n’importe quelle page web, elle propose de nombreuses autres informations et applications selon la configuration faite par l’utilisateur :

  • affichage du Page Rank de la page en cours
  • vérification de l’orthographe
  • blocage des publicités intempestives (pop up)
  • traduction de la page en cours
  • surlignage des mots clés recherchés sur une page
  • recherche dans Google news

En bref, Google Toolbar est une assistance précieuse en bien des occasions, notamment pour trouver une définition de référencement naturel.
Plus d’infos

Google Trends : analyse et comparaison de mots clés

Google Trends est un outil gratuit élaboré par Google qui permet de comparer et d’analyser l’utilisation de mots clés dans les requêtes faites sur Google. Lancé en 2006, Google Trends offre aujourd’hui plusieurs applications utiles pour le référencement de sites web :

  • la suggestion de mots clés pertinents
  • les sujets à la mode sur une période donnée
  • la comparaison de mots clés. Google trends indique quels mots clés sont les plus recherchés et sous quelle forme (singulier/pluriel, accentué ou non…)
    des liens vers des articles d’actualités en rapport avec les mots-clés analysés.
  • un accès aux archives conservées dans la base de données
  • la possibilité de comparer jusqu’à 5 mots clés: volume de recherche…
  • la possibilité d’effectuer une recherche précise en utilisant «».
  • une analyse géolocalisée des requêtes des internautes.

Depuis juin 2008, Google Trends permet d’analyser également le trafic d’un site et même de comparer le trafic de sites concurrents. L’utilisateur peut avoir accès à ces données en se connectant avec un compte Google.
Les résultats de Google trends sont produits sous forme de graphiques et de courbes de tendance.

Google Universal Search ou la recherche universelle

Google Universal Search agrège tous les résultats issus des index des moteurs de recherche (web, images, vidéos, audio, billets de blog, communiqués de presse, plans) pour soumettre aux internautes les meilleures réponses tout index confondus dans une même page de résultats. La mise en place sur un site de contenus multimédias est donc une solution pour multiplier les portes d’entrées potentielles sur ce site et gagner en visibilité auprès des internautes. Pour améliorer la réactivité d’un site web, il est désormais indispensable d’optimiser les éléments images, vidéos, actualités… présents dans les pages d’un site en :
décrivant les images et les vidéos avec des mots clés pertinents et à l’aide de la balise ALT
soumettant vos actualités et vos communiqués de presse
donnant à votre site une présence géolocalisée en utilisant le «Local business Center»
soumettant à «Google blog search» pour que votre blog booste votre présence.

Google Webmaster Tools : la gestion des données techniques de votre site

Google Webmaster Tools est un outil qui fournit des rapports détaillés sur la visibilité de vos pages sur le web. Il vous permet de découvrir votre site tel que Google le voit et d’en diagnostiquer les facteurs gênants ou bloquants pour booster vos positions. Outil indispensable aux webmasters, Google Webmaster Tools permet d’afficher et de classer des données complètes sur le netlinking d’un site, les liens internes et externes, et de prendre connaissance des requêtes Google qui génèrent le plus de trafic.

HTML: hypertext markup langage

Le HTML est un langage de marquage utilisé pour structurer le texte d’une page web. HTML, de même que XHTML, permet de construire une page Web selon les principes d’un langage à balises ou tags en anglais. Les différentes balises indiquent de manière hiérarchique le rôle joué par chaque portion d’information dans le contexte de la page Web. Ainsi, la structure d’un document HTML, ne décrit pas le message de la page Web, mais reflète la structure de la page Web en elle-même. Organiser un contenu en HTML permet d’indiquer le rôle joué par la portion d’information dans le contexte d’un document et d’implanter de l’hypertexte dans le contenu des pages (ressources multimédias telles que des images, des formulaires, des applets). HTML permet aussi de structurer sémantiquement.
Le HTML est composé d’attributs, éléments qui permettent de définir des propriétés supplémentaires au contenu d’une balise.
Un document HTML est un fichier texte qui commence par la balise <HTML> et se termine par la balise </HTML>. Il contient :
une en-tête délimitée par les balises <HEAD> </HEAD> constituée de balises métadonnées qui décrivent la page
et un corps borné par les balises <BODY> </BODY> qui contient d’autres balises qui organisent sur la forme le contenu de la page qu’il soit texte, image, vidéo…

IBL est l’acronyme de Inbound Link autrement appelé backlink ou lien entrant

L‘IBL désigne donc les liens qui proviennent d’autres sites web. Ils sont utilisés pour montrer l’intérêt d’une information présente sur une page d’un site, comme une actualité, une description, une définition. En SEA et SEO, les IBL sont comptabilisés par les moteurs de recherche pour déterminer la position, en fonction de la qualité et de la quantité de ces liens, d’un site dans les pages de résultats de recherche. La valeur accordée aux IBL par les robots prend en compte les deux critères suivants :

  • le page rank de la page liant vers une page d’un site
  • la similarité des thématiques abordées dans les pages ainsi liées

Pour connaitre les IBL pointant vers un site, vous pouvez utiliser dans le champ de recherche des moteurs de recherche, notamment Google et Yahoo, la commande « link : »

Indexation

L’indexation des pages d’un site consiste à inscrire ces pages dans l’index des moteurs de recherche.
L‘indexation est l’étape préalable indispensable au positionnement d’une page. En effet, une page non indexée ne peut apparaitre dans les résultats.
L’indexation est le processus qui consiste à mettre en mémoire les pages de sites Internet sur les moteurs de recherche (Google, Yahoo…). Pour mettre à jour leur base de données, les moteurs de recherche crawlent régulièrement les sites à l’aide de robots. Ces derniers leur permettent, au travers de leurs analyses, de juger de la pertinence d’un site.
Pour bénéficier d’une indexation de qualité, les sites doivent être construits dans le respect des règles énoncées dans les algorithmes des moteurs. Certains critères sont déterminants pour le positionnement d’une page :
un rédactionnel de qualité: les moteurs prêtent une attention toute particulière à la pertinence des contenus visibles d’une page. Un texte optimisé sur des mots clefs pertinents donnant une information précise à l’internaute, ou une définition, en référencement SEO augmentera le potentiel de réactivité et de positionnement de la page.
la popularité: elle est liée au nombre de liens entrants pointant vers le site et de la popularité propre des pages dont ces liens sont issus.

Indice de Popularité

L’indice de popularité d’un site est calculé à partir du nombre de pages qui ont mis en place un lien entrant vers ce même site.
En d’autres termes, et en définition de référencement naturel, plus le site comporte de liens entrants en provenance de pages elles-mêmes populaires, plus il est doté d’un indice de popularité élevé. Cette donnée est prise en compte par certains moteurs dans leurs classements de pertinence. Plus l’indice de popularité est élevé et meilleur est le classement dans les pages de résultats des moteurs.
L‘indice de popularité le plus réputé est celui du moteur de recherche Google : le page rank. Il est aujourd’hui souvent associé au Trust rank destiné à mesurer la crédibilité des pages web. Alors que le page rank s’appuie sur des éléments quantitatifs, le trust rank privilégie les liens qualitatifs en provenance de sites considérés comme faisant référence.

Javascript : un langage de programmation utilisé pour les pages web dynamiques

Javascript est un langage de script que l’on peut utiliser avec HTML pour créer des pages web dynamiques. Il améliore le langage HTML en permettant d’exécuter des commandes du côté client. Le Javascript dépend fortement du navigateur puisqu’il appelle la page web dans laquelle le script est inséré. Créé en 1995 par Brendan Heich, le javascript était à l’origine destiné à fournir un langage de script simple au navigateur Netscape. Le javascript traite les éléments affichés dans le navigateur comme des objets. Ces objets sont ordonnés de manière hiérarchique. Des propriétés leur sont associées.
Un script est un morceau de code qui s’intègre dans une page HTML. Ce code est écrit dans des balises spécifiques qui permettent de reconnaitre le javacript
<script langage = »javascript »>
//ici le script
</script>

Keyword

Keyword : le mot clé au cœur de l’optimisation
Keyword est le terme anglais qui désigne le «mot clé». C’est une définition SEO et SEA incontournable. La sélection de keyword est essentielle dans une stratégie d’optimisation d’un site. Ce choix influe à lui seul sur le positionnement du site. Le choix d’un Keyword répond à deux exigences :

  • l’intérêt du positionnement: le mot clé est-il souvent saisi lors des recherches des internautes
  • la faisabilité du positionnement: le positionnement du keyword est possible c’est-à-dire que le mot clé n’est pas trop concurrentiel.

Il existe de nombreux outils permettant de rechercher des mots clés. L’un des plus fiable : Google adwords qui propose des idées de Keyword et fournit des tendances de volumes de recherche.

Keyword Stuffing

Le keyword stuffing consiste à insister trop lourdement dans les meta tags et dans le contenu visible de la page sur les mots clés que l’on souhaite mettre en avant.
D’ailleurs, l’abus d’utilisation de mots clés dans les métadonnées pourrait expliquer pourquoi les moteurs ne prennent plus en compte les métas description et keyword dans le positionnement d’une page.
Il existe plusieurs techniques de keyword stuffing :

  • le texte caché soit derrière une image, soit dans une couleur identique au fond d’écran, l’utilisation de la balise «noscript»
  • la répétition excessive de mots clés qui génèrent beaucoup de trafic mais qui n’ont rien à voir avec les thématiques du site sur lequel ils sont placés.

Depuis 2005, les moteurs de recherche repèrent ces techniques et les sanctionnent. Ils utilisent aujourd’hui des techniques de reconnaissance thématique. Les sites qui utilisent le keyword stuffing pour générer du trafic sur leur page et pour doper leur positionnement sont susceptibles d’être blacklistés, c’est-à-dire expulsés des index des moteurs de recherche ;
S’ils doivent être présents dans le texte visible d’une page, les mots clés ne doivent pas dépasser une densité que l’on situe entre 3 et 7 % de la page.

Landing page

La landing page ou page de destination désigne la page d’entrée sur un site
Lorsque l’utilisateur clique sur une annonce adwords, c’est sur cette landing page qu’il arrive.
Le contenu d’une landing page doit être original et pertinent. Google accorde une grande importance aux pages de destination dans son algorithme en calculant le « quality score ».

Lien entrant

Un lien entrant est un lien qui provient d’une autre page web
Un lien entrant est un lien qui provient d’une autre page web, qu’il s’agisse d’une page appartenant au même site, c’est alors un lien entrant interne, ou d’une page en provenance d’un autre site, lien entrant externe. En définition SEM, le lien entrant est aussi appelé backlink.
La plupart des moteurs de recherche (Google ou autres) évaluent si un site internet est populaire et pertinent par le nombre et la qualité des liens entrants qui pointent vers ce site internet.
Il est important de faire pointer des liens entrants à partir de sites traitant de la même thématique que le vôtre et à partir de pages au page rank au moins égal au vôtre.
Les liens entrants sont déterminants dans le positionnement d’un site. Ils peuvent :
Attirer des internautes: en effet, plus vous possédez de liens entrants vers votre site internet, plus vous avez de chances d’augmenter votre taux de visibilité, ces liens représentant une porte d’entrée supplémentaire sur votre site.
Favoriser le référencement naturel: le fait d’être la cible de liens entrants en provenance de sites pertinents augmente significativement votre indice de popularité. Ce dernier amène les moteurs de recherche à s’intéresser à vous et à vous faire confiance et ainsi vous placer dans les premiers résultats des pages de recherches.

Lien externe

Le lien externe renvoie vers un site extérieur.
Les liens externes sont déterminants pour le positionnement d’un site dans les pages de résultats. En effet, plus un site possède de liens externes, c’est-à-dire de liens entrants en provenance d’un autre site, plus les moteurs de recherche vont considérer que ce site est populaire et pertinent. Pour que ces liens externes soient efficaces, ils doivent :
provenir de sites abordant un même sujet ou en rapport avec votre activité
provenir de sites ayant un page rank égal ou supérieur
être faits sur du texte contenant les mots clés du site vers lequel ils pointent.
Pour être correctement suivi par les crawlers, les liens doivent être en dur :
<a href= « nom-de-page.html « >nom de la page</a>

Lien interne

Un lien interne est un lien qui relie deux pages d’un même site.
Le lien interne renvoie vers une autre partie d’un site ou vers une autre partie de la page que l’on est en train de lire. Les liens internes doivent apporter un éclairage, une valeur ajoutée à l’information transmise aux lecteurs. Ils participent et facilitent la navigation sur un site. Ils sont souvent utilisés comme sommaire pour les pages un peu longues de façon à distinguer nettement les diverses parties d’un dossier. Pour des questions relatives à la lisibilité d’une page, il est préférable de ne pas abuser des liens dans le corps du texte. Le lien qu’il soit interne ou externe contribue à la compréhension d’une information. Quoi qu’il en soit, le lien interne, externe, entrant ou sortant doit être explicite et intuitif. L’utilisateur doit avoir une idée du contenu qu’il va trouver en cliquant dessus.

Lien retour

Les liens retours ou backlinks selon la définition SEM anglaise sont des liens qui pointent vers une page web
Ils sont également appelés liens entrants, liens arrivants ou inlinks. Le nombre de liens retours sur une page est un indicateur de popularité et de pertinence de la page. Les liens retours sont l’un des critères importants qui déterminent le classement d’une page.
Pour connaitre le nombre de liens retours sur un site, vous pouvez utiliser la commande »link : » dans le champ de recherche des moteurs.

Lien sortant

Un lien sortant est un lien qui conduit de votre site internet à un autre.
Utilisés à bon escient, ils apportent une valeur ajoutée à l’information que l’utilisateur recherche.
L’importance de la mise en place de liens sortants dans une stratégie de référencement n’est pas négligeable. Selon des études menées par des chercheurs de Yahoo ! , l’analyse des liens sortants d’une page permet d’attribuer à cette page une note de confiance, plus connue sous le terme « trust rank ». Certains algorithmes utilisent pleinement la notion de lien sortant pour positionner les pages dans les résultats.
Google utilise également les liens sortants pour évaluer la pertinence d’une page. De même les sitelinks sont établit à partir de ces mêmes liens sortants.

Linkbaiting

Le linkbaiting ou contenu viral en français est une définition SEO surtout employée dans la blogosphère
Il s’agit de procédés qui visent à obtenir des liens entrants sur un site ou un blog (en parallèle avec la stratégie de netlinking). La technique consiste à rédiger des textes à forte valeur ajoutée pour générer des liens depuis d’autres sites (médias, blogs…)
Le linkbaiting regroupe un ensemble de procédés qui permet de générer des liens vers un site principalement pour l’intérêt de son contenu. Il repose sur la mise en place d’une stratégie éditoriale et de netlinking. L’intérêt de mettre en place une stratégie de linkbaiting réside en deux points majeurs :
générer du trafic ciblé immédiat
améliorer la popularité du site et donc son positionnement dans les résultats de recherche
Il existe plusieurs procédés pour inciter les webmasters à faire des liens vers votre site, tous ayant pour point commun l’intérêt du contenu :

  • publier des articles polémiques, humoristiques, informatifs
  • mettre en place des concours
  • rédiger des interviews exclusives
  • diffuser des communiqués de presse ou des études gratuites sur des sujets d’actualités…

Pour conclure, le succès de votre stratégie de linkbaiting nécessite inventivité, créativité, humour ou les trois à la fois.
Plus d’infos

Long Tail

Longue traîne, définition SEM de l’anglais long tail : l’optimisation du trafic
L’utilisation de l’expression longue traine a été consacrée par C.Anderson en 2004 dans son ouvrage éponyme dans lequel il identifie et analyse les stratégies de vente de sites marchands. Appliquée au web, la théorie de la longue traine montre que les internautes organisent leurs recherches avec une très grande diversité de mots clés qui fournissent finalement l’essentiel du trafic.
En référencement, travailler sur les effets de la longue traine consiste à optimiser le maximum de mots clés du champ sémantique d’une page. C’est la raison pour laquelle l’optimisation de toutes les formes d’un mot clé et de ses synonymes lors de la rédaction d’un texte pour une page web est essentielle dans une stratégie de communication sur Internet. Toutes les expressions similaires ou connexes aux mots clés prioritaires génèrent probablement moins de fréquence de frappe que ces derniers mais peuvent en réalité être tout aussi importantes en termes de trafic. En effet, la théorie de la longue traine tente à prouver que la somme des mots clés considérés comme secondaires draine plus de trafic sur un site que les mots clés considérés comme primordiaux.

Marketing viral

Le marketing viral repose sur la facilité et la rapidité de la transmission de l’information sur le web.
Il s’agit d’une technique marketing qui vise à multiplier la cible par le transfert de l’information d’internaute en internaute.
Le marketing viral permet de faire la promotion d’un produit ou d’un service avec peu de moyens économiques. Ce sont les utilisateurs ou les consommateurs du produit qui le recommandent à leurs proches ou à l’ensemble des utilisateurs du web par la transmission d’un commentaire, d’une vidéo, d’un mail, d’un jeu en ligne… Le consommateur devient ainsi le vecteur de la publicité faite autour d’une marque.
Le marketing viral nécessite que la cible soit bien identifiée et que le produit proposé soit novateur, qu’il soit un phénomène de mode, qu’il soit sujet à faire parler de lui.
Le marketing viral est associé au buzz marketing.

Matt Cutts

Diplômé de l’université de Caroline du Nord à Chapel Hill, Matt Cutts a été engagé chez Google en 2000 comme ingénieur informatique. Après avoir mis en place la première version du filtre parental de Google, il a travaillé sur l’étude de la qualité des résultats du moteur de recherche.
Matt Cutts est actuellement responsable de l’équipe webspam chez Google. Il blogue régulièrement sur des thématiques et définition liées au référencement : SEO, SEM, SEA, SMO. Il répond aux demandes de la communauté des référenceurs et des webmasters sur les pratiques à mettre en œuvre pour construire un site google friendly et maintenir leur présence sur le web. Très actif sur le continent américain, il participe à de nombreuses conférences autour du webmarketing.
Depuis quelques mois, il intervient en vidéo pour répondre aux sollicitations des internautes.
Plus d’infos sur le Blog de Matt Cutts

Meta Description

La balise meta description est placée dans l’en-tête du code source de la page. C’est une balise HTML.
<meta name= »description » content= »Brioude-Internet : Référencement naturel, liens sponsorisés. La solution professionnelle pour positionner votre site, augmenter votre trafic, vos ventes, vos contacts. » />
Cette balise n’est plus prise en compte par les moteurs de recherche pour le positionnement d’un site. La balise meta description doit toutefois être renseignée. En effet, c’est le contenu textuel de cette métadonnée qui apparait dans les pages de résultats de recherche. Elle doit être incitative et descriptive de manière à encourager l’internaute à cliquer. La balise meta description contient environ 200 caractères.
Si la balise meta description n’est pas renseignée, c’est une concaténation du texte visible de la page qui apparaît dans la page de résultats. Pour aller plus loin : Qu’est-ce que les balises meta ?

Meta Keywords

Les Meta Keywords sont des balises HTML placées dans l’en-tête du document et qui permettent de décrire la page avec des mots clés.
La balise meta keywords est placée après les balises title et description dans le code source. Aujourd’hui, la meta keywords n’a plus d’importance pour le positionnement d’un site. La meta keywords sert à indiquer les mots clés essentiels de la page. Elle peut également accueillir les diverses formes du mot : singulier, pluriel – féminin, masculin – accentué ou non. A l’intérieur de la balise, les mots clés sont séparés par une virgule ou un espace.
<meta name= »keywords » content= »Référencement, offres Brioude Internet, Grands Comptes, technologies spécifiques, personnalisées, relation client, optimisation balises meta, définition mots clés, rapports hebdomadaire, référencement plusieurs langues » />
Au-delà de 1000 caractères ou 100 mots clés, la balise meta keywords peut être considérée comme du spam entrainant une sanction de la page par les moteurs.
Les balises meta keywords sont spécifiques à chaque page.

Meta Tag

Meta Tag ou métadonnées
En définition de référencement naturel, les meta-tag sont des balises HTML placées dans l’en-tête du document et qui permettent de décrire le contenu d’une page. Les meta tag sont en fait des informations (contenu des balises) sur des informations (contenu de la page). La plupart des meta-tags ne sont pas visibles dans la page. Elles sont placées dans le header du code source. Elles fournissent aux moteurs de recherche des informations qui leur permettent d’indexer la page.
Il existe deux types de meta-tags :

  • les meta name qui décrivent la page: balises title (pas la balise <title>….</title>, mots clés, description, auteur, copyright, robots
  • les meta http-equiv qui fournissent des informations supplémentaires au navigateur: refresh, pragma, robots

Exemple de code source :
<meta name= »description » content= »Brioude-Internet : Référencement naturel, liens sponsorisés. La solution professionnelle pour positionner votre site, augmenter votre trafic, vos ventes, vos contacts. » />
<meta name= »robots » content= »index,follow,all,noodp,noydir » />
<meta name= »keyword » content= »referencement, brioude » />

Moteur

Un moteur de recherché est un outil qui permet de stocker sur des disques durs, plusieurs millions voire plusieurs milliards de pages web qui sont régulièrement mises à jour.
Les moteurs utilisent des crawlers qui parcourent les pages pour les indexer et constituer une base de données. Cette base de données monumentale s’appelle l’index. Lorsqu’un internaute effectue une requête sur un mot-clé dans le champ de recherche d’un moteur, ce dernier effectue diverses opérations pour afficher les résultats correspondant à la demande :

  • le moteur cherche dans son index les pages contenant les mots clés frappés
  • le moteur isole les pages dans des clusters de documents correspondant à la requête formulée
  • il classe ensuite les pages de ces groupements en utilisant un algorithme qui lui est propre afin de déterminer quelles sont les pages les plus pertinentes par rapport aux termes de la recherche.
  • Il affiche enfin dans ses pages de résultats, les documents par ordre décroissant de pertinence.

Dans les pages de résultats d’un moteur, plusieurs sources d’informations sont proposées :

  • Liens organiques ou liens naturels issus de l’index du moteur de recherche. Ils sont composés du titre de la page, de la description et de l’adresse URL.
  • Liens sponsorisés ou liens commerciauxsont mis en avant en haut des pages de résultats ou sur les côtés et sont affichés dans une partie légèrement colorée

Nom de domaine : l’atout popularité

Le nom de domaine est lié à la notion d’adresse IP (Internet protocol) qui est l’adresse identifiant un ordinateur ou un serveur connecté à un réseau. Cette adresse étant une suite de chiffre peu mémorisable, le nom de domaine a été créé. Le nom de domaine, à l’instar de l’adresse IP, n’est pas attaché à une machine et peut donc changer de propriétaire.
Le nom de domaine est composé du nom du site et d’une extension qui correspond soit au type d’activité (.com, .net, .info…) soit au nom du pays dans lequel le site est hébergé (.fr, .uk, .de…).
Le choix du nom de domaine est important. Il est effectivement délicat d’en changer sous peine de perdre des positions difficilement acquises et du trafic généré par sa notoriété. Avant de réserver un nom de domaine, il faut s’assurer qu’il est libre en consultant le site http://www.whois.com/. Vous pouvez réserver plusieurs noms de domaine pour générer un déploiement international de votre site (diverses extensions .fr, .com, .it, .de…) à conditions toujours de vérifier qu’ils sont libres. Attention, la réservation illégitime d’un nom de domaine est un délit : le cybersquatting est passible de poursuites judiciaires.
Enfin, pour compléter cette définition de référencement naturel, votre nom de domaine doit être optimisé pour être correctement indexé par les moteurs de recherche. La présence de mots clés en rapport avec l’activité du site ajoute à sa pertinence à moins que vous ne choisissiez le nom de votre société.

Page en cache

Une copie de chaque page examinée par les moteurs de recherche
Chaque fois que les robots d’indexation de Google visitent une page, ils en récupèrent les données qu’ils stockent sur des serveurs. La version de ce document, tel qu’il a été « photographié » au moment du passage du spider est alors appelé la version cache ou page en cache. L’internaute peut voir une page en cache d’un document à partir du lien « en cache » situé à côté du résultat dans la SERP. Il est alors possible de consulter la page telle qu’elle a été indexé lors du dernier passage du robot. La date et l’heure de l’indexation du passage du spider est indiqué sur la page.

Pages alias

En définition SEO, les pages alias sont la copie conforme d’une page existante d’un site, dédiée aux moteurs de recherche
Les pages alias sont des pages statiques spécialement optimisées sur des requêtes précises et présentant ou évoquant l’aspect graphique du site auquel elles se rapportent. Les pages alias sont présentes dans les index des moteurs de recherche mais absentes du menu du site.
La page alias est une copie conforme d’une page existante d’un site (souvent la page d’accueil). La seule différence, c’est qu’elle est optimisée sur un mot clé bien particulier au niveau des balises métas de la page (titre, description et mots clés). On peut créer plusieurs pages alias, chacune d’elles étant optimisée pour un terme spécifique. Ce procédé est aujourd’hui totalement désuet.

Quality score

Un indice de performance accordé à une page en fonction de sa pertinence
Le quality score est un indice de performance accordé à une page en fonction de sa pertinence. Il permet de définir le rang des annonces publicitaires affichées dans les pages de résultats. Depuis Aout 2008, le quality score est calculé en temps réel au moment de la requête par l’internaute dans le champ de recherche de Google et non plus au moment de la création de l’annonce adwords. La définition SEM évolue, le quality score n’est donc plus statique mais dynamique : il varie au cours du temps en fonction de la qualité des annonces rédigées, de la pertinence des mots clés par rapport à la page de destination et de l’historique du taux de clics.

Rétrolien

Lien hypertexte utilisé principalement sur les blogs
Un rétrolien est un lien hypertexte utilisé principalement sur les blogs et qui permet de lier de manière semi-automatique deux articles traitant de sujets similaires.
Par exemple, si un billet A possède un lien pointant vers un billet B, ce billet B contiendra automatiquement un lien pointant vers le billet A (à condition que la gestion des rétroliens soit supportées par le billet B).
Concrètement, l’auteur d’un blog A peut établir un rétrolien vers un billet d’un blog B en faisant un lien vers l’URL du billet du blog B dans son propre billet sur le blog A. Si le blog B gère les rétroliens, il est automatiquement indiqué dans le billet du blog B que le blog A y fait référence. Le lecteur du billet B peut alors découvrir le blog A et s’y rendre, grâce à ce lien automatique. De même, l’auteur du blog B est mis au courant que l’auteur du blog A s’intéresse à son contenu.

Robot

Robot ou encore appelé Crawler ou Spider.
Le robot est le terme désigné par la définition de référencement naturel anglaise pour « crawler » ou « spider ». Le robot est un logiciel qui parcourt le web de pages en pages en suivant les liens hypertextes. Le robot lit le contenu des pages qu’il archive dans sa base de données. Le robot analyse ensuite la qualité et la pertinence du document indexé pour déterminer le positionnement à donner à la ressource dans les pages de résultats. Chaque moteur de recherche dispose d’unrobot qui lui est propre : Google Bot pour google, Slurp pour Yahoo ou MSN Bot pour Live Search.

SEO

SEO ou optimisation pour les moteurs de recherche
Le référencement naturel (ou SEO ou optimisation) pour les moteurs de recherche est un ensemble de techniques visant à favoriser la visibilité naturelle de vos pages web sur les moteurs de recherche. Ces techniques visent donc à apporter un maximum d’informations sur le contenu d’une page web aux robots d’indexation des principaux moteurs de recherche.

SMO

Optimisation pour les Réseaux Sociaux (SMO) ou référencement social
L’Optimisation pour les Réseaux Sociaux (SMO) ou référencement social est une stratégie d’optimisation de vos contenus et publications grâce à la promotion de ceux-ci via les réseaux sociaux. Le SMO regroupe les actions visant à favoriser la diffusion de contenu par l’interaction des internautes. Il constitue un complément au Référencement naturel.

Spider

Spider est aussi appelé aussi Robot d’indexation.
En définition SEO, il est aussi appelé « robot » ou « crawler », le spider est un robot d’indexation : il parcourt le web de manière automatique pour indexer les pages.

Taux de rebond

Pourcentage de visiteurs qui ont consulté qu’une page d’un site et qui l’ont quitté
Le taux de rebond désigne un pourcentage de visiteurs qui ont consulté qu’une page d’un site et qui l’ont quitté rapidement sans poursuivre leur lecture sur d’autres pages. Le taux de rebond est un bon indicateur de l’intérêt que les visiteurs accordent à un site. Un taux de rebond élevé peut toutefois être interprété de diverses manières. Il peut notifier :

  • l’insatisfaction d’un visiteur. Dans ce cas, le webmaster doit travailler à la fois l’ergonomie du site, le design, la qualité du contenu qui doit répondre à des critères de pertinence par rapport à la requête,
  • le fait que l’utilisateur a trouvé immédiatement l’information qu’il recherchait.
    un clic sur un lien externe

Taux de transformation

Le pourcentage d’ internautes acheteurs sur le nombre total d’internautes visiteurs
Le taux de transformation est un ratio utilisé en marketing internet qui indique la capacité d’un site à transformer un visiteur (prospect) en acheteur (client). Le taux de transformation correspond aux pourcentages d’internautes ayant consulté le site et qui ont déclenché une action : un achat, une inscription à une newsletter, une réponse à un questionnaire, un téléchargement de logiciel, demande de devis… etc.
Le taux de transformation est une notion très souvent associée à celle de cout d’acquisition client.

Underscore

Underscore ou tiret bas en français.
L’underscore est un signe typographique situé sur la touche 8 d’un clavier d’ordinateur et représentant le signe « _ ». Longtemps utilisé comme séparateur de nom de page, l’underscore est aujourd’hui délaissé par les webmasters au profit du tiret. Les moteurs de recherche eux-mêmes ne le considèrent plus comme un séparateur valable.

URL

URL est l’acronyme d’Uniform Resource Locator.
Il s’agit d’un format de nommage qui désigne de manière singulière l’emplacement d’une ressource internet : un fichier, un répertoire. C’est ce que l’on appelle communément l’adresse d’un site. L‘URL est structurée en plusieurs parties clairement identifiables :
le protocole: http:// (ici protocole de transfert de pages hypertextes sur le web), ftp…
le world wide web: www
le nom de domaine: referencement-2000.com composé d’un nom et d’une extension désignant l’activité (.net, .com, .org) ou le pays (.fr, .uk, .it)
le nom du fichier ou de la page: methodologie-referencement
le langage de programmation de la page ou du fichier: .html, .php…
Les moteurs de recherche tiennent compte de la présence des mots clés stratégiques de la page dans l’URL. Chaque mot de l’URL doit être séparé du précédent par un caractère interprété par les robots comme un séparateur : le tiret, la virgule, le slash.
Les webmasters seront vigilants à ne pas rendre accessible un même contenu à deux URL différentes (risque de duplication de contenu).

URL rewriting

La réécriture d’URL
L’URL rewriting ou réécriture d’URL, en définition de référencement naturel,  est une technique qui consiste à optimiser le référencement de sites dynamiques qui contiennent des adresses URL du type ?id=12&page=5 qui n’ont aucune signification pour les moteurs de recherche. L’URL rewriting, faite sur le serveur avec un fichier htaccess qui décrit la règle de réécriture, transforme l’URL en y ajoutant des paramètres significatifs comme le titre de la page.
Pour mettre en place un process d’URL rewriting sur un site il faut :

  • s’assurer que l’hébergement permet l’utilisation d’URL rewriting
  • identifier les pages dynamiques et choisir une écriture propre
  • écrire des règles de réécriture dans un fichier htaccess
  • modifier les liens vers chaque fichier dont l’URL a changé
  • faire une mise à jour du site et contrôler son fonctionnement

Webmarketing

Le marketing appliqué à internet.
Le webmarketing ou marketing internet ou cybermarketing regroupe l’ensemble des techniques visant à améliorer l’audience d’un site internet.
Le webmarketing s’applique à l’internet et se concentre autour des notions de trafic et d’utilisateur. En matière de webmarketing, il convient de se concentrer sur 4 grands domaines d’activités que sont :
le webmarketing stratégique qui consiste en une veille stratégique, le positionnement du site, l’analyse de la demande et le webmarketing mix
la génération de trafic par des actions de référencement naturel, la mise en place de liens sponsorisés, l’affiliation ou encore l’emailing de conquête
la fidélisation de l’utilisateur grâce à l’animation du site et sa mise à jour régulière, par l’emailing, par la création de communication virale et marketing communautaire.
l’analyse des performances sur des indices tels que la visibilité, le trafic, les ventes

Webzine

Webzine le magazine online
Un webzine est un terme valise issu des deux mots web et magazine. On trouve aussi le terme e-zine pour désigner le webzine. Il s’agit d’un magazine électronique lisible exclusivement sur le net. Il n’y a pas de version papier. Le webzine regroupe des articles rédigés soit par des rédacteurs web soit par des internautes amateurs. Le plus souvent le webzine est thématique. Tout comme pour un magazine papier, le rédacteur en chef choisit avec son équipe une ligne éditoriale. La périodicité de publication varie selon les objectifs du webzine. Il existe divers profils de webzine, de la publication amateur au très professionnel, du gratuit au payant.
Exemple de site : http://www.navi-mag.com – http://www.navimag-pro.com

Word count

En Français, compte de mots
Dans les moteurs de recherche, le word count apparaît généralement à la suite des résultats de la requête. De manière plus générale, c’est la fonction d’un outil qui permet de déterminer le nombre de mots contenus dans un document.

WordPress : le CMS leader du marché

WordPress est le système de gestion de contenu (CMS) basé sur le language PHP et reposant sur une base de données MySql.
WordPress est très orienté SEO et donc optimisé pour le référencement naturel.
WordPress a surtout été utilisé dans ses débuts comme système pour les blogs mais ses fonctionnalités simples et efficaces lui permettent également de gérer toutes tailles de sites web.
WordPress est un système de gestion open source , donc libre et bénéficie d’une très large communauté de contributeurs.