@position réussit avec le ‘référencement naturel organique’

Régulations

@position est un “référenceur spécialisé” sur le Web qui travaille sur les très gros volumes d’indexation de mots clés. Sébastien Langlois, cofondateur, explique les enjeux

La majorité des associés de @position sont des ingénieurs. Ils ont développé des techniques d’analyse portant sur les algorithmes des moteurs de recherche. Objectif: proposer du référencement haut de gamme plutôt destiné aux grands acteurs de l’univers Internet. Le positionnement de la société est aujourd’hui atypique sur ce marché dont la majorité des acteurs ont bifurqué vers les achats de liens sponsorisés. Sébastien Langlois, cofondateur et dirigeant de @position, explique: “Nous ne faisons que du référencement naturel organique.” À l’occasion du salon Online 2006, nous avons évoqué avec lui l’évolution de ce marché et le positionnement atypique de sa société. Comment a évolué le référencement des sites Web sur les moteurs de recherche ? La première étape a été déclarative, basée sur les balises ‘méta’ (de méta-données) intégrées sur les pages Web. Mais très rapidement, les sites se sont mis à tricher, ce qui a entraîné une évolution des moteurs de recherche et une augmentation de leur puissance de calcul. La seconde étape a consisté à bien valoriser les mots clés et à s’assurer qu’ils sont présents dans le texte figurant sur les pages soumises à l’indexation des robots. Une nouvelle fois, référenceurs et sites Web ont cherché à tricher pour modifier artificiellement l’indice de valeur des mots clés. La troisième étape est venue de Google, qui a introduit une nouvelle notion, celle de popularité. Le principe du moteur a été de replacer l’indexation d’une page Web dans l’environnement de la personne. La principale contribution de Google a bien évidemment été le Page Rank. Aujourd’hui, nous évoluons vers un référencement relatif, qui associe l’indexation des mots clés d’une page à la popularité du site, ainsi que la popularité de son environnement. Aujourd’hui, il est préférable d’être légèrement mieux que la moyenne de son environnement, mais pas plus ! 99 % des pages qui sont identifiées comme fortes par un moteur de recherche sont issues du spam, ou assimilées à lui. Qu’est-ce qui dans ces conditions différencie votre offre ? Le travail du référencement se doit de traiter des volumes de plus en plus importants de données afin d’établir des statistiques d’utilisation qui évoluent en permanence. À ce titre, la base d’analyse de @position est supérieure à 3 millions de sites, ce qui nous permet de discerner les éléments de différenciation. Nous constatons par exemple que l’indexation d’un mot-clé extrait d’une page dont le nom de domaine est en ‘.com’ sera différente d’une page en ‘.gov’. C’est la raison pour laquelle le métier du référencement est de plus en plus complexe, et donc de plus en plus scientifique, car nous devons traiter et analyser des connaissances à extraire d’énormément de données. Chez @position, nous consacrons à un très gros volume de temps à la R&D, afin de faire évoluer en permanence nos technologies, pour nous adapter aux moteurs de recherche et traiter les très gros volumes de données que nous avons évoquées plus haut. Mais aussi de très gros volumes d’indexation pour nos clients, dont certains peuvent représenter plusieurs centaines de milliers de mots clés indexés sur les moteurs de recherche. C’est la raison pour laquelle les gros acteurs de l’Internet, qu’ils soient des sites Web ou des agences, nous confient le référencement de leurs site ou des sites de leurs clients. Parmi lesquels des géants comme kelkoo ou Le Monde. Vos concurrents semblent être en majorité des artisans ? La plupart des référenceurs sont en effet des artisans, qui pratiquent un référencement simple, basé sur les balises HTML et sur le contrôle du positionnement des mots clés sur les moteurs de recherche. Dans ces conditions, beaucoup d’entre eux n’ont pas de R&D, et ce n’est d’ailleurs pas dans leur culture. C’est pourquoi le marché fait l’objet d’une forte consolidation. Ils quittent le référencement naturel pour se lancer dans les liens sponsorisés, ce qui représente une démarche plutôt publicitaire et entraîne des rachats par les agences, qui par contre recherchent des effets de volume. Finalement peu d’acteurs restent indépendants. Il semblerait en effet que beaucoup d’entre eux se soient tournés vers les liens sponsorisés? C’est vrai, ils ont pris d’assaut les liens sponsorisés qui représentent une alternative au référencement naturel. Ils ont aussi profité d’une forte demande sur les achats de mots clés publicitaires. Et puis, c’est plus simple à acheter et à comprendre, ce qui explique peut-être l’engouement des liens sponsorisés chez les annonceurs comme chez les référenceurs. Sans oublier que le ROI est mesurable. Nous n’avons pas fait ce choix, et nous ne sommes pas intéressés par les liens sponsorisés. D’abord notre métier n’est pas l’achat/vente. En plus, les marges sont faibles et il faut faire de gros volumes à moindre coût et se battre sur le prix. Notre modèle est différent, notre valeur ajoutée est dans la compétence de notre personnel et dans la qualité de nos outils. C’est pourquoi sur ce positionnement qui nous est particulier nous ne rencontrons pas réellement de concurrence directe, sur le haut de gamme en tout cas. C’est ce qui explique pourquoi nous ne cherchons pas à nous diversifier. Puisque vous n’avez pas évolué comme concurrents, comment vos clients perçoivent-ils votre approche ? Nos clients sont de plus en plus avertis, et ceux pour lequel Internet est stratégique dans leur business ont bien établi la corrélation entre le référencement et leur chiffre d’affaires. Ils recherchent un référencement pérenne et de qualité, capable de traiter de très gros volumes de mots clés et de s’adapter en permanence à l’évolution des moteurs, mais sans l’emploi de méthodes dangereuses. J’en veux pour preuve que nous profitons d’un gros effet de bouche à oreille. Pouvez-vous nous fournir plus d’éléments sur le ROI pour vos clients ? C’est très difficile et il est délicat de citer des chiffres, car chaque client est unique et nos méthodes permettent de faire un travail véritablement personnalisé. Concrètement, nous multiplions le trafic par de gros coefficients. Il n’est pas rare qu’avec la visibilité que nous apportons, la fréquentation du site soit multipliée par 10. Comment voyez-vous le futur du référencement et le Web 2.0 ? Nous allons assister à une dichotomie du marché. Les sites Web pourront faire appel à un référencement basique de l’ordre de 5.000 euros par site et par langue. Mais ceux dont l’enjeu est stratégique feront appel à un référencement poussé intégré au ‘back office’, via un prestataire comme nous. Avec l’arrivée du Web 2.0, notre métier va changer et il nous faudra revoir nos méthodes de gestion de la visibilité naturelle des sites Web. Il faudra réfléchir en permanence et intelligemment, nous remettre en cause en permanence. Aujourd’hui, Google domine le marché, mais ses concurrents vont se battre sur d’autres domaines, ce qui aura une incidence sur notre travail et sur nos méthodes. C’est ce qui fait la force de notre R&D. Vous vous positionnez en numéro deux du marché, en chiffre d’affaires comme en marge. Envisagez-vous comme votre principal concurrent une entrée en Bourse ? Non, pas à court terme, on n’en a pas besoin !


Lire la biographie de l´auteur  Masquer la biographie de l´auteur