Share Les Petites Histoires Du SEO - LE Podcast SEO
Share to email
Share to Facebook
Share to X
By Julien Gourdon Consultant SEO
The podcast currently has 14 episodes available.
Ca faisait plusieurs mois déjà que la rumeur circulait, mais ça y est, c’est désormais officiel : le 25 juillet 2024, OpenAI a annoncé le lancement de SearchGPT, son propre moteur de recherche alimenté à l’IA générative, dont l’objectif est de fournir des réponses rapides et pertinentes aux internautes qui posent des questions de recherche en mode conversationnel.
Tremble, Google ! Oh oui, tremble.
Toi dont la Search Generative Experience, rebaptisée en AI Overview, c’est à dire l’IA générative directement intégrée aux pages de résultats de Google, toi dont cette AI Overview fait aujourd’hui, pour ceux qui y ont accès, quasiment l’unanimité contre elle en raison des résultats génératifs claqués au sol qu’il soumet aux internautes (erreurs et hallucinations étant son mode d’expression favori semble-t-il), un nouveau concurrent, encore un, vient marcher sur tes plates-bandes de moteur de recherche le plus utilisé au monde.
Le but ? Te faire passer pour un ringard. Un dinosaure de la recherche en ligne, incapable de t’adapter, de te servir de l’IA, pour fournir des résultats pertinents à cette nouvelle génération, dont les usages changent, qui veut des réponses immédiates, qui n’a pas le temps ni l’envie de fouiller dans des dizaines de résultats pour trouver la bonne réponse, qui veut de l’instantané, de l’immersion avec des vidéos courtes, qui veut qu’on parle son langage.
Pour cette nouvelle génération, Google, c’est de la préhistoire !
Mais découvrons dans ce quatorzième épisode des Petites Histoires du SEO ce qu'est SearchGPT exactement.
Comment réaliser un audit de maillage interne en 2024 ? J'ai récemment discuté avec un directeur d'agence qui m'a dit que le maillage interne est souvent négligé dans les audits SEO, et je suis d'accord. Actuellement, aucun outil ou consultant SEO, aussi compétent soit-il, ne propose un audit complet du maillage interne SEO de tout un site basé sur la proximité sémantique de ses URL.
S'il existe certains outils qui offrent des suggestions de maillage interne, ils ne permettent pas un audit exhaustif basé sur la proximité sémantique de toutes les URL d'un site.
Pour remédier à cela, j'ai exploré une autre de mes passions, les word embeddings. Cette technique transforme le contenu textuel en vecteurs numériques interprétables par des machines, en conservant leur signification. En utilisant les embeddings, on peut visualiser la relation sémantique entre différents contenus dans un espace multidimensionnel.
Or, il se trouve que Screaming Frog inclut désormais des scripts JS qui permettent d'embedder tout le contenu d'un site pendant le crawl. Grâce à cette nouvelle fonctionnalité, et à l'aide de l'IA générative Claude AI, j'ai développé une petite application en python capable de calculer la proximité sémantique des URL en utilisant la similarité cosinus, d'attribuer un score de maillage internet à chacune des URL de mon site et de fournir des recommandations de maillage interne (en termes de liens à ajouter et de liens à supprimer) basées sur la proximité sémantique de l'ensemble des URL de mon site.
Enfin, j'ai construit un tableau de bord sous Looker Studio pour visualiser les résultats de l'audit. Ce tableau de bord montre le score de maillage interne existant, la similarité moyenne de l'ensemble des pages qui font et reçoivent des liens internes, et les recommandations pour améliorer le maillage interne de mon site.
En conclusion, utiliser les embeddings pour auditer le maillage interne est une méthode prometteuse qui mérite d'être explorée par tous les consultants SEO. Cela permet de mieux comprendre et optimiser la structure des liens internes en se basant sur la proximité sémantique des contenus.
Si ce podcast vous a plu, n'hésitez pas à commenter, liker et vous abonner. À très bientôt pour un prochain podcast SEO. Ciao !
S'il y a bien une chose que nous apprend l'affaire de la Google leak, c'est qu'il existe 4 grands piliers du SEO :
Même si l'existence de l'algorithme Navboost avait été révélée en octobre dernier par Pandu Nayak, l'ancien responsable de la recherche de Google, lors du procès anti-trust qui s'était déroulé aux USA en 2023, l'information avait alors fait peu de bruit auprès du public. Le fait que cet algorithme, dont la mission est de prédire le prochain site web qu'un utilisateur est susceptible de visiter en fonction de son historique de navigation (clics, temps passé et comportement sur les pages web visitées) ne laisse aujourd'hui plus aucune place au doute. L'expérience utilisateur est un signal pris en compte dans l'algorithme de classement de Google, et il est même sans doute l'un des plus importants.
Mais les documents internes à l'API de recherche de Google qui ont fuité révèlent beaucoup d'autres informations très intéressantes sur le fonctionnement de l'algorithme de classement du moteur de recherche, et sur le vocabulaire interne employé par les ingénieurs de Google. Même si, au final, il est très compliqué de savoir quoi faire de toutes ces informations. On peut même dire qu'elles nous embrouillent encore un peu plus sur la manière dont toutes les fonctionnalités révélées s'articulent entre elles.
Je vous propose de découvrir tout ceci en détails dans ce nouvel épisode des Petites Histoires du SEO.
Générez des articles SEO de qualité supérieure
Alors que la compétition dans le marketing digital est de plus en plus intense, l’application Help Content est née d'une ambition simple mais audacieuse : transformer le processus de rédaction SEO en une science précise. Grâce à une analyse sémantique préalable, similaire à celle qu’effectue Google pour évaluer et classer les contenus, Help Content vous permet de créer des articles qui visent spécifiquement à plaire aux moteurs de recherche.
Je tiens cependant à préciser que l'objectif de l’application Help Content n’est pas de dire que les rédacteurs web ne servent plus à rien, l’objectif n’est pas de les remplacer. Bien au contraire, l’application a été conçue pour eux, pour les aider à être plus productif grâce à l’IA. En tant qu’ancien journaliste et rédacteur web, j’ai un profond respect pour cette profession, et pour tous les métiers de l’écrit de manière générale. Non, l’objectif de l’application c’est au contraire de leur apporter un soutien, une assistance, en les aidant dans le choix des expressions à utiliser, dans la compréhension des questions que les utilisateurs se posent et des problématiques auxquelles ils sont confrontées, et en résolvant la problématique de la page blanche : au moins, l’application vous permet de rédiger un premier jet de votre article qui est optimisé pour les moteurs de recherche. Pour autant, je ne pense pas du tout qu’il faille publier l’article tel quel. Je pense au contraire qu’il faut que vous y apportiez une personnalisation, votre human touch si je puis m’exprimer ainsi. Et je vous dis ça parce que c’est précisément les guidelines de Google. Pour contrer la publication massive des contenus générés par l’IA, ce qui lui coûte forcément de l’argent, en termes de crawl, en termes de stockage, Google n’a pas d’autre choix que d’être plus sélectif que par le passé : donc il veut des contenus qui apportent une véritable aide à l’utilisateur, un bénéfice, une valeur ajoutée, un gain d’information par rapport aux contenus déjà en ligne, et/ou des contenus qui reflètent de la part de leur auteur une expérience personnelle par rapport à la thématique traitée. Autrement dit, par rapport aux contenus générés par l’IA qui vont avoir tendance à être impersonnel, puisque générés par des robots, Google veut mettre en avant des contenus qui apportent quelque chose en plus, une humanité si j’ose dire.
Donc pour conclure, l’IA c’est super bien, mais combiné à l’humain c’est beaucoup mieux !
Retrouvez l'épisode ChatGPT est-il vraiment devenu moins intelligent ? sur mon site.
Depuis quelques jours, quelques semaines ou quelques mois, les passionnés d’IA sont en émoi : ChatGPT serait devenu moins performant qu’à sa grande époque.
Une étude très sérieuse a en effet été publiée sur le sujet. Mise en ligne le 18 juillet dernier par trois chercheurs des universités prestigieuses de Stanford et Berkeley l’étude intitulée “How Is ChatGPT’s Behavior Changing over Time?” souligne à quel point le comportement des deux grands modèles de langage GPT-3.5 et GPT-4 évolue au fil du temps. Et pas toujours pour le mieux...
En tant que consultant SEO fan des intelligences artificielles génératives et de ChatGPT version GPT-4 en particulier (que j'utilise au quotidien dans mon job), j'ai voulu tester le chatbot de Google afin de comparer ses compétences à celles du robot conversationnel d'OpenAI.
Vous pouvez retrouver cet épisode et l'article associé directement sur mon site : https://julien-gourdon.fr/podcast-seo/mon-avis-sur-google-bard
Quelles seront les grandes tendances du référencement naturel dans les prochaines années ?
Le SEO est une stratégie de marketing en ligne qui vise à améliorer le classement d'un site web dans les pages de résultats des moteurs de recherche. Cette technique a vu le jour dans les années 1990, lorsque les premiers moteurs de recherche comme Altavista et Yahoo ont été lancés.
Au début, le classement dans les pages de résultat était principalement basé sur des mots-clés et des liens entrants, c'est-à-dire des liens provenant d'autres sites web pointant vers le site en question. Cette approche était simple et facile à manipuler, ce qui a mené à des pratiques douteuses comme l'achat de liens et le bourrage de mots-clé.
Mais la donne va changer lorsque Google arrive sur le marché en 1998 avec un tout nouvel algorithme, le PageRank. Cet algorithme de classement des résultats tient compte de la qualité et de la quantité des liens pointant vers une page, ainsi que de la qualité des pages qui les font référence. Plus une page a de liens de qualité, plus son pagerank est élevé, ce qui lui permet d'apparaître en haut des résultats de recherche.
Depuis, le pagerank a été constamment amélioré et mis à jour pour tenir compte des évolutions du web et des comportements des utilisateurs. Et de la même façon, le SEO a évolué constamment pour s'adapter aux changements des algorithmes de classement des moteurs de recherche et aux attentes des utilisateurs. Aujourd'hui, le SEO comprend une variété de techniques pour améliorer le classement d'un site, telles que l'optimisation de la structure du site et la génération de liens entrants de qualité, ou encore la création de contenu multi formats visant à occuper un maximum d’espace en fonction des multiples affichages que propose Google dans ses pages de résultats. La création de contenu de qualité peut d’ailleurs aujourd’hui se faire à l’aide de l’intelligence artificielle, les techniques de traitement automatique du langage étant suffisamment matures pour générer en quelques clics et quelques secondes des contenus d’une qualité tout à fait satisfaisante sur des thématiques extrêmement variées. Et si vous en doutez encore, et je ne devrais sans doute pas vous le dire, mais sachez que le podcast que vous êtes en train d’écouter actuellement a été presque entièrement rédigé par l’intelligence artificielle dont tout le monde parle aujourd’hui, à savoir ChatGPT, qui appartient à OpenAI, dont l’un des propriétaires n’est autre qu’Elon Musk.
Et cela ouvre des perspectives immenses pour le futur.
Et l’avenir, justement, parlons-en. S’il est difficile de prédire ce que nous réserve le SEO dans les prochaines années, il y a de fortes chances qu’il soit de plus en plus axé sur les données et l’analyse. Les algorithmes des moteurs de recherche deviendront de plus en plus sophistiqués et capables de traiter des quantités massives de données pour comprendre de manière plus approfondie les requêtes des utilisateurs et le contenu des sites Web. Cela signifie que les stratégies SEO devront être fondées sur des données solides et des analyses approfondies pour être efficaces.
De plus, il y a de fortes chances que le SEO devienne de plus en plus intégré à d'autres stratégies de marketing en ligne, telles que les campagnes publicitaires en ligne, les médias sociaux et les marketing d'influence...
Retrouvez le podcast Quel avenir pour le SEO ? sur YouTube :
https://www.youtube.com/watch?v=ek2og7CIORI
Retrouvez le podcast Quel avenir pour le SEO ? sur mon site internet :
https://julien-gourdon.fr/podcast-seo/quel-avenir-pour-le-seo
Qu’est-ce qui distingue un bon consultant SEO d’un consultant lambda ? Qu’est-ce qui fait qu’un expert en référencement naturel va réussir à se démarquer, devenir une référence dans son métier et attirer de nombreux clients grâce à sa réputation ?
Voici les 6 qualités indispensables que doit rassembler à mon sens un consultant SEO pour sortir du lot.
Retrouvez le podcast C'est quoi un bon consultant SEO ? sur YouTube :
https://www.youtube.com/watch?v=DzCTpHNIC-o
Retrouver le podcast C'est quoi un bon consultant SEO ? sur mon site internet :
https://julien-gourdon.fr/podcast-seo/c-est-quoi-un-bon-consultant-seo
En réalité, il n’existe pas de consensus réel sur la définition d’entité nommée, puisqu’elle est souvent dépendante de son champ d’application, qui peut être multiple et varié. Toutefois, lorsqu’il s’agit de traitement automatique du langage naturel et de recherche du sens d’un texte ou d’une requête (puisque c’est bien de ça dont nous souhaitons parler dans cet épisode), on peut définir une entité nommée comme un objet textuel (c’est à dire un mot ou un groupe de mots) catégorisable dans des classes qui peuvent être par exemple des lieux, des personnes ou des organisations, auxquelles nous pouvons rattacher des caractéristiques ou attributs.
Le concept de reconnaissance et d’exploitation des entités nommées au sein d’un document textuel est apparu dans le milieu des années 90. Il est aujourd’hui un élément incontournable dans le traitement automatique du langage naturel.
Selon une étude menée par Microsoft en 2010, entre 20 et 30% des requêtes soumises dans Bing, son moteur de recherche, étaient des entités nommées à parts entières, et 71% d’entre elles contenaient au moins une entité nommée dans la question posée. On comprend alors tout l’intérêt pour un moteur de recherche de constituer une gigantesque base de données d’entités nommées permettant de catégoriser des requêtes et des pages web afin de simplifier l’extraction de la bonne information et d’améliorer la pertinence des résultats.
2010, c’est également l’année où Google rachète Metaweb, une société connue pour avoir développé Freebase, une base de données de plusieurs millions d’entités nommées.
C’est avec cette base de données, qui rassemble aujourd’hui 500 milliards de faits au sujet de 5 milliards d’entités selon les dernières informations données par Google en 2020, que le moteur de recherche a déployé son knowledge graph, ou arbre de connaissances, à partir de 2012.
Il faut cependant savoir que la reconnaissance des entités nommées se heurte à plusieurs défis de taille, parmi lesquels nous pouvons en citer 2.
Le premier défi est celui de la désambiguïsation sémantique lexicale. Un même terme peut en effet avoir plusieurs sens différents. On dit alors qu’il est polysémique. L’exemple classique qu’on donne en SEO est le terme jaguar, qui peut à la fois désigner l’animal sauvage mais également la marque de voiture de luxe. Dans le cadre d’une recherche d’information sur un moteur de recherche, lorsque l’utilisateur utilise le terme jaguar (qui est donc une entité qui peut soit avoir pour type “le nom d’une organisation”, soit avoir pour type “le nom d’un animal”) dans sa requête, le moteur de recherche va devoir analyser le contexte dans lequel se trouve le terme (qui peut être les mots entourant jaguar, mais également l’historique des recherches de l’utilisateur ou encore sa position géographique au moment où il effectue sa recherche) pour comprendre le véritable besoin de l’internaute et lui renvoyer les résultats les plus pertinents. Un scoring sera par ailleurs mis en place afin de déterminer la probabilité qu’un utilisateur recherche plutôt telle ou telle information lorsqu’il tape une requête de type “jaguar” dans le moteur de recherche.
Etc.
Retrouvez ce podcast SEO sur mon site :
https://julien-gourdon.fr/podcast-seo/c-est-quoi-une-entite-nommee
Ou retrouvez le podcast Une entité nommée c'est quoi sur YouTube :
https://www.youtube.com/watch?v=DzCTpHNIC-o
Comme nous l’avons vu dans un précédent épisode, le PageRank est l’algorithme fondateur de Google, qui fut à l’origine de son succès. Créé par Larry page, un des cofondateurs du moteur de recherche, il est expliqué en détail dans un article en date du 29 janvier 1998, que l’on peut facilement consulter sur le web. Mais comment expliquer le PageRank en quelques mots ?
Pour cela, il faut déjà comprendre la problématique qui se pose à tout moteur de recherche. Comment trouver un modèle qui puisse automatiquement et rapidement fournir les résultats les plus pertinents à l’utilisateur en recherche d’information ?
C’est la base !
Un utilisateur qui juge les résultats qu’on lui renvoie peu pertinents par rapport à sa recherche passera chez la concurrence et ne reviendra pas de sitôt. La qualité des résultats fournis est donc cruciale pour un moteur de recherche.
C’est donc à cet épineux problème que c’est attaqué Larry Page en créant le PageRank.
Son postulat de départ consiste à dire que les pages les plus populaires doivent être les mieux classées dans un moteur de recherche.
Pourquoi ? Parce que si une page est souvent visitée par un grand nombre d’internautes, c’est qu’elle leur plaît et il est donc normal que les moteurs de recherche poussent ces pages web.
Mais le problème est qu’en 1998, il n’existe aucun moyen de mesurer l’audience d’un site web. Rappelons que Google Analytics ne sera lancé qu’en 2005 et qu’il n’existe alors pas encore d’outil pour connaître le trafic d’un site.
Pour autant, une estimation de l’audience ne semble pas insurmontable.
Imaginons pour commencer que le web soit représenté par un graphe orienté, où chaque nœud représente une page web, et chaque arc reliant les nœuds entre eux un lien hypertexte pointant d’une page vers une autre. Intuitivement, on peut aisément se visualiser le fait que plus un nœud A est relié à d’autres nœuds, plus ce nœud A est gros et est donc plus visible que les autres.
Mais encore faut-il donner une base scientifique à cette intuition pour la rendre tangible.
Pour cela, Larry Page va modéliser un visiteur virtuel, appelé “surfeur aléatoire”. C’est l’idée selon laquelle un internaute, lorsqu’il se retrouve sur une page web quelconque, a deux comportements possibles. Soit il clique sur un des liens se trouvant sur la page, soit aucun de ces liens ne l’intéresse et il se téléporte sur une autre page quelconque, en ouvrant un nouvel onglet dans son navigateur par exemple.
Retrouvez le podcast Qu'est-ce que le PageRank sur YouTube :
https://www.youtube.com/watch?v=8kZfwu2CPA0
The podcast currently has 14 episodes available.
1 Listeners