Comment optimiser le référencement du site Web

1. Qu'est-ce qu'un moteur de recherche

Un moteur de recherche est un programme informatique qui aide les utilisateurs à rechercher le contenu dont ils ont besoin. En d'autres termes, le moteur de recherche fait correspondre les informations stockées dans l'ordinateur avec les besoins d'informations de l'utilisateur et affiche les résultats correspondants.

Par exemple: si vous souhaitez acheter un iPhone12 et que vous souhaitez connaître la configuration ou le prix de «iPhone12», vous saisissez «iPhone12» dans le champ de recherche du navigateur et cliquez sur le bouton de recherche. Le mot-clé «iPhone12» correspond ici à vos besoins d'information. En quelques dixièmes de seconde, lorsque le navigateur a affiché les résultats de la recherche, son programme a cherché dans l'énorme base de données en fonction de mots clés, et a finalement calculé toutes les pages Web sur "iPhone12".

Deuxièmement, le principe de fonctionnement des moteurs de recherche

Il y aura une très grande base de données en arrière-plan du site Web du moteur de recherche, qui stocke un grand nombre de mots-clés, et chaque mot-clé correspond à de nombreuses URL. Ces URL sont appelées "araignées des moteurs de recherche" ou "robots d'exploration". Le programme est téléchargé et collecté petit à petit à partir du vaste Internet. Avec l'émergence de différents sites Web, ces "araignées" assidues rampent sur Internet tous les jours, d'un lien à l'autre, téléchargent le contenu, analysent et affinent, trouvent les mots-clés, si l '"araignée" pense Si les mots-clés ne le sont pas dans la base de données mais sont utiles à l'utilisateur, ils sont stockés dans la base de données back-end. Au contraire, si «l'araignée» pense qu'il s'agit d'un spam ou d'une information en double, jetez-la simplement, continuez l'exploration, trouvez les informations les plus récentes et utiles, enregistrez-les et fournissez-les aux utilisateurs pour qu'ils les recherchent. Lorsque les utilisateurs effectuent une recherche, ils peuvent récupérer des URL liées à des mots clés et les afficher aux visiteurs.

Une paire de mots-clés utilise plusieurs URL, il y a donc un problème de tri, et l'URL correspondante qui correspond le mieux au mot-clé sera classée en premier. Dans le processus d'exploration du contenu Web par "araignée" et de raffinement des mots-clés, il y a une question: peut "araignée" le comprendre. Si le contenu du site est flash, js, etc., alors il est incompréhensible et confus, même si les mots-clés sont plus appropriés, ils sont inutiles. De même, si le contenu d'un site Web peut être reconnu par un moteur de recherche, le moteur de recherche augmentera le poids du site Web et augmentera la convivialité du site Web. Un tel processus est appelé SEO.

3. Processus de travail des moteurs de recherche (trois étapes)

Le processus de travail des moteurs de recherche peut être divisé en trois étapes.

[ Le segment de la première étape ] l'exploration et l'exploration: les araignées des moteurs de recherche pour accéder aux pages Web en suivant les liens pour obtenir la page de code HTML stockée dans la base de données.

1. Qu'est-ce qu'une araignée?

Il est appelé l'exécuteur lors de l'exploration de données de pages Web. En fait, il s'agit d'un programme informatique, car le processus de travail est très similaire à celui des araignées en réalité. Le programme spider envoie une demande d'accès à la page du site Web, le serveur renvoie le code HTML et le programme spider stocke le code reçu dans la base de données de la page d'origine. Lorsqu'une araignée visite un site Web, elle visite d'abord le fichier robots.txt dans le répertoire racine du site Web! Si le fichier robots.txt interdit aux moteurs de recherche d'explorer certains fichiers ou répertoires, l'araignée se conformera à ces interdictions et n'explorera pas ces URL interdites.

2. Comment suivre les liens?

Afin d'explorer autant de pages que possible sur Internet, les robots des moteurs de recherche suivront les liens sur les pages du site Web et passeront d'une page à l'autre. Ce processus est comme une araignée rampant sur une toile d'araignée. C'est le nom de l'origine de l'araignée des moteurs de recherche. Tout Internet est composé de pages Web liées. En théorie, tant que l'araignée dispose de suffisamment de temps, elle peut toujours explorer tous les liens de page sur Internet. Mais la situation actuelle n'est pas la suivante: comme le site Web et la structure des liens sont extrêmement complexes, les araignées doivent adopter certaines stratégies d'exploration pour parcourir toutes les pages sur Internet.

3. Stratégie d'exploration

Selon la structure des liens du site Web, nous pouvons diviser les stratégies d'exploration des araignées en deux types: l'exploration en profondeur et l'exploration en largeur.

  • Exploration en profondeur: l'araignée avance le long du lien de la page trouvée jusqu'à ce qu'il n'y ait plus d'autres liens devant, puis revient à la première page et avance le long d'un autre lien!
  • Exploration de la largeur: lorsque l'araignée trouve plusieurs liens sur une page, elle ne rampe pas vers l'avant le long d'un lien, mais explore tous les liens de premier niveau de la page, puis continue à le trouver sur la page de deuxième niveau. la troisième page! Continue comme ça

Dans le travail réel, les ressources en bande passante et le temps de l'araignée sont limités et il est impossible d'explorer toutes les pages. La profondeur d'abord et la largeur d'abord sont généralement mélangées, de sorte que le plus grand nombre de sites Web possible (largeur d'abord) puisse être pris en charge, ainsi qu'une partie des pages intérieures du site Web (profondeur d'abord)

4. Attirer les araignées

Selon l'introduction ci-dessus, il est impossible pour les araignées d'inclure toutes les pages.Par conséquent, le référencement consiste à utiliser diverses méthodes pour attirer les araignées à explorer et à inclure plus de pages de leur site Web. Étant donné que toutes les pages ne peuvent pas être incluses, l'araignée doit essayer d'explorer les pages importantes. Alors, comment l'araignée détermine-t-elle quelles pages sont les plus importantes? Il existe plusieurs facteurs d'influence:

  • Poids du site Web et de la page: les sites Web de haute qualité et hautement qualifiés ont un poids élevé
  • Taux de mise à jour des pages: les sites avec une fréquence de mise à jour élevée ont un poids élevé
  • Lien importé: qu'il s'agisse d'un lien externe ou d'un lien interne, pour être crawlé par une araignée, il doit y avoir un lien d'importation pour accéder à la page. Les liens d'importation de haute qualité augmentent également souvent la profondeur des liens d'exportation sur la page.
  • Distance de clic depuis la page d'accueil: De manière générale, c'est la page d'accueil qui a le poids le plus élevé. La plupart des liens externes pointent vers la page d'accueil et la page d'accueil est la plus visitée par les araignées. Par conséquent, plus la page est proche de la page d'accueil, plus le poids est élevé et plus les chances d'être explorées par les araignées sont grandes.

5. Bibliothèque d'adresses

Les moteurs de recherche créeront une bibliothèque d'adresses pour stocker les pages afin d'éviter l'exploration et l'exploration répétées des URL par les robots des moteurs de recherche. Cette bibliothèque d'adresses contient des pages qui ont été explorées et des pages qui n'ont pas été explorées après avoir été découvertes. L'URL de cette base de données d'adresses doit-elle être explorée par une araignée? La réponse est non. Il existe des adresses de sites Web d'origine saisies manuellement, et certains webmasters soumettent des URL via les pages des moteurs de recherche (généralement les blogs ou sites Web personnels utilisent cette méthode). Une fois que l'araignée a parcouru la page, l'URL est analysée et comparée à la bibliothèque d'adresses. . S'il n'existe pas, déposez

6. Stockage de fichiers

Les données capturées par les araignées des moteurs de recherche sont stockées dans cette base de données de pages d'origine, et les données de page qu'il contient sont exactement les mêmes que le HTML obtenu par le navigateur de l'utilisateur. Chaque URL a un numéro de fichier unique

 7. Détection du contenu copié

L'araignée effectuera également un certain degré de détection de contenu de copie lors de l'exploration et de la récupération de fichiers! Lorsqu'ils rencontrent des sites Web de faible poids et un grand nombre de contenu plagié, les araignées cesseront probablement d'explorer. C'est pourquoi certains webmasters ont trouvé des araignées dans les fichiers journaux, mais les pages n'ont jamais été réellement incluses.

[Deuxième étape] Prétraitement: Le  programme d'indexation effectue l'extraction de texte, la segmentation de mots chinois, l'indexation et d'autres traitements sur les données de la page Web explorée pour préparer l'appel du programme de classement.

 

Étant donné qu'il y a trop de données dans la base de données du moteur de recherche, il est impossible pour les utilisateurs de renvoyer les résultats du classement après avoir saisi des mots-clés dans le champ de recherche, mais nous pensons souvent que c'est rapide. En fait, le rôle clé est le processus de prétraitement. Comme le processus d'exploration, il l'a terminé à l'avance en arrière-plan. Certaines personnes pensent que le prétraitement est une indexation, mais ce n'est pas le cas. L'indexation n'est qu'une étape majeure du prétraitement. Alors, qu'est-ce que l'indexation? Un index est une structure permettant de trier les valeurs d'une ou plusieurs colonnes dans une liste de base de données. Il y a cinq tâches à effectuer avant l'indexation:

 1. Extraire le texte

La première chose qu'un moteur de recherche doit faire est de supprimer les balises au format HTML et les programmes javascript des fichiers HTML, et d'extraire le contenu texte des pages du site Web qui peut être utilisé pour le traitement du classement. En plus d'extraire du texte visible, les moteurs de recherche peuvent également proposer le contenu texte invisible suivant, tel que: contenu texte dans les balises méta, texte alternatif d'image, texte alternatif pour les fichiers Flash, texte d'ancrage de lien, etc.

 2. Segmentation du mot chinois

Dans les phrases chinoises, il n'y a pas de séparateur entre les mots et les mots, et les mots d'une phrase sont tous reliés entre eux. Par conséquent, à ce stade, le moteur de recherche doit d'abord distinguer quels caractères constituent un mot et quels caractères sont eux-mêmes un mot. Par exemple: «Bosideng down jacket» est divisé en deux mots: «Bosideng» et «down jacket». Il existe généralement deux méthodes pour la segmentation des mots chinois:

  • Correspondance du dictionnaire: faites correspondre un segment de caractères chinois à analyser avec une entrée dans un dictionnaire prédéfini. L'analyse d'une entrée existante dans le dictionnaire à partir de la chaîne de caractères chinois à analyser correspondra correctement ou divisera un mot.
  • Selon les statistiques de recherche: les méthodes de segmentation de mots basées sur les statistiques consistent à analyser un grand nombre d'échantillons de texte et à calculer la probabilité statistique que des mots apparaissent adjacents les uns aux autres. Plus il y a de mots adjacents les uns aux autres, plus il est probable qu'il forme un mot. L’avantage de la méthode statistique est qu’elle réagit plus rapidement aux nouveaux mots et qu’elle permet également d’éliminer toute ambiguïté.

Les méthodes de segmentation de mots basées sur la correspondance de dictionnaires et les statistiques ont leurs propres avantages et inconvénients. Le système de segmentation de mots utilisé actuellement utilise un mélange des
deux méthodes, qui est rapide et efficace, et peut identifier de nouveaux mots et de nouveaux mots et éliminer toute ambiguïté. )

 3. Aller aux mots vides

Qu'est-ce qu'un mot d'arrêt? Certains mots du contenu de la page qui apparaissent fréquemment mais n'ont aucun effet sur le contenu. Par exemple: «的», «地», «得» et autres mots auxiliaires; «Ah», «ha», «Ah» et autres interjections; «Ainsi», «以», «Que» et autres prépositions. Mots vides courants en anglais, tels que "the" et "of". Ces mots sont appelés mots vides car ils n'ont aucun effet sur le sens principal de la page. Les moteurs de recherche ont deux objectifs principaux pour arrêter les mots:

  • La première consiste à rendre le sujet des données d'index plus visible et à réduire les calculs inutiles
  • La seconde consiste à détecter si votre contenu a beaucoup de répétition avec le contenu d'une autre base de données

 4. Supprimer le bruit

Le bruit ici n'est pas ce que l'on appelle du bruit, il se réfère spécifiquement à une sorte de poubelle, c'est-à-dire à des mots redondants! Ces mots sont généralement inclus dans le texte de l'avis de droit d'auteur, la barre de navigation et la publicité. Les moteurs de recherche doivent identifier et éliminer ces bruits, et aucun contenu de bruit n'est utilisé lors du classement. La méthode de base d'élimination du bruit consiste à diviser la page en blocs selon des balises HTML, en distinguant l'en-tête, la navigation, le corps, le pied de page, la publicité et d'autres zones. Un grand nombre de blocs répétitifs sur le site Web sont souvent du bruit, ce qui ne peut qu'affecter le thème de la page Dispersion. Après avoir débruité la page, ce qui reste est le contenu principal de la page.

 5. Retrait (chong)

Le même article apparaît souvent à plusieurs reprises sur différents sites Web et sur différentes URL d'un même site Web. Les moteurs de recherche n'aiment pas ce type de contenu répétitif. Lorsque les utilisateurs effectuent une recherche, s'ils voient le même article sur différents sites Web sur les deux premières pages, l'expérience utilisateur est trop mauvaise, bien qu'ils soient tous liés au contenu. Le moteur de recherche espère ne renvoyer qu'un seul article dans le même article. Il doit donc identifier et supprimer le contenu en double avant l'indexation. Ce processus est appelé "déduplication".

 

Après les cinq étapes ci-dessus, le moteur de recherche sera en mesure d'obtenir un contenu unique basé sur des mots qui peut refléter le contenu principal de la page. Ensuite, le programme du moteur de recherche divise les mots-clés extraits ci-dessus via le programme de segmentation de mots et convertit chaque page de site Web en un ensemble de mots-clés. En même temps, il enregistre la fréquence, le nombre et le nombre d'occurrences de chaque mot-clé sur la page. Format (par exemple: balise de titre, gras, balise H, texte d'ancrage, etc.) position (les premiers paragraphes), ceux-ci sont enregistrés sous forme de poids, puis placés à un endroit, cet endroit est le vocabulaire à placer ces combinaisons de mots Bibliothèque d'index de structure, également appelée «formulaire d'index du thésaurus»

6, index avant

La page est convertie en un ensemble de composition de mots-clés, tandis que la fréquence d'enregistrement de chaque mot-clé apparaît sur la page., Et le
nombre de fois maintenant, le format (par exemple, apparaît dans la balise de titre, gras, balises H, texte d'ancrage, etc. .), emplacement (par exemple, page Premier paragraphe,
texte, etc.). De cette manière, chaque page peut être enregistrée comme une chaîne de collections de mots-clés,
et les informations de poids telles que la fréquence des mots , le format et l'emplacement de chaque mot-clé sont également enregistrées. Chaque dossier correspond à un identifiant et le contenu du fichier est représenté sous la forme d'un ensemble de mots-clés. Dans la bibliothèque d'index du moteur de recherche, pour le moment, les mots-clés n'ont pas été convertis en identifiants de mots-clés. Cette structure de données est appelée indexation directe.

 7, index inversé

Étant donné que l'index de transfert ne peut pas être utilisé pour le classement directement, par exemple, si un utilisateur recherche un certain mot-clé 2, si seul l'index de transfert est effectué, seul le dossier contenant le mot-clé peut être trouvé et le classement ne peut pas être réellement renvoyé. L'index inversé sera utilisé à ce moment. Dans l'index inversé, les mots-clés deviennent la clé primaire. Chaque mot-clé correspond à une série de fichiers, et chaque fichier a le mot-clé à rechercher, de sorte que lorsque l'utilisateur recherche un mot-clé donné, le programme de tri peut être Rechercher le fichier correspondant à ce mot-clé dans la liste inversée

8. Traitement des documents spéciaux

En plus des fichiers HTML, les moteurs de recherche peuvent généralement explorer et indexer une variété de types de fichiers basés sur du texte, tels que les
fichiers PDF, Word, WPS, XLS, PPT, TXT, etc. Nous voyons souvent ces
types de fichiers dans les résultats de recherche . Cependant, les moteurs de recherche actuels ne peuvent pas traiter le contenu non textuel tel que les images, les vidéos et Flash, ni
exécuter des scripts et des programmes. Bien que les moteurs de recherche aient fait des progrès dans la reconnaissance des images et l'extraction du contenu textuel de Flash, ils sont encore loin de l'objectif de renvoyer directement des résultats en lisant des images, des vidéos et du contenu Flash. Le classement des images et du contenu vidéo est souvent basé sur le contenu textuel qui leur est associé. Donc, en SEO, essayez de les utiliser le moins possible sur votre site Web

9. Calcul de la relation de lien

Une fois que le moteur de recherche explore la page, il doit également calculer à l'avance quels liens pointent vers quelles pages de la page. Quels sont les liens importés sur chaque page et quel texte d'ancrage est utilisé dans le lien? Ce sont ces relations complexes de pointage de lien qui forment le poids du lien du site Web et de la page.

[Étape 3] Classement: une fois que l'  utilisateur a entré un mot-clé, le programme de classement appelle les données de la bibliothèque d'index pour calculer la corrélation, puis génère une page de résultats de recherche dans un certain format.

1. Traitement des termes de recherche

  • Segmentation de mots chinois: comme pour l'indexation de page, les termes de recherche doivent également être une segmentation de mots chinois et la chaîne de requête est convertie en une combinaison de mots-clés basée sur des mots. Le principe de la segmentation des mots est le même que celui de la segmentation des mots de la page.
  • Supprimer les mots vides: comme pour l'indexation, les moteurs de recherche doivent également supprimer les mots vides des termes de recherche pour maximiser la pertinence et l'efficacité du classement.
  • Traitement des instructions: comme le signe plus, le signe moins, etc., les moteurs de recherche doivent l'identifier et le traiter en conséquence
  • Correction d'erreurs d'orthographe: si l'utilisateur saisit un mot manifestement erroné ou un mot anglais, le moteur de recherche l'invitera à utiliser le mot ou l'orthographe corrects
  • Déclencheur de recherche intégré: par exemple, recherchez des étoiles, il y aura des images, des vidéos et d'autres contenus, adaptés aux sujets d'actualité
     

2. Correspondance de fichiers

L'index inversé correspond rapidement aux fichiers. En supposant que l'utilisateur recherche "Mot clé 2 Mot clé 7", le programme de classement n'a besoin que de trouver les deux mots "Mot clé 2" et "Mot clé 7" dans l'index inversé, et il pourra trouvent qu'ils contiennent respectivement ces mots. Toutes les pages en deux mots. Après un simple calcul, nous pouvons trouver toutes les pages qui contiennent à la fois "mot-clé 2" et "mot-clé 7": fichier 1 et fichier 6

3. Sélection initiale du sous-ensemble

Il y a des dizaines de milliers de pages sur Internet, et il y a aussi des dizaines de millions de pages qui peuvent être recherchées pour un certain mot-clé. Si le moteur de recherche arrive et calcule directement la pertinence de la page, il est tout simplement trop temps. consommant. En fait, les utilisateurs n'ont pas besoin de voir ces milliers de pages, il leur suffit d'une ou deux pages utiles. À ce stade, le moteur de recherche sélectionnera 100 fichiers en fonction des termes de recherche de l'utilisateur, puis les renverra. Alors, quels sont les cent fichiers sélectionnés? Cela dépend de la correspondance relative entre la page de votre site Web et le mot-clé recherché par l'utilisateur. La page avec un poids élevé entrera dans le sous-ensemble présélectionné du moteur de recherche

4. Calcul de la corrélation

Une fois le sous-ensemble initial sélectionné, la pertinence du mot-clé est calculée pour les pages du sous-ensemble. Les principaux facteurs affectant la pertinence comprennent les aspects suivants:

  1. Mot-clé degré couramment utilisé: les mots les plus couramment utilisés contribuent moins à la signification du terme de recherche, et les mots les moins fréquemment utilisés contribuent davantage à la signification. Supposons que le terme de recherche saisi par l'utilisateur soit "we DKI". Le mot «nous» est très couramment utilisé, et il apparaît sur de nombreuses pages. Il a peu de contribution à la reconnaissance et à la signification du terme de recherche «notre DKI». Les pages qui contiennent le mot "DKI" seront plus pertinentes pour le terme de recherche "notre DKI"
  2. Fréquence et densité des mots : il est généralement admis que lorsqu'il n'y a pas d'accumulation de mots-clés, le terme de recherche apparaît plus fréquemment sur la page et la densité est plus élevée, indiquant que la page est plus pertinente par rapport au terme de recherche.
  3. Emplacement et format des mots-clés : comme indiqué dans la section d'index, le format et l'emplacement des mots-clés de page sont enregistrés dans la bibliothèque d'index. Les mots-clés apparaissent à des positions plus importantes, telles que la balise de titre, les caractères gras, H1, etc., indiquant que la page est plus pertinente par rapport au mot-clé. Cette partie est ce que le SEO on-page va résoudre
  4. Distance du mot-clé : après la segmentation, la correspondance complète du mot-clé apparaît, indiquant qu'il est le plus pertinent par rapport au terme de recherche. Par exemple, lors de la recherche de «méthode de perte de poids», les quatre mots «méthode de perte de poids» apparaissant continuellement et complètement sur la page sont les plus pertinents. Si les deux mots «perte de poids» et «méthode» ne correspondent pas en permanence, ils apparaissent plus proches, et ils sont également considérés par les moteurs de recherche comme un peu plus pertinents.
  5. Analyse des liens et poids de la page : Outre les facteurs de la page elle-même, la relation lien et poids entre les pages affecte également la pertinence des mots-clés, dont le plus important est le texte d'ancrage. Plus il y a de liens d'importation contenant des termes de recherche comme texte d'ancrage sur la page, plus la page est pertinente. L'analyse des liens inclut également le sujet de la page source du lien elle-même, le texte entourant le texte d'ancrage, etc.

5. Filtrage et ajustement du classement

Après avoir calculé la pertinence, le classement général a été déterminé. Par la suite, les moteurs de recherche peuvent également disposer d'algorithmes de filtrage pour ajuster légèrement les classements, dont le plus important est d'imposer des pénalités. Certaines pages suspectées de tricherie sont classées en premier selon les calculs normaux de poids et de pertinence, mais l'algorithme de pénalité des moteurs de recherche peut déplacer ces pages vers l'arrière dans la dernière étape. Des exemples typiques sont l'algorithme 11 bits de Baidu et les algorithmes moins 6, moins 30 et moins 950 de Google.

6. Affichage du classement

Une fois tous les classements déterminés, le programme de classement appelle la balise de titre, la balise de description et la date de l'instantané de la page d'origine pour l'afficher sur la page. Parfois, les moteurs de recherche doivent générer dynamiquement des résumés de page au lieu d'appeler les balises de description de la page elle-même.

7, cache de recherche

On peut dire que c'est un gros gaspillage de retraiter le classement à chaque fois que vous effectuez une recherche. Le moteur de recherche stockera les termes de recherche les plus courants dans le cache et l'utilisateur l'appellera directement à partir du cache lors de la recherche, sans avoir à passer par des calculs de correspondance et de corrélation de fichiers, ce qui améliore considérablement l'efficacité du classement et raccourcit le temps de réponse à la recherche.

8. Requête et cliquez sur le journal

Le moteur de recherche enregistre l'adresse IP de l'utilisateur de la recherche, les mots-clés recherchés, l'heure de la recherche et les pages de résultats sur lesquelles l'utilisateur clique. Les données de ces fichiers journaux sont d'une grande importance pour les moteurs de recherche afin de juger de la qualité des résultats de recherche, d'ajuster les algorithmes de recherche et d'anticiper les tendances de recherche.
 

4. Vue d'ensemble des spécifications SEO frontales

1. Titre raisonnable, description, mots-clés, le poids de la recherche pour les trois éléments est réduit un par un, et la valeur du titre peut souligner le point clé. La description résume le contenu de la page à un niveau élevé. N'empilez pas trop les mots clés. Les mots clés énumèrent les mots clés importants.

2. Balises HTML sémantiques

3. Les images non décoratives doivent ajouter alt

4. Placez le contenu important en haut du code HTML et chargez-le en premier. L'ordre des moteurs de recherche pour explorer le code HTML est de haut en bas pour garantir que le contenu important sera analysé.

5. Une seule balise h1 apparaît sur chaque page

6. Essayez de ne pas transformer la page en flash, image ou vidéo, car les moteurs de recherche ne peuvent pas l'attraper

7. Moins d'utilisation des iframes, les iframes ne peuvent pas être capturés

8. La page est aussi plate que possible, le niveau est trop profond et il n'est pas bon pour l'exploration

9. Le contenu de chargement asynchrone (ajax) ne peut pas non plus être analysé par les moteurs de recherche.Les informations importantes peuvent être sorties directement, ce qui est propice à l'expérience utilisateur et à l'optimisation du référencement.

10. Utilisez des liens conviviaux pour importer des liens de votre propre site Web sur les sites Web d'autres personnes

11. Soumettez les sites non répertoriés aux portails de connexion des principaux moteurs de recherche

12. Améliorer la vitesse du site Web, qui est un indicateur important du classement des moteurs de recherche

13. Faire une bonne page 404 n'est pas seulement pour améliorer l'expérience de l'araignée, mais aussi pour rendre l'expérience utilisateur meilleure

Cinq, une introduction détaillée à la spécification SEO front-end

[1] Optimisation de la mise en page de la structure du site Web

D'une manière générale, moins il y a de niveaux de structure du site Web établi, plus il est facile de l'explorer par des «araignées», et il est également plus facile d'être inclus. En général, la structure des répertoires des sites Web de petite et moyenne taille dépasse trois niveaux et les «araignées» hésitent à descendre. Et selon l'enquête de données pertinente: si le visiteur n'a pas trouvé les informations requises après avoir sauté 3 fois, il est susceptible de partir. Par conséquent, la structure de répertoires à trois niveaux est également un besoin d'expérience. Pour cela, nous devons faire ce qui suit

  1. Contrôlez le nombre de liens vers la page d'accueil: la page d'accueil du site Web a le poids le plus élevé. S'il y a trop peu de liens vers la page d'accueil et qu'il n'y a pas de "pont", l '"araignée" ne peut pas continuer à ramper jusqu'à la page intérieure, ce qui affecte directement le nombre d'inclusions du site Web. Cependant, il ne doit pas y avoir trop de liens vers la page d'accueil. Une fois qu'il y a trop de liens, il n'y a pas de lien substantiel, ce qui affectera facilement l'expérience utilisateur, réduira également le poids de la page d'accueil du site Web, et l'effet d'indexation ne sera pas sois sage.
  2. Hiérarchie de répertoires plate: essayez de faire en sorte que «l'araignée» ne saute que trois fois pour atteindre une page interne du site Web.
  3. Optimisation de la navigation: la navigation doit utiliser le texte autant que possible, et elle peut également être utilisée avec la navigation par image, mais le code de l'image doit être optimisé. La balise <img> doit ajouter des attributs alt et title pour indiquer le positionnement de la navigation dans le moteur de recherche, donc que même si l'image ne s'affiche pas normalement lorsque l'heure, l'utilisateur peut également voir le texte d'invite. Deuxièmement, le fil d'Ariane doit être ajouté à chaque page Web. Du point de vue de l'expérience utilisateur, il peut informer les utilisateurs de leur position actuelle et de la position de la page actuelle sur l'ensemble du site Web, et aider les utilisateurs à comprendre rapidement l'organisation du site Web. Il forme un meilleur sens de la position et fournit une interface pour revenir à chaque page, ce qui est pratique pour les utilisateurs. Pour les "araignées", ils peuvent comprendre clairement la structure du site Web, et en même temps augmenter un grand nombre de liens internes pour faciliter l'exploration et réduire le taux de rebond.
  4. La structure et la mise en page du site : en- tête de page : logo et navigation principale, ainsi que les informations utilisateur. Page principale : le texte sur la gauche, y compris la navigation par fil d'Ariane et le texte. Les articles populaires et les articles connexes sont placés sur le droit de fidéliser les visiteurs et de permettre aux visiteurs de rester plus. Pour «l'araignée», ces articles sont des liens connexes, qui améliorent la pertinence de la page et augmentent également le poids de la page. Informations sur les droits d'auteur et liens conviviaux au bas de la page.
  5. Placez le code HTML du contenu important en haut : les moteurs de recherche explorent le contenu HTML de haut en bas. Grâce à cette fonctionnalité, le code principal peut être lu en premier et les codes sans importance, tels que les publicités, sont placés en dessous. Par exemple, lorsque les codes dans les colonnes de gauche et de droite restent inchangés, changez simplement le style et utilisez float: left; et float: right; pour échanger les positions des deux colonnes sur l'affichage à volonté, de manière à garantir l'importance Le code est le premier, laissez le robot d'exploration en premier. La même chose s'applique à plusieurs colonnes.
  6. Contrôlez la taille de la page, réduisez les requêtes http et améliorez la vitesse de chargement du site Web : une page est préférable de ne pas dépasser 100k, trop grande, la vitesse de chargement de la page est lente. Lorsque la vitesse est très lente, l'expérience utilisateur n'est pas bonne, les visiteurs ne peuvent pas être retenus, et une fois le timeout écoulé, "l'araignée" partira également.

[2] Optimisation du code de la page Web

  1. Mettez en évidence le contenu important: concevez raisonnablement le titre, la description et les mots-clés. Le titre du <title> ne fait que souligner les points clés. Essayez de mettre les mots clés importants au premier plan, ne répétez pas les mots-clés et essayez de ne pas définir le même contenu dans le titre <title> de chaque page. <meta keywords> Mots-clés, listez simplement les mots-clés importants de quelques pages, n'oubliez pas de trop empiler. <meta description> La description de la page Web doit être un résumé de haut niveau du contenu de la page Web. N'oubliez pas de ne pas être trop longue ou trop empilée de mots clés. Chaque page doit être différente.
  2. Écriture sémantique de code HTML: essayez de rendre le code sémantique, utilisez les balises appropriées aux endroits appropriés et utilisez les bonnes balises pour faire la bonne chose. Laissez les lecteurs et les "araignées" être clairs en un coup d'œil. Par exemple: h1-h6 est utilisé pour les en-têtes, la balise <nav> est utilisée pour définir la navigation principale de la page, le code sous forme de liste utilise ul ou ol, et le texte important utilise strong, etc.
  3. <a> Balise: lien sur la page, ajouter un attribut de titre pour expliquer, informer les visiteurs et les "araignées". Pour les liens externes, si vous créez un lien vers d'autres sites Web, vous devez ajouter l'attribut el = "nofollow pour indiquer à" l'araignée "de ne pas explorer, car une fois que" l'araignée "explore le lien externe, il ne reviendra pas.
  4. Titre du corps: balise <h1>: la balise h1 a son propre poids. "Spider" pense que c'est le plus important. Une page a et au plus une seule balise H1, qui est placée au-dessus du titre le plus important de la page, par exemple comme logo sur la page d'accueil. Ajoutez la balise H1. Utilisez la balise <h2> pour le sous-titre, et la balise de titre h ne doit pas être utilisée sans discernement ailleurs.
  5. <img> doit utiliser l'attribut "alt" pour expliquer: lorsque la vitesse du réseau est très lente ou que l'adresse de l'image n'est pas valide, la fonction de l'attribut alt peut être reflétée, et il peut informer l'utilisateur de la fonction de l'image lorsque l'image n'est pas affichée. Réglez la hauteur et la largeur de l'image en même temps pour améliorer la vitesse de chargement de la page.
  6. La table doit utiliser la balise de titre de table <caption>: L' élément caption définit le titre de la table. La balise de légende doit suivre immédiatement la balise de table
  7. Balises <strong> et <em>: les balises <strong> sont très appréciées dans les moteurs de recherche. Elles peuvent mettre en évidence des mots clés et exprimer un contenu important. L'accent mis sur les balises <em> vient juste après les <strong> balises, <b>, < Les balises i> ne sont utilisées que lors de l'affichage des effets et n'auront aucun effet sur le référencement.
  8. N'utilisez pas JS pour générer un contenu important: étant donné que les "spiders" ne liront pas le contenu dans JS, le contenu important doit être placé en HTML. Le cadre frontal pour les lacunes du référencement peut être compensé par un rendu côté serveur
  9. Minimisez l'utilisation des cadres iframe: parce que les "spiders" ne lisent généralement pas le contenu.
  10. Les moteurs de recherche filtreront le contenu de l'affichage: aucun
  11. Les araignées ne peuvent saisir le href que dans la balise a: <a href= "Default.aspx?id=1"> Test </a> Il est préférable de ne pas inclure de paramètres par la suite, <a href= "Default.aspx"> Test < / a> Si vous apportez les paramètres, l'araignée ne les considérera pas. Dans ce cas, une réécriture d'URL est requise.
  12. L'araignée n'exécute pas JavaScript: En d'autres termes, si l'araignée onclick est utilisée dans la balise a, elle ne sera pas interceptée.
  13. L'araignée ne peut attraper que la page demandée par le get, mais pas la page demandée par la poste
  14. Créer un fichier robots: nous voulons que toutes les premières pages de la page Web soient capturées par les araignées, mais nous ne voulons pas que les pages d'arrière-plan soient capturées par les araignées. Les araignées ne sont pas si intelligentes, sachant quelle est la page de premier plan et quelle page d'arrière-plan de votre site Web. Ici, vous devez créer un fichier appelé "robots.txt" (notez que robots.txt est un protocole, pas une commande. Généralement, robots.txt, qui est préférable de suivre, est le premier fichier lorsqu'un moteur de recherche effectue une recherche sur le site Web. .

 Six, référence

  • Planète des entretiens frontaux

 

Les articles sont continuellement mis à jour chaque semaine. Vous pouvez rechercher " Front-end Collection  " sur WeChat pour le  lire pour la première fois, répondre à [ Video ] [ Book ] pour recevoir des vidéos 200G et 30 livres PDF

Je suppose que tu aimes

Origine blog.csdn.net/qq_38128179/article/details/111641828
conseillé
Classement