解释
robots.txt 的存在不会直接影响您网站的 SEO。如果您确实有 robots.txt,请确保您想要编入索引的页面没有被阻止。如果您在 Google Search Console 上报告了抓取问题,请务必仔细检查您的 robots.txt 文件。
此外,为了提高搜索引擎机器人的抓取速度,您可以通过在网站的 robots.txt 文件中指定不必要的页面来避免对它们进行索引。
从Robots.txt 初学者指南中了解更多信息。
11. 页面速度
谷歌早在 2010 年就宣布将页面加载速度作为搜索排名的依据。这让你别无选择,只能将网站的加载速度控制在几秒钟内。
清单:
解释:
删除代码膨胀、优化图像大小、优化缓存、减少 DNS 查找是影 查找您的号码数据 网站页面加载时间的众多因素中的一部分。提高页面加载速度可以改善网站的用户体验。根据《卫报》的一篇文章,随着技术的进步,互联网用户的注意力持续时间正在减少。加载速度更快的页面可以有效吸引网站访问者的注意力,从而丰富用户体验。此外,Google 等搜索引擎会考虑网站的丰富可用性,以便在搜索中排名靠前(您将在下面的第 20 点中看到这一点)。
12. 页内链接
早期,Google 建议网站页面内链接数量不得超过 100 个,因为会受到抓取限制。但自从 Google 掌握了先进且完善的抓取和索引链接技术后,网站页面内链接数量就没有明确的建议值了。
清单:
您的网站网页上是否有超过 100 到 200 个链接?
解释:
尽管谷歌等搜索引擎已经取消了网页上 100 个链接的门槛,但需要注意的是,页面上的链接数量越少,获得的链接汁就越集中。如果你不必要地从你的页面链接到你自己的网站或第三方网站的页面,那么一定比例的链接权益就会损失。
因此建议将网页链接数量保持在 100 到 200 个以下。
欲了解更多有关链接汁流的文章,请访问。