如何解决重复内容 ( Duplicate Content) 的问题?
上一篇文章讲到什么是重复内容。本篇文章将讲解如何解决重复内容的问题。解决重复内容的问题归根到底是为了辨别哪个重复内容是 “正确” 的。当网站上一样的内容有多个不同的URLs时,它应该为搜索引擎设置一个权威标准去明确哪个URL是权威的,哪些是要跳转或者不收录的。接下来我们将通过三个办法讲解如何设置这个权威标准:利用301跳转到正确的URL,用rel=canonical权威标签,或者使用 Google Search Console 的参数处理工具。
301跳转
在很多情况下,最好的对付重复内容的方法是设置301跳转将重复的页面跳转到原始的内容页面上。当多个有排名潜力的相同内容的页面合并成一个页面,他们不止会停止相互间的竞争,还会创建一个更高相关性和人气信号。这也会提升那个 “正确” 的页面的排名能力。
Rel=”canonical”
另一个对付重复内容的选择是利用 rel=canonical 标签。这可以告诉搜索引擎哪个页面是另个指定的URL副本,以及该页面上所有的链接,内容指标和 “排名能力” 都应该归功于那个指定的URL.
rel=canonical 是一个网页的 HTML head 中的一部分,如以下示例:
一般格式:
<head> ...[other code that might be in your document's HTML head]... <link href="URL OF ORIGINAL PAGE" rel="canonical" /> ...[other code that might be in your document's HTML head]... </head>
rel=canonical 标签应该添加在指定页面的不同重复版本的 HTML head 中,在以上 “URL OF ORIGINAL PAGE” 那部分中替换成原始页面(权威页面)链接(请确保使用了双引号)。权威标签传递了与 301跳转相同程度的链接权益(排名能力),而且因为它是在页面上执行的(而不是服务器上),所以通常花比较少的时间去执行。以下是一个在正常运转的权威标签的示例:
我们可以看到 BuzzFeed 在使用 rel=canonical 标签去调解 URL 参数的使用(在这个场景下,跟踪点击)。虽然这个页面可以通过两个 URLs 触达,rel=canonical 标签确保所有的链接权益和内容指标都归功于原始页面。
Meta Robots Noindex
当与 “noindex, follow” 一起使用时,meta robots 是一个应付重复内容 很有效的 meta tag (元标签)。通常叫做 Meta Noindex, Follow,严格意义来说是 content=”noindex,follow”, 这个 meta robots tag 可以放在一个不想被搜索引擎收录的页面的 HTML head 中。
一般格式:
<head> ...[other code that might be in your document's HTML head]... <meta name="robots" content="noindex,follow"> ...[other code that might be in your document's HTML head]... </head>
这个 meta robots tag 允许搜索引擎去爬取这个页面上的链接,但是设置不被搜索引擎收录到。虽然你告知 Google 不去收录这些页面,但是确保这些重复页面能被爬取也是重要的。因为 Google 反对网站中重复内容不能被爬取的行为(搜索引擎想要查看你网站中全部的内容,以防你有代码错误的问题。这允许他们在一些不明确的情况下可以做出一些自动化的判断。使用 meta robots 是一个很好的解决与分页 (pagination) 有关的重复内容的问题。
Google Search Console 中的偏好域名和参数处理
Google Search Console 允许你为你的网站设置偏好域名 (例如使用 http://yoursite.com 而不是 http://www.yoursite.com),然后确定 Googlebot 是否应该分开爬取不同的 URL 参数(参数处理)。
根据你 URL 结构和引发重复内容问题的原因,设置你的偏好域名或者参数处理(或者两个都设置)可能是一个解决方法。使用参数处理作为你首要的处理重复内容的缺点是这些改变只对 Google 起作用。所有在 Google Search Console 设置的规则都不会影响 Bing 或者其他搜索引擎爬虫了解你网站的形式;除了在 Google Search Console 调整设置以外,你还需要为了其他搜索引擎使用 webmaster tools.
其他应对重复内容的方法
- 在一个网站指向内部链接时要保持一致。例如,如果一个网站管理员决定一个域名的权威版本是 www.example.com/, 那么所有的内部链接应该指向 http://www.example.com/example, 而不是 http://example.com/page (注意 www)。
- 当在做联合内容时,确保联合的网站添加的网址是指向原始的内容,不是原始 URL 的变化体。
- 添加一个额外的安全保护可以防止复制他人内容的软甲盗取了你的 SEO credit. 添加一个自我参考 (self-referential) 的 rel=canonical 链接到你现有的页面。这是一个指向已经在线的 URL 的权威的标签,这么做的目的是进一步阻止复制他人内容的软件。
一个self-referential rel=canonical 链接:在 rel=canonical 标签中的 URL 与现有的 URL 页面一致。
self-referential rel=canonical 标签可以帮助你在出现被复制内容的软件盗取内容时确保你网站才是原始内容的源头。
Article: https://moz.com/learn/seo/duplicate-content
Feature Images: https://sitechecker.pro/duplicate-content/
Write a Comment