泉州伟达网络公司专注企业网站建设,网站seo优化,网站排名,关键词排名及seo外包和seo顾问服务!
打开客服菜单
伟达网络网站seo优化官网
厦门网站优化 > 网站优化 > 7种杀死重复内容的方法
7种杀死重复内容的方法
编辑 :

网站建设

时间 : 2019-03-14 12:57 浏览量 : 35

7种杀死重复内容的方法

不管是什么性质的网站或者是平台,都存在在重复内容问题。看起来每个平台,无论SEO如何友好,都会产生某种形式的重复内容,因为现在内容生产的成本太高了。

首先,让我们看看为什么重复内容很重要。这可能不是你想的原因。

缓和,而不是惩罚

与流行的看法相反,没有重复的内容惩罚。谷歌的博客,一直追溯到2008年,他说:“让我们一劳永逸地说这个,人们:没有'重复内容惩罚'这样的事情。”

也就是说,有一个非常真实 - 但不那么立即可见 - 搜索引擎优化问题与重复内容。在遭受重复内容的页面类型中会出现算法抑制或降低性能的问题。

重复内容引入相同关键字主题的自我竞争,并在两个或更多页面之间拆分链接权限。这两个问题切入了搜索引擎排名重要性的核心:相关性和权威性。

如果有多个网页定位到相同的关键字主题,那么它们与搜索引擎的关联性就会降低,因为要确定哪个网站排名更难。并且由于多个页面在内部使用相同的关键字主题链接,因此可以加强单个页面的链接反而弱支持多个页面并且不会给它们带来任何优势。

那么,“阻尼”是网站向搜索引擎算法发送的信号的削弱,这会影响网站的排名能力。

这怎么不是惩罚?在Google的世界中,当某些网页或整个网站符合预定义的垃圾内容定义时,Google的网络质量团队会由真人手动应用“惩罚”。如果一个网站实际上是一个惩罚,有人必须对网站进行实际处罚。阻尼本质上是算法的,并且往往更难以诊断,因为Google不会提醒您算法问题,它会通过Google Search Console提醒您手动惩罚。

不需要的效果

摆脱重复内容的问题在于,只是删除页面会产生一些不需要的效果。

  • 客户体验。在某些情况下,您的购物者需要查看这些页面。排序的浏览网格,愿望清单页面,打印页面等在技术上可以是重复的内容。杀死这些网页会损害您的客户体验,并可能损害您的收入。

  • 链接权限。每个索引URL都至少具有链接权限。只是删除页面将浪费链接权限,这将讽刺性地伤害你的SEO服务帮助它。

因此,目标是精确确定您需要完成的任务。您是要删除搜索引擎的页面,还是留给购物者使用?您是否需要消除购物者和搜索引擎的页面?你是否更加重要的是你立即摆脱页面(出于法律或其他原因),无论SEO的影响,或者你是否试图通过计划的行动使SEO受益?

下面的图表可以帮助您完成决策过程。

7种删除重复内容的方法

 

列表中的第一个选项301重定向是SEO节目的明星。尽可能使用301重定向删除重复内容,因为它是唯一可以完成重定向机器人和客户,将链接权限传递给新URL并对旧URL进行反索引的重要组合的内容。与其他一些选项不同,301重定向是搜索引擎的命令,而不是可以忽略的简单请求。

如果您的开发团队对301重定向进行了调整,或者如果购物者需要继续查看搜索引擎认为重复内容的页面,请尝试使用规范标记。这些仍然需要开发人员支持,但是它们需要较少的测试来实现,并且在它们生存时使用较少的服务器资源。但请记住,如果Google认为您犯了错误,或者由于某些算法原因而不愿意遵守规范标签,那么可以忽略规范标签。

列表中的第三个是302重定向,但它们只在列表中,因为它们与全能301重定向有关。根据Google工程师John Mueller的说法,302重定向确实通过了链接权限,但在99%的情况下,没有理由测试这个理论,因为301重定向以相同的努力完成更多。使用302重定向的原因是,如果重定向是真正临时的,并且Google不应该对页面进行解除索引,因为它很快就会回来。

删除内容是有害的

其余四个选项仅取消索引内容。它们不会重定向机器人或购物者,也不会将链接权限传递给其他页面。因此,如果它们是唯一可行的选择,请使用这些选项,因为在不重定向的情况下终止页面会浪费链接权限。

链接权限是自然搜索中最有价值且难以获得的商品。您可以创建精彩的内容。您可以优化内部链接结构,以便在您自己的站点中根据需要流动权限。

但是,从一个真正多样化和权威的外部网站集合中道德地增加您的链接权限需要运气,数字外展,新闻关系,社交媒体营销,线下营销等的罕见组合。掌握它的网站数量很少而且很远。

如果你必须杀死一个页面,确定它是否纯粹出于SEO原因(例如重复内容)或出于法律原因(例如没有人应该再次看到它)而被杀死。如果您只想暂时将其从Google中排除,则可以在“删除网址”工具(Google索引>删除网址)中快速轻松地在Google Search Console中执行此操作客户在浏览时仍会在网站上看到它,但Google会立即对其进行解除索引。小心这个工具。使用不当可能会导致整个网站失效。

真正从人和机器人可见性中删除页面的唯一方法是从服务器中删除页面,从而强制URL返回404“未找到文件”错误,或301将其重定向到新URL。

由于各种原因,Meta robots noindex标签和robots.txt disallow命令是我列表中的最后一个选项。首先,他们浪费链接权限。Noindex和robots.txt禁止命令以不同的方式告诉搜索引擎他们不应该索引某些页面。如果页面已经被索引,则它具有一定数量的链接权限,无论多么小。不要浪费它,告诉搜索引擎只是忽略URL并悄悄地去除它们。

其次,搜索引擎一旦严格遵守  noindex和robots.txt禁止命令。但是今天搜索引擎有时会将它们视为建议,特别是对于已经编入索引的内容。因此noindex和robots.txt禁止命令被命中和错过,当搜索引擎遵守它们时,它们可能需要数月才能生效。如果你想快速而肯定地去反索引,那么选择另一种方法。

然而,一旦内容被去索引,Meta robots noindex标签和robots.txt disallow命令作为安全措施是有用的。对于未编制索引的内容,已证明它们在防止未来索引编制方面更有效,而已对已编制索引的内容进行去索引。


  • 超低建站费用

  • 具备营销能力

  • 强大SEO功能

  • 贴心售后技术支持

cache
Processed in 0.039395 Second.