当遇到网站有大量的utm链接时如utm广告链接,而且这些utm链接还有了谷歌排名,我们会疑惑,这些utm链接是否会影响规范页面的排名,是否会对谷歌造成误解? 那么我们该怎么办呢?
正确的做法:
如果您的网站有来自外部链接的随机参数 URL,这些 URL 无论如何都会随着时间的推移被 rel-canonical规范标签清理,不使用 robots.txt 阻止它们,规范标签应该有助于处理带有 UTM 参数的外部链接。
如果您自己生成随机参数 URL,比如在内部链接中,或者从 feed 提交中,需要在源头清理它们,从原页面删除utm参数,而不是使用 robots.txt 阻止它们。
-
网站应该尽量保持其内部 URL 的干净和一致。
错误的做法:
使用 robots.txt 文件中的“Disallow”指令阻止 utm参数是错误的做法,这样会导致的后果有:
导致Google Adsbot 也无法抓取页面的utm。Adsbot 无法抓取目标网址,这意味着网站的广告会被拒登。
被robots.txt屏蔽的带utm参数的网址,谷歌将不知道页面上的内容,也不会发现页面上的rel canonical标签,因此谷歌是很有可能选择索引带utm参数的网址,并有可能给予排名。
总结:
是否使用robots阻止谷歌抓取utm参数链接,需要根据实际情况而定,另外,禁止使用包含utm参数的URL不会帮助提高 Google 搜索的抓取或评级。
文章为作者独立观点,不代表DLZ123立场。如有侵权,请联系我们。( 版权为作者所有,如需转载,请联系作者 )
网站运营至今,离不开小伙伴们的支持。 为了给小伙伴们提供一个互相交流的平台和资源的对接,特地开通了独立站交流群。
群里有不少运营大神,不时会分享一些运营技巧,更有一些资源收藏爱好者不时分享一些优质的学习资料。
现在可以扫码进群,备注【加群】。 ( 群完全免费,不广告不卖课!)
发表评论 取消回复