昨天的文章简单提了一句,谷歌在屏蔽市面上 SEO 工具的信息抓取行为,那今天这篇文章继续聊聊这个话题。
目前市面上这些 SEO 工具,其工作原理都是差不多。基本都是先维护庞大的爬虫系统,用来抓取搜索结果上的数据信息(或者从第三方的数据服务公司购买数据),并开发自己的数据分析算法,以此来对外提供相应的关键词分析服务。
所以此番谷歌的屏蔽行动,对这些工具的影响非常大。至少我现在使用的 SEMRUSH 与 UberSuggest,其关键词跟踪与搜索结果分析上的数据,都是不准的(误差比较大)。
如果你过去习惯了使用这些工具提供的关键词排名跟踪服务,在这块问题没有得到完全解决之前,那就得想办法去寻找相应的替代思路了。
分享两种解决方案,以供参考。
方法一,自己设计一份关键词跟踪报表,按照一定频率手动维护报表里面的信息。
方法二,使用谷歌站长后台里面的数据,来被动跟踪网站的关键词排名信息。
其实逻辑很简单,但是实操的过程中有比较多的细节信息需要注意。
比如方法一这种手动维护的方式,尤其需要我们注意本地环境。因为当我们频繁使用某一台电脑,使用某个固定 IP 地址访问谷歌搜索时,其提供的数据可能会不准确。
那一个可行的方案就是,使用类型“Local Search Results Checker”这样的工具去检查网站的关键词排名,其提供的结果会更科学一些。
另外,这种手动方式还有一点需要优化,那就是频繁持续的重复劳动,非常影响自己的生产效率。所以使用工具去设计一个自动化的工具流程,让工具去帮我们批量做这种重复劳动。
而这样的工具有很多,比如前几天推荐的 Automa 那款浏览器自动化插件。
至于方法二,使用谷歌站长后台数据的这种方式,实操起来的难度便会低一些。毕竟站长工具已经将这些数据给你准备好了,而我们需要做得无非就是将这些数据做好统计,并可视化出来。
数据的下载与数据的可视化,我推荐使用谷歌的 BI 产品,Looker Studio。而这款工具的详细使用,之前也发了几篇文章详细介绍过,有兴趣的自己搜索看看。
基本这些步骤做完,我们便可以在本地搭建起一个关键词排名的监控系统。后续就是将这块的操作流程固化下来,并融入到自己的工作流程中去。
至于最后这些 SEO 工具能不能突破谷歌的屏蔽,我不太清楚。可能一旦突破了,其相应付出的成本肯定会上升吧,毕竟得加更多的爬虫资源,或者是更高的 API 使用费用。
不管怎样吧,做好自己的工作,多准备几套方案。
文章为作者独立观点,不代表DLZ123立场。如有侵权,请联系我们。( 版权为作者所有,如需转载,请联系作者 )

网站运营至今,离不开小伙伴们的支持。 为了给小伙伴们提供一个互相交流的平台和资源的对接,特地开通了独立站交流群。
群里有不少运营大神,不时会分享一些运营技巧,更有一些资源收藏爱好者不时分享一些优质的学习资料。
现在可以扫码进群,备注【加群】。 ( 群完全免费,不广告不卖课!)
发表评论 取消回复