昨天的文章简单提了一句,谷歌在屏蔽市面上 SEO 工具的信息抓取行为,那今天这篇文章继续聊聊这个话题。

目前市面上这些 SEO 工具,其工作原理都是差不多。基本都是先维护庞大的爬虫系统,用来抓取搜索结果上的数据信息(或者从第三方的数据服务公司购买数据),并开发自己的数据分析算法,以此来对外提供相应的关键词分析服务。

所以此番谷歌的屏蔽行动,对这些工具的影响非常大。至少我现在使用的 SEMRUSH 与 UberSuggest,其关键词跟踪与搜索结果分析上的数据,都是不准的(误差比较大)。

如果你过去习惯了使用这些工具提供的关键词排名跟踪服务,在这块问题没有得到完全解决之前,那就得想办法去寻找相应的替代思路了。

分享两种解决方案,以供参考。

方法一,自己设计一份关键词跟踪报表,按照一定频率手动维护报表里面的信息。

方法二,使用谷歌站长后台里面的数据,来被动跟踪网站的关键词排名信息。

其实逻辑很简单,但是实操的过程中有比较多的细节信息需要注意。

比如方法一这种手动维护的方式,尤其需要我们注意本地环境。因为当我们频繁使用某一台电脑,使用某个固定 IP 地址访问谷歌搜索时,其提供的数据可能会不准确。

那一个可行的方案就是,使用类型“Local Search Results Checker”这样的工具去检查网站的关键词排名,其提供的结果会更科学一些。

另外,这种手动方式还有一点需要优化,那就是频繁持续的重复劳动,非常影响自己的生产效率。所以使用工具去设计一个自动化的工具流程,让工具去帮我们批量做这种重复劳动。

而这样的工具有很多,比如前几天推荐的 Automa 那款浏览器自动化插件。

至于方法二,使用谷歌站长后台数据的这种方式,实操起来的难度便会低一些。毕竟站长工具已经将这些数据给你准备好了,而我们需要做得无非就是将这些数据做好统计,并可视化出来。

数据的下载与数据的可视化,我推荐使用谷歌的 BI 产品,Looker Studio。而这款工具的详细使用,之前也发了几篇文章详细介绍过,有兴趣的自己搜索看看。

基本这些步骤做完,我们便可以在本地搭建起一个关键词排名的监控系统。后续就是将这块的操作流程固化下来,并融入到自己的工作流程中去。

至于最后这些 SEO 工具能不能突破谷歌的屏蔽,我不太清楚。可能一旦突破了,其相应付出的成本肯定会上升吧,毕竟得加更多的爬虫资源,或者是更高的 API 使用费用。

不管怎样吧,做好自己的工作,多准备几套方案。


点赞(5) 打赏

评论列表 共有 0 条评论

暂无评论

服务号

订阅号

备注【拉群】

商务洽谈

微信联系站长

发表
评论
立即
投稿
返回
顶部