如何把深度挖掘的数据进行有效的分析,并分配到执行流程中去。"我们就是在以数据挖掘、分析结果为指导,以算法的力量来做SEO的,效果杠杠的。
既然是搜索引擎优化,那么就分两种:一是给搜索引擎端优化和搜索用户端优化
搜索引擎端:
站内为主,大型网站,有权重基础,那么他的网站其实更偏向站内,这里面要分析三个数据:
1、各栏目的收录率和收录趋势;
2、每个站内链接的连通率,比如某个页面被多少其他内页引荐,栏目页有多少,内容页有多少,分析连通率和收录率的关系;
3、分析爬虫访问路径以及和收录之间的关系。
用户端:
1、这里我把关键词分析放在用户端,分析转化率高低的关键词,并将关键词分类,找到共性,分析为什么转化率高或者低,作为后续关键词优化策略;
2、分析用户访问路径,用户在哪个页面跳出率高或者最终成交,分析为什么会跳出,找到是内容问题还是产品问题,然后做优化。
总结搜索引擎优化就是内容,大型网站中更重要的就是网站架构和数据分析。
seo是一个很综合的东西,要做到可控,首先得从原理入手,了解完整过程;从用户需求入手,分析搜索引擎发展趋势。
seo要做得可控,就去分析搜索引擎从建设到呈现排名的每一个过程。
另外,用户需求是最重要的,良好用户体验是网站与搜索引擎共同追求的,这点真正的做好,其他教条的东西也自然就Ok了。当然要做到这一点,前端、程序、服务器运维、UE、数据分析等是前提。
可控的背后就是把正确方向的事情正确地做下去,就可以了。SEO思维是“基于结果来反推规则”;SEO就是一个极度重视实践检验的一项技能,要摸透SEO的规则,我认为成本还是蛮高的,因此SEO充满了【教条主义】和【经验主义】
不同规模(新站、小站、大站..)、不同类型(旅游站、资讯站、企业站、三俗站..)、不同场景(公司打工的、个人站长的)做SEO的手段不尽相同,很难总结出一个普世的套路。
所以,只得把时间资源放在解决主要矛盾上。SEO要解决的是啥?做搜索流量(来赚钱)呗。有搜索流量的前提是啥?有人搜和有排名呗。
那则明了,要求SEO们不但要实时弄清楚搜索引擎的Rank规则及变化,还要实时弄清楚不同人群和用户搜索行为的规律和变化。
搞清楚后者,便知道城市流量和农村流量的分界在哪些内容里,哪些是用来拿流量的词,哪些是用来做转化的词;
搞清楚前者,便知道如何用有限的内容资源来最大化的抢夺搜索流量;
学习SEO,最主要的问题是搞明白以上两者,搞明白后,【内看资源,外看竞争】确定来做什么词的流量更容易获得排名,通过合理的整合资源,用有限的资源做出最大的搜索流量。