刑天SEO火速管理大量长尾词
刑天SEO火速管理大量长尾词
举例20万的长尾关键字,怎样实行归类,管理,创作关联页面,排名追踪等关联工作?这个问题确实是个极其极其好的问题。
20万甚至上百万千万的词管理,如果没有较好的管理措施,将会是个灾难。
有说把时间放在关键词管理上还不如放在内容创作上,这是他的回答;有这个精力不如放在新内容挖掘上!
既然是长尾词,不知晓你是什么行业,可能会有时效性!也有可能没有这个缺陷!但是你很难修复每一个长尾词的排名,这就涉及到在当初设计网站构架的时候有没有思考布词构架。如果当初有系统的构架,那么和程序洽谈做出相应的工具!比如按照日志导出关键词表格,然后在导入查询排名!如果没有系统的构架20万次,20万个页面,那么即便监测到了,改起来也是一个庞大的工程,有务必的原理。
这个原理的前提是你搞不定这些词库管理。搞不定关键词管理,希望堆内容来掩盖问题,好了,当前你就有两个混乱的问题了——关键词和内容。
这个问题极其值得专门写好几篇文章谈一下,我写过一篇文章,SEO之建立灵验页面数据库:宗旨、定义、环节、应用,里面中心逻辑能够借鉴到海量关键词管理上——建立关键词数据库。这里简易说点思维。
请留意:思维是难点,技术不是。把握了思维,就算是用Excle,也是可以搞定。当然,最佳是升级技能点,Excel处理十万以上的数据有点拖后腿了。
已经假定你这些词本身不需要做清洗了,我也不关心你这些词是怎样来的(当然来源方式对后续的整理方式有影响),反正就是已经有了20万词,这个量级用来做关键词管理练手是极其好的,再少些感觉少了点。
一、构建数据表
首先务必要建立这样一个观点,任何一个词都是一条记录。类似于任何一个页面都是一条记录。实际上任何页面与词都有对应关联(不是一一对应关联)。
既然每个词都是一条记录,那么记录就有相应的字段。记录+字段就是构成一张数据表了,多张表构成数据库了。这里面的中心是搞定数据表构建。
小节逻辑介绍会有点绕,如图。
图表一:
看起来很规整的样子。
图表二:
还是看起来很规整的样子。
图表三:
仍然看起来很规整的样子
图表四:
仍然还是看起来很规整的样子。
图表五:
不管如何都是很规整的样子。
完成上面的表构建,就远远超出楼主说的怎样归类的这个小小的目标了,这何止是归类啊,这是大卸八块。
这些东西是怎样演变出来的,结合这五张图表推演下。貌似网上找不到关于大量关键词管理的资料,我也是自己在实际需求中琢磨出来的。这个行业内肯定有一大把人有种种套路来管理这些海量的词的,但是没有看到共享。
熟练了之后,十万级别的关键词就是塞牙缝的,百万级别也就是喝口汤。但是如果要做细致管理,需要对业务有进一步的理解,不然容易闹出笑话。
二、创作关联页面
页面包含模板和内容。其实从之前的表格,就能够很明晰地设计页面模板了。
接下来是内容的确立。在确立内容以前,要思考页面类别。基础类别就两种:详情页和聚合页。这二者甚至能够互相转换,但仍然建议做这两种基础区分,甚至更细致的区分。或许会有详情页A、详情页B等划分。
除了那种PGC,内容了解为数据组织,这样的思维会让效率和质量显著提高。内容基础上就是复制、组合、精简、关系等几个基础动作来完成。
词条就是着陆页,词条的细分以及与其他词条的关联(这个关联需要另外做表)就已经决定页面内容大约是怎样子了。假定有两个人在词库的指导下生产内容,详尽文字不一样,但基础要素都是偏离不了的。偏离才是有问题的。
三、排名追踪
关键词排名追踪分两种:一个是关键词对应的不确立页面排名追踪,一个是关键词对应的确立页面排名追踪。两种都做更好。
排名追踪本质是数据统计解析。那么就得根据数据解析的规矩来办事。前面有人提到分组抽样,这个是对的,他也提到了随机抽样。固然也要用到随机抽样,但还是有有些前提的。样本要具备典型意义。就好比10000个品牌词,就不能笼统做品牌词随机抽样,由于这些品牌词可能有80%的不太紧要的,而有18%普通紧要的,2%是至关紧要的。数据解析中要留意这个2/8法则的应用。
数据解析还有其他的有些惯用的思路,如象限法、对照法、多维法等等,灵活地应用一起来。
最后,再强调下,完成这些动作,市场上的现成工具就能满足,只是许多时候在思维没有理清楚的情形下,被搞复杂了,还在想怎样遍历完20万甚至百万千万的词。用程序员的说法就是,这算法有问题。所以,许多时候,多优化思路才是捷径和正道。