SEO基础知识

2016 年 5 月 25 日3720

  SEO基础知识

  确保网站是可以被索引的

  一些常见的页面不能被访问的原因

  隐藏在需要提交的表格中的链接

  不能解析的Java脚本中的链接

  Flash、Java和其他插件中的链接

  PowerPoint和PDF文件中的链接

  指向被meta Robtots标签、rel=“NoFollow”和robots.txt屏蔽的页面的链接

  页面上有上几百个链接

  frame(框架结构)和iframe里的链接

  对于现在的网站来还有下面的原因,通过来说是因为内容是动态生成的,而不是静态的

  网站通过WebSocket的方法渲染内容

  使用诸如Mustache之类的JS模板引擎

  什么样的网页可以被索引

  确保页面可以在没有Java下能被渲染。对于现在Java语言使用越来越多的情况,在使用JS模板引擎的时候也应该注意这样的问题。

  在用户禁用了Java的情况下,保证所有的链接和页面是可以访问的。

  确保爬虫可以看到所有的内容。那些用JS动态加载出来的对于爬虫来说是不友好的。

  使用描述性的锚文本的网页。

  限制的页面上的链接数量。除去一些分类网站、导航网站之类有固定流量,要不容易被认为垃圾网站。

  确保页面能被索引。有一指向它的URL.

  URL应该遵循最佳实践。如blog/how-to-driver有更好的可读性。

  在正确的地方使用正确的关键词

  把关键词放在URL中

  关键词应该是页面的标签

  带有H1标签

  图片文件名、ALT属性带有关键词

  页面文字

  加粗文字

  Descripiton标签

  内容

  对于技术博客而言,内容才是最需要考虑的因素。

  可以考虑一下这篇文章,虽然其主题是以SEO为主 用户体验与网站内容

  不可忽略的一些因素是内容才是最优质的部分,没有内容一切SEO都是无意义的。

  复制内容问题

  一个以用户角度考虑的问题

  用户需要看到多元化的搜索结果

  所以对于搜索引擎来说,复制带来的结果:

  搜索引擎爬虫对每个网站都有设定的爬行预算,每一次爬行都只能爬行trpgr页面数。

  连向复制内容页面的链接也浪费了它们的链接权重。

  没有一个搜索引擎详细解释它们的算法怎样选择显示页面的哪个版本。

0 0