Results for category "SEO优化"

搜索引擎优化

SEO网站主关键词选择

SEO网站主关键词选择

关键词的划分及种类

首先,我们要先了解,关键词所划分的种类

1. 核心词(也就是主关键词) >   2.热门词   >  3. 一般词   >  4.冷门词

1、主关键词      2、长尾关键词

根据以上的分析,我们知道了,关键词的分类有4种,那么我们知道了分类后,接下来的工作可以说就是挖掘这些关键词了。

对于关键词的挖掘网上文章真的很多,各有各的特色,各有各的优点。[SEO关键词行为与数据对比] 看完该文章后,相信大家会有一定的了解,在选择关键词的同时,可以说是要根据网站本身来定制的。  而关键词的选择是改变你网站走向的一个重要决策,选什么样的主关键词,走什么样的道路或者是选择什么样的主题。

 

   关键词的挖掘及扩展

在还不知道选什么样的主关键词之前,不知道什么样的词对本身网站有利益时,大家可以根据下面几种方法来找找。

1、分析自身网站的优势、根椐自身网站筛选出有价值的关键词。

2、分析前30位同行网站、分析标题,描述,关键词,网站内容。

3、分析用户搜索习惯、去与自身网站同类大型站点了解,加同行“QQ群”发提出问题,创建所有“问答平台”提问题(同时可以在问答平台找长尾词)。

上面3点都是人工操作,可以说需要至少一个星期的时间才可以找到满意的答应!那么下面就是工具操作

4、GOOGLE关键词工具        https://adwords.google.cn/select/KeywordToolExternal

GOOGLE神奇罗盘  (你可以根据神奇罗盘找出最合试的长尾关键词)内容那张图就是神奇罗盘搜索“SEO学习网”的参考图

各类搜索引擎相关搜索 (可以使用工具去挖掘出2-3层中的相关关键词数据)

5、百度工具百度推广        http://cas.baidu.com/?tpl=www2&fromu=http%3A%2F%2Fwww2.baidu.com%2F

百度指数        http://index.baidu.com     (具体参考“相关索引词”与“上升索引词”)

 

   关键词划分及筛选

如果以上你都完成了,相信您手上已经有了一张EXCEL关键词表格了,表中例出了所以您挖掘的关键词,那么接下来我们应该就是对关键词进分析及筛选了,文章在开始就点到,关键词的划分及种类,那么我们需要对收集好的关键词表中的关键词进行SEO优化的分析,并完成一些关键词的划分处理,最后得出一张新的“SEO关键词分类表”

1、利用Excel排序筛选出关键词的长度,然后删除一些无用词,重复词。

2、利用Excel先分析出“关键词”与“长尾词”(筛选出关键词后,长尾关键词、我们先可以不理,等以后做内容用)

3、利用工具例出“关键词”各大搜索引擎索引总数量、关键推广数量、竟争力、百度指数等等

 

目标关键词 (主关键词)

seo基础,seo入门学习,SEO教程

目标关键词,指经过关键词分析确定下来的网站“主打”关键词,通常指:网站产品和服务的目标客户可能用来搜索的关键词。

一般情况下,目标关键词具有这些特征:

  1. 目标关键词一般作为网站首页的标题。(把主关键词放置在首页标题上,以示突出性)
  2. 目标关键词一般是2-4个字构成的一个词或词组,名词居多。(如果过长、就成了长尾词关键词)
  3. 目标关键词在搜索引擎每日都有一定数目的稳定搜索量。(如:百度 可以看百度指数
  4. 搜索目标关键词的用户往往对网站的产品和服务有需求,或者对网站的内容感兴趣。
  5. 网站的主要内容围绕目标关键词展开。

 记住: 在你选择目标关键词时,一定要注意! 不要贪, 对于新手来说:“一般确定好2个右左目标关键词就行了”,我们都知道一般“目标关键词”都是放置在网站首页。那么如果你选择过多,同样也是在提高网站优化的难度。

noindex和nofollow标签有对于搜索引擎有什么区别

在网站建设初期的时候我们经常会在网站首页加上下面一段话来阻止搜索引擎蜘蛛的爬行,等网站基本完工的时候我们再去掉,这样就对于搜索引擎是比较友好的。”Nofollow”属性出现在网页级元标记中,用于指示搜索引擎不要追踪(即抓取)网页上的任何出站链接。例如:<meta name=”robots” content=”nofollow” />。

反向链接即外链是搜索引擎给网站排名的一个重要因素。为了添加反向链接,SEO作弊者会在论坛和博客等大量发布带无关链接的内容。这些垃圾链接的存在给搜 索引擎对网页质量的评估造成一定程度的麻烦,可以说nofollow是一个非常好的“垃圾链接防火墙”。正是百度、谷歌、Yahoo、MSN 为了应对垃圾链接(Spam)引入的一个属性,此属性目前应该被广泛采用。   Nofollow标签的作用有两方面,简单的说,一是不给链接投票,增加此链接的权重,二是使添加nofollow的部分内容不参与网站排名,便于集中网站权重。
SEOnofollow-300x207

至于noindex标签也似乎差不多作用,不过用法稍有不同,进入到需要屏蔽的网页代码里,在 <head> 部分加上下面一句即可

 <meta content="noindex">

这样搜索引擎会来到这个页面,但是当看到着这句时候就停止抓去了.而且该标签还有个有意思的地方就是对于已经被收录下来的网页添加这条代码后,当搜索引擎再次来爬行发现了新的命令就会将此页从搜索结果中完全丢弃 掉,即使已经有了高排名权重或者有大量外链指向该页,但是在搜索结果里也不会找到了,因此noindex标签 比nofollow来的似乎更强大

不过在搜索了一些案例和网友经历后发现,谷歌对noindex标签感觉很好,很灵敏。但是百度就有点让人捉摸不透了,百度搜索对于noindex标签似乎时收时弃的。

总之百度谷歌对nofollow标签一致认可,发现链接带nofollow就不会理睬其指向的页面,而noindex标签类似于自杀性质,不仅不让理还要求搜索引擎删除已经收录的页面,不过该标签的认可度不如前者

当 然由于资料搜集的不完整和缺乏试验推论,所以这俩个标签的细节之处还没有获得,但就目前知道的信息来说,在平时的优化过程中其实可以避免使用 noindex,对于不想被收录的网页直接在导入链接上用nofollow即可,当nofollow无法很好满足的时候,比如其他网站链接了本站一个不重 要页面,我们无法控制其他站得代码,那就给自己的网页加上noindex来实现拒绝搜索引擎的目的.

 

nofollow标签通常有两种使用方法:

1、将”nofollow”写在网页上的meta标签上,用来告诉搜索引擎不要抓取网页上的所有外部和包括内部链接。

<meta name=”robots” content=”nofollow” />

2、将”nofollow”放在超链接中,告诉搜索引擎不要抓取特定的链接。

<a rel=”external nofollow” href=”url”><span>内容</span></a>

在mete中,我们的nofollow还有另外的一些写法。

Meta robots标签必须放在<head>和</head>之间,格式:
<meta name=”robots” content=”index,follow” />
content中的值决定允许抓取的类型,必须同时包含两个值:是否允许索引(index)和是否跟踪链接(follow,也可以理解为是否允许沿着网页中的超级链接继续抓取)。共有4个参数可选,组成4个组合:
index,follow:允许抓取本页,允许跟踪链接。
index,nofollow:允许抓取本页,但禁止跟踪链接。
noindex,follow:禁止抓取本页,但允许跟踪链接。
noindex,nofllow:禁止抓取本页,同时禁止跟踪本页中的链接。

Bing推出外链查询工具

Bing推出外链查询工具

Jun 9th, 2012

查询网站外链是SEO必做的一件事,尤其是查别人的外链

自从Yahoo Site Explorer去年11月关闭后我们就没有办法查询搜索引擎收录的别人网站的外链了。虽然有3、4个外链查询商业工具,但都不是直接查询搜索引擎的数据库。Yahoo!近几年的发展是个彻底的悲剧,居然放弃了搜索业务,所以千万别以为在大公司干活的就比我们普通人高到哪去,包括Yahoo!这种级别的CEO…咳,说远了。

所幸Bing接过Yahoo!搜索业务后现在推出了类似Yahoo! Site Explorer或者可以说更好的外链查询工具,直接放在了Bing站长工具中:http://www.bing.com/toolbox/webmaster 。Google站长工具里也有外链数据,但只能看自己网站的,Bing的这个可以查询任何网站的外链,而且增加了按锚文字过滤功能,这个很有用很有用。如下图,可以点击图看大图。

当然也有不足,比如显示了外链页面的Title,却不显示锚文字,没有按锚文字过滤时就不知道这些链接的锚文字了。列出的URL貌似只有200个,这个可以通过不同过滤条件在一定程度上解决。导出的URL不止200个,但应该也不是Bing收录的所有链接,肯定只给一部分。既然是Beta版,估计还会继续改进的。

Bing站长工具的其它功能也都有很多改进,比以前强多了,甚至比Google的好。

robots.txt 使用方法

robots.txt对于大多数有网站优化经验的朋友来说并不算太陌生,用过的朋友肯定会有感受,设置好robots.txt对网站优化来说利远远大于弊。
    我们先来认识一下什么是robots.txt? 

    robots.txt是通过代码控制搜索引擎蜘蛛索引的一个手段,以便减轻网站服务器的带宽使用率,从而让网站的空间更稳定,同时也可以提高网站其他页面的索引效率,提高网站收录。
搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。 

    下面我们再来熟悉一下怎样使用robots.txt?

    首先,我们需要创建一个robots.txt文本文件,然后在文档内设置好代码,告诉搜索引擎我网站的哪些文件你不能访问。然后上传到网站根目录下面,因为当搜索引擎蜘蛛在索引一个网站时,会先爬行查看网站根目录下是否有robots.txt文件。

     robots.txt文件内的代码书写规范我们也要注意,其中User-agent:*是必须存在的,表示对所有搜索引擎蜘蛛有效。Disallow:是说明不允许索引哪些文件夹.

有没有想过,如果我们某个站点不让百度和google收录,那怎么办?

搜索引擎已经和我们达成一个约定,如果我们按约定那样做了,它们就不要收录。

这个写约定的的文件命名为:robots.txt。

robots.txt是一个最简单的.txt文件,用以告诉搜索引擎哪些网页可以收录,哪些不允许收录。

关于robots.txt一般站长需要注意以下几点:

  1. 如果你的站点对所有搜索引擎公开,则不用做这个文件或者robots.txt为空就行。
  2. 必须命名为:robots.txt,都是小写robot后面加”s”。
  3. robots.txt必须放置在一个站点的根目录下。如:通过http://www.deseui.com/robots.txt 可以成功访问到,则说明本站的放置正确。
  4. 一般情况下,robots.txt里只写着两个函数:User-agent和 Disallow。
  5. 观察这个页面并修改为自己的:http://www.deseui.com/robots.txt
  6. 有几个禁止,就得有几个Disallow函数,并分行描述。
  7. 至少要有一个Disallow函数,如果都允许收录,则写: Disallow: ,如果都不允许收录,则写:Disallow: /  (注:只是差一个斜杆)。

补充说明:

User-agent: *  星号说明允许所有搜索引擎收录

Disallow: /search.html   说明 http://www.deseui.com/search.html 这个页面禁止搜索引擎抓取。

Disallow: /index.php?   说明类似这样的页面http://www.deseui.com/index.php 禁止搜索引擎抓取。

 

文件写法

User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符
Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录
Disallow: /require/ 这里定义是禁止爬寻require目录下面的目录
Disallow: /ABC/ 这里定义是禁止爬寻ABC目录下面的目录
Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以”.htm”为后缀的URL(包含子目录)。
Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址
Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片
Disallow:/ab/adc.html 禁止爬取ab文件夹下面的adc.html文件。
Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录
Allow: /tmp 这里定义是允许爬寻tmp的整个目录
Allow: .htm$ 仅允许访问以”.htm”为后缀的URL。
Allow: .gif$ 允许抓取网页和gif格式图片

文件用法

例1. 禁止所有搜索引擎访问网站的任何部分
User-agent: *
Disallow: /
实例分析:淘宝网的 Robots.txt文件
User-agent: Baiduspider
Disallow: /
User-agent: baiduspider
Disallow: /
很显然淘宝不允许百度的机器人访问其网站下其所有的目录。
例2. 允许所有的robot访问 (或者也可以建一个空文件 “/robots.txt” file)
User-agent: *
Allow: /
例3. 禁止某个搜索引擎的访问
User-agent: BadBot
Disallow: /
例4. 允许某个搜索引擎的访问
User-agent: Baiduspider
allow:/
例5.一个简单例子
在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即搜索引擎不会访问这三个目录。
需要注意的是对每一个目录必须分开声明,而不要写成 “Disallow: /cgi-bin/ /tmp/”。
User-agent:后的*具有特殊的含义,代表“any robot”,所以在该文件中不能有“Disallow: /tmp/*” or “Disallow:*.gif”这样的记录出现。
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/
Robot特殊参数:
允许 Googlebot:
如果您要拦截除 Googlebot以外的所有漫游器不能访问您的网页,可以使用下列语法:
User-agent:
Disallow: /
User-agent: Googlebot
Disallow:
Googlebot 跟随指向它自己的行,而不是指向所有漫游器的行。
“Allow”扩展名:
Googlebot 可识别称为“Allow”的 robots.txt 标准扩展名。其他搜索引擎的漫游器可能无法识别此扩展名,因此请使用您感兴趣的其他搜索引擎进行查找。“Allow”行的作用原理完全与“Disallow”行一样。只需列出您要允许的目录或页面即可。
您也可以同时使用“Disallow”和“Allow”。例如,要拦截子目录中某个页面之外的其他所有页面,可以使用下列条目:
User-agent: Googlebot
Allow: /folder1/myfile.html
Disallow: /folder1/
这些条目将拦截 folder1 目录内除 myfile.html 之外的所有页面。
如果您要拦截 Googlebot 并允许 Google 的另一个漫游器(如 Googlebot-Mobile),可使用”Allow”规则允许该漫游器的访问。例如:
User-agent: Googlebot
Disallow: /
User-agent: Googlebot-Mobile
Allow:
使用 * 号匹配字符序列:
您可使用星号 (*) 来匹配字符序列。例如,要拦截对所有以 private 开头的子目录的访问,可使用下列条目: User-Agent: Googlebot
Disallow: /private*/
要拦截对所有包含问号 (?) 的网址的访问,可使用下列条目:
User-agent: *
Disallow: /*?*
使用 $ 匹配网址的结束字符
您可使用 $ 字符指定与网址的结束字符进行匹配。例如,要拦截以 .asp 结尾的网址,可使用下列条目: User-agent: Googlebot
Disallow: /*.asp$
您可将此模式匹配与 Allow 指令配合使用。例如,如果 ? 表示一个会话 ID,您可排除所有包含该 ID 的网址,确保 Googlebot 不会抓取重复的网页。但是,以 ? 结尾的网址可能是您要包含的网页版本。在此情况下,可对 robots.txt 文件进行如下设置:
User-agent: *
Allow: /*?$
Disallow: /*?
Disallow: / *?
一行将拦截包含 ? 的网址(具体而言,它将拦截所有以您的域名开头、后接任意字符串,然后是问号 (?),而后又是任意字符串的网址)。
Allow: /*?$ 一行将允许包含任何以 ? 结尾的网址(具体而言,它将允许包含所有以您的域名开头、后接任意字符串,然后是问号 (?),问号之后没有任何字符的网址)。[4]

其它属性

1. Robot-version: 用来指定robot协议的版本号
例子: Robot-version: Version 2.0
2.Crawl-delay:雅虎YST一个特定的扩展名,可以通过它对我们的抓取程序设定一个较低的抓取请求频率。您可以加入Crawl-delay:xx指示,其中,“XX”是指在crawler程序两次进入站点时,以秒为单位的最低延时。
3. Visit-time:只有在visit-time指定的时间段里,robot才可以访问指定的URL,否则不可访问.
例子: Visit-time: 0100-1300 #允许在凌晨1:00到13:00访问
4. Request-rate: 用来限制URL的读取频率
例子: Request-rate: 40/1m 0100 – 0759 在1:00到07:59之间,以每分钟40次的频率进行访问
Request-rate: 12/1m 0800 – 1300 在8:00到13:00之间,以每分钟12次的频率进行访问

Robots Meta标签

Robots.txt文件主要是限制整个站点或者目录的搜索引擎访问情况,而Robots Meta标签则主要是针对一个个具体的页面。和其他的META标签(如使用的语言、页面的描述、关键词等)一样,Robots Meta标签也是放在页面中,专门用来告诉搜索引擎ROBOTS如何抓取该页的内容。
Robots Meta标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”BaiduSpider”。content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。 index指令告诉搜索机器人抓取该页面;
follow指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;
Robots Meta标签的缺省值是index和follow,只有inktomi除外,对于它,缺省值是index、nofollow。

地方门户网站的坎坷与出路

作为地方门户站长,您是否每天早上上班第一件事就是打开站长工具,看看当天的排名变化呢?是不是发现每天都有不同来路的ip访问,但是转化一个都不成功呢?此类网站我们称之为半生不死型。
这样的网站如果能注意到以下几点,相信对这个问题的解决是能够有帮助的。


第一:网站推广。地方门户网站不能像传统的企业网站,个人网站一样主要通过seo来获取大量的ip流量。企业个人网站,展示率只要出现一次,基本已经达到宣传的目的。客户第2次来不来回访相比第一次而言,已经不是很重要了。

然后地方行门户,可以通过seo进行引流。我们要讲求高的转化率和回访率,所以不能把重点放在seo上。

第二:内容至上。前边我们通过搜索引擎seo给我们的网站引来了流量!客户访问后是否能找到自己想要的信息?是否很直观,很快捷的获取自己需要的信息?。只有内容到位,客户才能到位。一个本身质量非常高,很能吸引人的网站,推广起来往往都是事半功倍;一个垃圾站就算推广的再好,也只能是昙花一现,短暂的高IP与推广的期限力度直接成正比。对于一个行业门户网站而言,在无法做到覆盖全国全行业信息的前提下,紧紧抓住本地区本行业的有效信息,提供最及时最全面的地方资讯,比大而化之的网站资讯来说要能更加的吸引人。尤其行业门户网站在地方行业领域内多数都拥有很强的关系,立足于地区市场,同时为其他地方提供资讯对比,这将会是一条崭新的发展之路。
第三:集中精力专供一项内容。想必大部分人做门户网站都会弄 出一大堆板块,比如:汽车、婚嫁、分类、美食等内容,涵盖范围太广。即使这样也没有做到全方位兼顾。因此,在短时间内必须要找准一个或者几个主要主题,集中精力来做好重点主题,在产生很好效果的情况下,以后再求全面的发展。譬如从装修论坛起步的篱笆网、依靠打折成功的比翼久久网等等。

第四:线下活动一定要多要丰富(重点)

如何提升网站信任度

网站信任度无法直接改善排名,但可以间接的影响到SEO效果。如果说网站权重是搜索引擎对网站在“专业”方面的肯定,那么网站信任度则就是对“人品”方面的一种认可。
我们在《搜索引擎信任度》一文中讲解了一些网站信任度方面的外因。而在这篇文章中,我们从网站自身入手,看看有哪些因素可以影响到网站信任度(以下绝大部分因素来自《SEO艺术》一书中多位SEO顶尖人士的统计)。



一、网站文字内容

1,独特内容数量很少的网站:这类网站一般都使用采集和模板建站,无论从网站和内容方面,都没有自己独特的东西,会被降低信任度
2,没有隐私政策、版权申明和联系方式等可以增加“信任”的内容
3,含有与网站内容相关性不高的广告文字,或广告文字比例高于网站内容
4,联系方式中的邮件信息在邮件黑名单当中
5,出站链接很少指向高质量高权重的域名

二、网站域名相关

1,域名注册期限短(指截至日期,一般为1年)
2,使用tk,info等便宜的域名
3,域名注册人曾经的网站有被惩罚的记录,或拥有大量域名
4,域名中大量堆砌关键词

三、网站运营相关

1,直接访问的用户很少,回访率很低
2,品牌或者网站名称的搜索量很低
3,几乎没有在社交网站、新闻网站、顶级分类目录中出现
4,特殊行业网站没有取得特殊资质(如购物网站没有SSL,机票网站没有认证等)
5,没有来自行业高质量高权重网站的链接
6,网站出现隐藏链接或者隐藏页面

网站信任度总结

如果我们的网站上出现了这些不信任因素,不要着急,为了减少误判,搜索引擎会对这些因素进行长期的跟踪。如果在跟踪的过程中,一开始的几个不信任因素维持或下降,那么网站信任度则会上升;但如果不信任因素呈上涨或一开始就出现很多,那么网站就会进入沙盒或者直接被判罚。

处理好这些不良因素,不但对我们在运营网站时做SEO,并且对用户体验有极大的帮助。希望站长朋友们多多注意。
同时如果确定自己的网站没有以上这些不良因素,但是希望进一步增加网站信任度,那么则可以通过导入高质量外链的形式去达到这个目的。

搜索引擎信任度

搜索引擎信任度(TrustRank)是搜索引擎内部对一个网站的信任评级。这种评级对页面排名呈一种辅助增权的作用。信任度高的网站,容易在整体上获得一个比较好的排名,而信任度低的网站,则不容易被搜索引擎收录页面并索引。



搜索引擎信任度分为两个方面:

  1. 外在因素影响信任度
  2. 内在因素影响信任度

一、外在因素影响信任度

我们先从外在因素说起。这里影响信任度的主要有两点:一是本站链接指向网站的情况,二是链接指入本站的情况。这两种情况都与“信任源”(Trust Seeds)有直接的关系。

1,本站出站链接:做为站长,我们对自己的网站有绝对的控制权。这也就表明了网站中所有的出站链接都是站长意愿的体现。基于这点考虑,如果网站链接向“低质量、垃圾内容”的网站,就会对网站造成信任度降低的影响;反之,如果链接向高质量内容的网站,甚至信任源,则会对网站的信任度带来一定程度的提升。

我们看到,有很多网站在出站链接中设置了nofollow,其本身的用意是好的,即集中网站权重在本网站,不让权重外流。但实际上,这种nofollow的设置在09年之前还有这个作用,但在09年以后,则起到了反面的作用:

A. 假如网站权重10,有10个出站链接,且10个都没有nofollow,则每个出站链接分到1点权重(便于说明的情况下暂且不计算算法中保留的那部分)。
B. 假如网站权重10,有10个出站链接,且5个有nofollow,则没有nofollow的每个出站链接分到1点权重,而不是2点。从权重的角度浪费了5点。从引导蜘蛛的角度来讲视SEO情况而定。
C. 假如网站权重10,有10个出站链接,5个有nofollow,且这5个出站链接都是指向高质量内容网站,信任源等。则不但浪费5点权重,且丧失了获取信任度的机会。

用比较直白的话语去理解是这样的,你向你的听众介绍了5个高人,但是你不告诉你听众这些高人的姓名和联系方式。你这些介绍的权威性自然会打了折扣。

2,网站入站链接:入站链接是我们SEO工作中必不可少的一部。它对权重的传递和信任度的提高都有非常明显的作用。很遗憾的是,我们仍然看到有很大一部分人不知道如何去做入站链接,从而导致了自己的网站被列入“不信任站点”。我之前写过相关的文章《搜素引擎的信任排名和反信任排名算法》,有兴趣的朋友可以去看一看。

在这部分,影响被链入网站信任度的因素大致有:相关性、信任度、链接增长速率以及链接的广泛性。

A. 相关性:种种迹象和统计表明,网站之间相关性给链接带来传递权重的效果,要大于网站本身质量(新闻站点除外)。这点网上已经有很多的说明,我在这里就不再重复。
B. 信任度:从.edu和.gov得到的链接就一定拥有高权重吗?以前或许是,现在则不是。信任度不是一个主观想象出来的东西,而是由一系列算法得到的一个数值。我们假设商务部官方网站的信任度是10,同时也是信任源。它指向10个省份商务厅的网站,那么这些商务厅网站的信任度可能是7-9,商务厅再指向各市的商务局,这些商务局网站的信任度可能就低至4-7。在经过1-4或5次链接后,之后的网站可能已经没有信任度可言。(单纯从商务这条线往下走,但实际情况可能不同。一个县商务局的网站可能因为某个事件被省水利厅的网站做了链接,那么它可以从其他渠道获取信任度)。
C. 链接增长速率:外链增长趋于稳定且呈上涨趋势,这是一个明显良好的信号。那种长时间像过山车一样的增长速率,则往往可能是通过购买链接获得的。当然你也可以辩解说由于每XX天发布了一篇文章获得转载,从而获得外链 — 搜索引擎也不会排除这样的情况发生,所以每一个因素都是一个信号。当这些负面信号趋于上涨时,你的网站就危险了很多。
D. 链接广泛性:如果链入你网站的外部链接全部是页脚的友情链接,且这些链接周围出现了一些奇怪的,或者说不和谐的网站,那么很显然,这是一个负面信号。如果你的链接都来自于论坛的签名档和博客的评论,那么同样很显然,这些都是低质量的链接。更让反垃圾组感兴趣的是,这些链接周围竟然还有“出售”、“广告”、“赞助商”等等文字 — 这些信号组合起来,足以确定你的行为。

让我们比较安心的是,有时候搜索引擎是非常宽宏大量的,它不会惩罚你的网站,或许是因为它没有足够的证据。它能做到的是使某些链接失去传递权重的作用。

但这点也足够让一些人感到寒心 — 仍然在付费购买着链接,但买到的是不起作用的链接。所以以某国内电商巨头为代表的B2C们已经转换了策略,它们已经不再购买那些一眼即可被识破的链接,从而转用“内页换主页”的链接交换策略和赞助相关行业博客首页链接的方式进行外链的建设。

内在因素方面的内容我已经在《如何提升网站信任度》一文中进行了阐述。

网站信任度无法直接改善排名,但可以间接的影响到SEO效果。如果说网站权重是搜索引擎对网站在“专业”方面的肯定,那么网站信任度则就是对“人品”方面的一种认可。

从SEO招聘看SEO能力要求

如何确定一个行业中人员的所需要的能力和素质,最好的办法就是看招聘广告。尤其是大公司的招聘广告,这些大公司不找无用之人,有时或许对人员的能力要求提的比较高,但大部分公司还是根据SEO顾问的建议来进行招人的。

这样就给了我们一个参考,SEO经理、SEO主管和SEO专员,到底需要怎样的从业能力和必备的素质。然后我们可以针对自己的薄弱环节,进行针对性的提高。

以下我列出一些知名互联网公司对各个职位任职资格的要求,以及我个人的一些补充说明:

一、SEO专员

    1. 专科以上学历
    2. 分析网站关键词解决方案,监控网站关键字,监控和研究竞争对手及其他网站相关做法,并提出合理的网站调整建议
    3. 撰写SEO BRD文档,有效地推动其他部门的配合,完成网站的SEO工作较好的理解、表达与沟通能力
    4. 精通各大搜索引擎的搜索排名原理,掌握搜索引擎优化技术及其它网站推广技术

 

  1. 使用过 Google Analytics 、CNZZ 等流量统计软件
  2. 具有一定的网站日志分析 、关键字分析与挖掘能力
  3. 熟练的使用Office办公软件,特别是Excel、PPT
  4. 至少一年以上 SEO 行业从业经验
  5. 有小型站点 SEO 项目的成功案例或失败案例(进行经验总结)
  6. 具有良好的团队协作精神
在SEO专员方面,我相信大部分人都能够胜任其中的条件,唯有撰写SEO BRD文档以及网站日志分析,是目前SEO行业从业人员普遍欠缺的素质。 

A. 什么是SEO BRD文档?

BRD,是英文“商业需求文档”的缩写,全称应该是:Business Requirement Document。这个文档是对项目商业价值和前景的评估,在SEO行业,则是对优化项目的方向和措施的评估。

SEO专员应该通过GA、CNZZ、日志分析、关键词分析及挖掘等对用户需求进行分析或调查,从而对企业所在行业的情况得到一个完善的信息,同时针对竞争对手的情况,得出是否存在niche市场或未被满足的搜索以及可能得到的流量等,从而撰写相关文档,为SEO主管和SEO经理的决策做出数据上的支撑或者建议。

B. SEO日志分析的重要性

国平曾分享过一个SEO公式,很多新人可能没有接触过,即:

SEO流量 = 整体收录量 × 整体排名 × 整体点击率

整体收录量 = 搜索引擎抓取量 × 页面质量

国平的意思是,没有收录,其他一切都是扯淡。

一个文章数目不超过1000的博客或企业网站,其总页面也超不过1万。收录是一件很好解决的事情。但是一个B2C网站,分类信息平台,或者一些行业新闻网站拥有百万、甚至千万级的文章页面,总页面甚至可能过亿。能否让蜘蛛顺利的抓取和收录这些内容,考验的就是SEO水平了。蜘蛛在爬取的过程中哪里出了问题,哪里需要做入口的优化,哪里需要做nofollow,哪里需要用robots.txt屏蔽,哪里要调取最新页面等等等等,这些都不是博客级或企业网站级的SEO了。而且,最重要的是你通过GA等统计工具无法获得这些信息。

但是网站日志可以。通过分析网站日志,我们可以非常清楚的了解到蜘蛛爬行的次数,从哪里进入,从哪里中断,爬行过哪些页面,爬行规律是怎样的这些信息,都可以通过分析日志得到。

SEO主管

  1. 跟踪并深入研究Alexa、Google、Baidu的排名机制和优化规则,熟悉各大搜索引擎蜘蛛爬行的规律规则及原理,对SEO有独到的认知与见解
  2. 根据公司战略发展要求,通过对网站的分析,制定前台页面和系统架构等全面的搜索引擎排名及优化的整体解决方案
  3. 分析网站关键词解决方案,监控网站关键字,监控和研究竞争对手及其他网站相关做法,并围绕优化提出合理的网站调整建议
  4. 撰写SEO BRD文档,有效地推动其他部门的配合,完成网站的SEO工作
  5. 三年以上搜索引擎优化相关经验,拥有广泛的网络营销资源,有优化网站成功案例
  6. 精通各大搜索引擎的搜索排名原理,掌握搜索引擎优化技术及其它网站推广技术
  7. 有激情,工作积极主动,富有进取心,有责任心具有极强的数据分析能力
  8. 熟练使用数据分析工具,能从海量杂乱的数据中推导出合理的结论制定应对方案,有市场洞察和分析调研能
  9. 熟悉各种网站分析和统计工具,有用户体验优化经验者优先
  10. 有一定的团队管理经验
  11. 有 SEO 项目成功案例或失败案例(进行经验总结)
对比SEO主管与SEO专员,我们可以清晰的看到,对能力的要求以及从“单打独斗”上升到“团队合作”了,同时也额外的从“收集和挖掘数据”上升到“推导结论并给出方案”这一层面。很多自认为怀才不遇或者千里马常有而伯乐不常有的“SEO高人”们,一直在抱怨公司不重视SEO,没有资源,财务不独立等等无法施展拳脚或者失败的理由。 

但我们必须清晰的认识到“根据公司战略发展要求,通过对网站的分析,制定前台页面和系统架构等全面的搜索引擎排名及优化的整体解决方案”这个资格条件背后的意义。

这方面的东西涉及到职场的一些东西了,而作为SEO主管,需要清晰的搞清楚企业对SEO的重视程度、部门间的配合以及说服和沟通技巧。否则只能是失败后的抱怨。做SEO,数据的支撑可谓是重中之重,就算你是统计学和数据挖掘的高手,如果从其他部门得不到正确和及时的数据,一切决策都是荒谬的。

SEO经理

  1. 跟踪并深入研究Alexa、Google、Baidu的排名机制和优化规则,熟悉各大搜索引擎蜘蛛爬行的规律规则及原理,对SEO有独到的认知与见解
  2. 根据公司战略发展要求,通过对网站的分析,制定前台页面和系统架构等全面的搜索引擎排名及优化的整体解决方案
  3. 分析网站关键词解决方案,监控网站关键字,监控和研究竞争对手及其他网站相关做法,并围绕优化提出合理的网站调整建议
  4. 撰写SEO BRD文档,有效地推动其他部门的配合,完成网站的SEO工作
  5. 四年以上搜索引擎优化相关经验。拥有广泛的网络营销资源,有优化网站成功案例
  6. 精通各大搜索引擎的搜索排名原理,掌握搜索引擎优化技术及其它网站推广技术,有脚本语言编程能力优先
  7. 有激情,工作积极主动,富有进取心,有责任心具有极强的数据分析能力,熟练使用数据分析工具,能从海量杂乱的数据中推导出合理的结论制定应对方案,有市场洞察和分析调研能力
  8. 熟悉各种网站分析和统计工具。 有用户体验优化经验者优先
  9. 有较好的团队管理经验
从SEO主管走向SEO经理,主要的不同在于行业、编程以及用户体验优化的经验的要求。作为SEO经理,其角色已经转向“信息构架师”这个领域了。一般的中小型企业是没有SEO经理这一职位的,主管就是SEO部门的头。而在大型公司,则又在SEO主管上面区分出经理这一职位。 

别看这一点点在编程和用户体验优化方面的经验,做过和没有做过,对大型网站SEO最终效果起到的作用是非常巨大。在这个层面,各个部门头头之间的碰撞是非常激烈的,要是不懂一些程序和前端方面的东西,最后的结果肯定是被其他部门以种种“不好做”、“对用户体验不好”、“调整的东西太多”等理由将方案否决。

一些总结

SEO职位的递增,对专业能力的要求可以总结为:

基于经验的SEO => 基于数据的SEO => 基于用户需求的SEO

而在职场素质方面,要求可以总结为:

单打独斗或听从安排 => 沟通能力和协调能力 => 领导能力和抗压能力

大家一起共勉

SEOer必须掌握的HTML标签

为什么SEO人员必须懂一些HTML代码?

SEO人员到底要不要懂HTML之争,一直都很热门,说必须懂的人和说不必懂的人在数量上差不多,而且懂HTML代码和不懂HTML代码的seo人员都能够将SEO工作做的很不错,所以才会出现公婆各持己见的情况。

实际上SEO工作是由很多细节累积起来的,假设一共有100项工作内容,那么懂hthml语言和不懂html语言的人都做到了90项,在搜索引擎和 用户看来,这个网站就有90分,对于懂或者不懂html语言这个问题似乎并没有那么重要了,因为大家目标一致,并且取得的成果一样,自然而然也就无所谓懂 或者不懂HTML了。

但是,如果我们不满足于只得90分,就需要努力去取得那未曾做到的10个细节,而HTML语言就是其中一个,所以,作为SEO人员最好还是必须懂一些HTML代码。

SEO人员必须懂的HTML语言代码

(1) 标题标签:如果我们不知道网页的标题是由哪个标签来控制的,是一件很失败的事情。曾与一位朋友交流其站点的优化问题,我对他说页面的标题要优化一下,标题的写法最 好是“文章标题-栏目名称-网站名称”的结构,结果他将正文的标题修改了。这充分说明这位朋友并 懂标题标签,所以不知道如何去修改页面标题。而页面标题对于搜索引擎来说是非常重要的,所以我们 作为SEO人员,一定要会使用标题标签。

(2)页面关键词标签:作为SEO人员,所有的工作内容都是在做与关键词相关的工作,所以我们千万不能将这个标签忽略了。对于常见有两种错误:

(2.1)没有使用页面关键词标签:通过源码,我们可以发现很多网站其实没有这个标签。没有此标签的网站,大部分情况是因为CMS程序不支持,而有些则是因为不明 白它的作用,所以没有添加。不论是那种情况,我们都可以通过某些方法来改进。

(2.2)关键词分隔符号使用不正确:关键词内容的正确形式是【content=“关键词,关键词2,……”】,关键词与关键词之间使用英文半角逗号分隔开来,而不是使用下划线、竖线或者空格等符号。

(3)页面描述标签:此标签可以看着是定义文章的主要内容,与标题一样,搜索引擎会将其显示在搜索结果页中。所以我们千万不要忽略,甚至于我们可以利用这一点来将一些促销和利好信息展示给搜索者,描述的写法可以参见我们之前的文章。

(4) 默认地址标签:在某些情况下,我们的网站会被某些人恶意复制,造成网站排名下降和权重流失等损失,为了在一定程度上防御这种复制带来的后果,很 多SEO人员提出在外链接中使用绝对url的方法。实际上除了使用绝对地址,我们还可以使用默认地址标签,使用了默认地址标签的页面,其页内所有的相对 url地址都是将其【href】所指定的url作为基准,进行链接。

同时,在此也提醒一下建站的朋友,如果使用了默认地址标签,在修改各种包含文件——如css,js等引用文件——的时候,要去掉默认地址标签,否则修改本地文件是无效的,因为它会默认去调用href指定的文件。

(5) 和文字加粗标签:这两组html标签在 视觉效果上都是让文字加粗,都有强调的作用,它会告诉用户和搜索引擎,这部分内容在本页面是很重要的。所以我们在页面中可以将重要的词组——一般是关键 词,进行或加粗强调。但是要避免通篇都是加粗,或者 通篇都没有词组被加粗,这两种方式都是不可取的。

大部分情况下,使用或者效果是类似的,有专家 提出使用字符更少、更能节约带宽,所以建议将都换 成,但显然这个理由并不是那么充分和吸引人,几个字符,对于现在的网络速度来说,完全可以忽略不计。

(6)内容最大标题标签:被包含的内容,搜索引擎会给予很高的权重,所以作为SEO人员,一定要重视这一点。并且要记住:是用来定义正文内容最大标题,而不是页面标题,不要与混淆。

同时,一个页面只允许有一个

标签,否则会被认为是作弊——目前来说是这样的,HTML5拥有更强的功 能,允许一个页面有多个标签,但目前还未完全被搜索引擎所支持,所以我们坚持在一个页面使用一个是没错的。

(7)和内容次级标题标签:一篇文章,除了标题,还会有各种次级段落标题,比如本文:

(7.1)为什么SEO人员必须懂一些HTML代码?

(7.2)SEO人员必须懂的HTML语言代码

就存在多个次级标题。一般建议,页面必须有和标签,和标签不作要求,也不建议使用及更次级的标签,因为作用不大,但 不阻止使用,因为他们是文档的标准标签,即使无用,也无害。

(8)超链接标签:作为SEO人员,这个HTML标签是必须懂的,在互联网中超链接标签可以说是灵魂一般的存在,如果 没有超链接标签,网站将失去意义。不管我们是做锚文本,还是做图片链接,都需要使用它。

这里我们要注意它的两个属性,一个是【target】,它决定了链接以何种方式打开,一般站内链接会被定义为在当前页面打开,外部链接被定义为在新窗口中打开。

另外一个属性是【rel】,其最让SEO人员关注的就是【Nofollow】值,因为它代表不传递权重。对内可以集中权重,不使其分散到无意义的页面;对外,可以防止权重流失和避免被骗友情链接。

(9) 图片标签:图片标签我们要注意的是其【alt】属性,因为搜索引擎并不认识图片,而【alt】属性则在大概意义上告诉了搜索引擎此图片的内容。 所以,作为SEO人员,一定要重视【alt】属性的使用,对每一幅具有实际意义的图片都应该加上【alt】属性,并为其指定内容。在大多数浏览器中,定义 了【alt】属性内容的图片,当鼠标悬停在图片上的时候,会显示【alt】属性值:鼠标悬停显示【alt】属性值

另外两个属性【widht】和【height】用来定义图片的宽度和高度,大部分情况下,很多程序编写人员都是忽略,让浏览器自行判断图片的大小。 这种做法在图片的显示上面是没有什么错误的,但是忽略【width】和【height】属性,会增加图片显示的时间,所以我们应该主动给图片加上宽度和高 度属性,并指定其值。

总结

以上就是SEO工作人员必须懂的9个HTML语言标签,希望广大的SEOer们能够将它们的用法做一个详细的了解,并能够在日常的SEO优化工作中去遵照标准来使用他们。相信只要我们越来越符合标准,搜索引擎也会越来越喜欢我们的网站,同时也能够给用户以良好的访问体验。