Results for category "站长进修"

cPanel主机绑定主域名到子目录的方法

修改public_html目录下的“.htaccess”文件,加入下面的一些语句即可。注意按提示修改语句中的一些内容,使之与你的网站相匹配。

RewriteEngine on
# 下行中把“qhc.co”改为你自己的域名
RewriteCond %{HTTP_HOST} ^(www.)?qhc.co$
# 下行中将“子目录名”修改为你要将主域名指向的子目录
RewriteCond %{REQUEST_URI} !^/子目录名/
# 以下两行不要修改
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
# 下行中将“子目录名”修改为你要将主域名指向的子目录
RewriteRule ^(.*)$ /子目录名/$1
# 下行中把“qhc.co”改为你自己的域名
RewriteCond %{HTTP_HOST} ^(www.)?qhc.co$
# 下行中将“子目录名”修改为你要将主域名指向的子目录,如果你的首页的文件不是index.php,则修改为你自己的,如index.html
RewriteRule ^(/)?$ 子目录名/index.php [L]

wordpress 注册/找回密码发邮件接收不到解决办法

wordpress 3 改动了很多,以前的文章让wordpress mu新用户注册后的密码明文显示,取消邮件通知
linux系统关系不大,只要能够使用sendmail都可以收到邮件,不过需要修改/etc/mail/access 文件

Connect:192.168.0.16 RELAY

这里的192.168.0.16是你linux本机的IP

而在windows系统中就没有这么幸运了

我临时弄了个解决办法,其实就是可以自行设置密码

步骤如下:
1、233行增加

$active_urls=’wp-login.php?action=rp&key=’.$key.’&login=’.$user_login;

2、原235行

wp_die( __(‘The e-mail could not be sent.’) . “<br />\n” . __(‘Possible reason: your host may have disabled the mail() function…’) );

修改成

wp_die( __(‘The e-mail could not be sent.’) . “<br />\n” . __(‘Possible reason: your host may have disabled the mail() function…’).”<br />\n” .sprintf(__(‘Please check this link to Reset Your Password<a href=”%1$s”>%2$s</a> is active and click the link given.’),$active_urls,$active_urls) );

3、619行

$errors->add(‘registered’, __(‘Registration complete. Please check your e-mail.’), ‘message’);

修改成

$errors->add(‘registered’, __(‘Registration complete. Please check your e-mail OR Check this link to reset your password<a href=”wp-login.php?action=lostpassword”>Reset Your Password</a> is active and click the link given.’), ‘message’);

整个流程如下图所示:
20130623103230

noindex和nofollow标签有对于搜索引擎有什么区别

在网站建设初期的时候我们经常会在网站首页加上下面一段话来阻止搜索引擎蜘蛛的爬行,等网站基本完工的时候我们再去掉,这样就对于搜索引擎是比较友好的。”Nofollow”属性出现在网页级元标记中,用于指示搜索引擎不要追踪(即抓取)网页上的任何出站链接。例如:<meta name=”robots” content=”nofollow” />。

反向链接即外链是搜索引擎给网站排名的一个重要因素。为了添加反向链接,SEO作弊者会在论坛和博客等大量发布带无关链接的内容。这些垃圾链接的存在给搜 索引擎对网页质量的评估造成一定程度的麻烦,可以说nofollow是一个非常好的“垃圾链接防火墙”。正是百度、谷歌、Yahoo、MSN 为了应对垃圾链接(Spam)引入的一个属性,此属性目前应该被广泛采用。   Nofollow标签的作用有两方面,简单的说,一是不给链接投票,增加此链接的权重,二是使添加nofollow的部分内容不参与网站排名,便于集中网站权重。
SEOnofollow-300x207

至于noindex标签也似乎差不多作用,不过用法稍有不同,进入到需要屏蔽的网页代码里,在 <head> 部分加上下面一句即可

 <meta content="noindex">

这样搜索引擎会来到这个页面,但是当看到着这句时候就停止抓去了.而且该标签还有个有意思的地方就是对于已经被收录下来的网页添加这条代码后,当搜索引擎再次来爬行发现了新的命令就会将此页从搜索结果中完全丢弃 掉,即使已经有了高排名权重或者有大量外链指向该页,但是在搜索结果里也不会找到了,因此noindex标签 比nofollow来的似乎更强大

不过在搜索了一些案例和网友经历后发现,谷歌对noindex标签感觉很好,很灵敏。但是百度就有点让人捉摸不透了,百度搜索对于noindex标签似乎时收时弃的。

总之百度谷歌对nofollow标签一致认可,发现链接带nofollow就不会理睬其指向的页面,而noindex标签类似于自杀性质,不仅不让理还要求搜索引擎删除已经收录的页面,不过该标签的认可度不如前者

当 然由于资料搜集的不完整和缺乏试验推论,所以这俩个标签的细节之处还没有获得,但就目前知道的信息来说,在平时的优化过程中其实可以避免使用 noindex,对于不想被收录的网页直接在导入链接上用nofollow即可,当nofollow无法很好满足的时候,比如其他网站链接了本站一个不重 要页面,我们无法控制其他站得代码,那就给自己的网页加上noindex来实现拒绝搜索引擎的目的.

 

nofollow标签通常有两种使用方法:

1、将”nofollow”写在网页上的meta标签上,用来告诉搜索引擎不要抓取网页上的所有外部和包括内部链接。

<meta name=”robots” content=”nofollow” />

2、将”nofollow”放在超链接中,告诉搜索引擎不要抓取特定的链接。

<a rel=”external nofollow” href=”url”><span>内容</span></a>

在mete中,我们的nofollow还有另外的一些写法。

Meta robots标签必须放在<head>和</head>之间,格式:
<meta name=”robots” content=”index,follow” />
content中的值决定允许抓取的类型,必须同时包含两个值:是否允许索引(index)和是否跟踪链接(follow,也可以理解为是否允许沿着网页中的超级链接继续抓取)。共有4个参数可选,组成4个组合:
index,follow:允许抓取本页,允许跟踪链接。
index,nofollow:允许抓取本页,但禁止跟踪链接。
noindex,follow:禁止抓取本页,但允许跟踪链接。
noindex,nofllow:禁止抓取本页,同时禁止跟踪本页中的链接。

网站营销:不卖东西,反而卖的好。

什么是被动消费?就是你用钱去买广告、做促销、搞折价、弄活动、公关去Push消费者的消费意愿,使其采取行动向你购买商品或服务,在此时消费者处于被动状态,消费者是被无所不在的广告宣传所创造的需求、期待推动而消费的。

过去这一直是一个有效的方式,老板们认为我今天开门做生意,就是要销售、销售、销售!然而,这个被动消费的时代已经过去了!

过去十多年来,随着资讯的爆炸,你想过每天所接触到的讯息数量有多少吗?

台湾雅虎奇摩总经理邹开莲指出,台湾网路广告在过去十年内成长了40倍。远在二零零三年时,全世界媒体、手机、网路创造出的讯息约为五十亿GB,就已经相当于人类过去五千年来创造出的资料量总和。全球目前每月超过1000亿个网路搜寻,资料量每五年成长8倍。

每人每天平均接触多少条广告信息?很多传播学专家试图去回答这个问题,他们估计最高达到每天5000条。因此当资讯量以光速传布,随时更新的今天,你凭什么认为你推出的广告会有用呢?

架了个网站、开一家店、投放了关键字广告、Banner、报纸杂志、甚至推出提醒消费者该去上厕所的电视广告…消费者对于这些讯息,老早就已经练就一身视而不见的功夫了。

先回答一个问题,你还记得今天报纸第二版的广告是什麽吗?这就是一个最简单的例子,所以你不应该再卖东西了!

这个时代,我们应该创造主动消费,你必须让消费者自己来找你,因为你找不到消费者的,广告的目的在于消费者要找你的时候,能很轻易的找到你,现在广告的用处也就是如此而已。

不卖东西,反而卖的好?

关键就在于创造消费者需要的“内容”。

我们来举个例子,当你遇到一个问题(不管是水管不通还是要撰写营运企划书),你会怎么做?你一定会想起某位专家、会去搜寻网路上的相关资料、会去问亲朋好友同事同学(现在通常会用FB)、是否会上论坛、讨论区爬文?

你会主动的去找到能够解决你问题的专家,也许你就会付费购买他的服务或商品。

所以把你的专业分享出去吧!经由网路的力量让消费者知道你、了解你、主动来找你,不要担心将你的核心专业分享出去后,消费者会自行处理问题,例如你是水管工人,你分享了十大马桶堵塞原因与解决方式,你想消费者会根据你的指示,动手去修马桶吗?不,消费者会打电话、mail给你,付费请你帮忙解决问题。

不要再被广告AE提出的曝光率、到达率、阅读人口、消费区隔等报表所蒙骗了,那是上个世纪的技俩。

不论你的生意是销售商品、提供服务,你都可以根据你的专业成为消费者主动寻找的对象,从今天起不要再卖东西了,你会发现你投入在创造内容、塑造专业的时间与金钱,远远比你投放广告的费用低多了,ROI一定可以让你满意。

详解Google Adsense的支付和使用

Google Adsense广告申请指南

Adsense的申请卢松松就不多说了,(点此进入)按照操作提示即可,完事之后,等两天google会来信告诉你以申请成功,然后启用帐户、将 AdSense 代码粘贴到你的网页,等上十几分钟即可(注域名必须在半年以上才能申请)。

Google AdSense的支付流程

当你帐户满10美元时google会寄给你一份pin码(个人识别号码)的信,但由于很多站长收不到pin码,google推出了“在线提交身份验证信息”服务,通过验证后就不用输入PIN了。

通过中国银行提取美元

当你的广告费满100美元时,Google会寄支票给你。带上支票和身份证。另外带点钱(100元就够了,卢松松总共花了70元),去中国银行办理光票托收手续(这种支票并不是那种凭身份证就能去银行取钱的那种,所以叫“光票”)。

 

通过西联汇款收取美元

当然,现在除了用邮寄支票的方法,还可以在google帐户后台选择用“西联汇款”,由于收款快、而且免费,所以收到站长的欢迎。开通西联帐号后,国内一般都和农行、邮局办理,具体操作问银行工作人员就可以了,和上面的中行是一样的。

等到收款日期,google会给你一个密码。带上身份证和Google Adsense相关支付信息,到西联的网点办理手续即可,不过需要等好几天。详细操作卢松松就不多说了,去银行一问就清楚了。

对AdSense的广告点击行为用户群分析

Google搜索而来:使用Google的用户通常使用网络时间较长,属于老鸟的类型,能够准确地分辨出哪个是广告,通常不会主动点击这些广告,因此其广告点击率远远低于其他搜索引擎。

百度搜索而来:使用百度的用户量最大,使用者水平层次不齐,很多是网络初学者,不具备分辨广告的能力,因此这些人对于广告的点击率会很高,加之基数巨大,因此带来的总体收入就很大。

电信运营商劫持的用户:使用如,BBN、互联星空114的是哪些用户呢?这个搜索引擎其实是电信耍流氓的结果,网络初学者不会上网,记不住网址,甚至不会使用搜索引擎,于是就直接在浏览器地址栏输入网站的中文名称,当用户输入一个不存在的网址,会被中国电信劫持到互联星空114搜索引擎中,实现自动搜索,因为这些用户绝大多数都是初学者,因此基本不具备分辨广告的能力,因此他们的广告点击率才会远远高于其他搜索引擎。

消除Google AdSense的非法广告

因为点击的最终单价不是有广告主来决定,广告主只设定最高点击的单价。每个点击产生的收入由Google SmartPrice来决定,这就说明点击的单价是不固定的,自然也就不存在绝对的高价和低价。可能你屏蔽的广告今天是低价明天就是高价了。

点击广告右下部的“Google提供的广告”,打开一个反馈网页,在网页底部的“您还想报告违规行为?”里面,选择“此广告”的选项,注明“该广告内容不当或具有攻击性”和“该广告似乎在其他方面违反了 AdWords 政策”,填写这个广告的相关信息,注明广告属于虚假骗人的非法广告,以期待Google能对这类广告进行管理。

(还可以通过竞争性广告过滤器来屏蔽网址)

如何应对Google Adsense的恶意点击

广告被恶意点击是很麻烦的事情,别人的恶意点击和发布者自己作弊对于Google Adsense来说是没有本质区别的,他们有理由认为恶意点击就是发布者所为。这是一个相当尴尬的问题。 你的部分收入将被扣除,也就是被不正常点击的部分。

方法一:给Google发邮件,他也会回信让你到(点此进入) 填写表格。把你的相关问题提交给google adsense,请求他们的帮助。

方法二:Google称点击付费系统 可以自动监测到恶意点击。投放谷歌只要没有违反计划政策,是不会随便删号的,至于其他人点击,谷歌自有判断。

方法三:访问支持中心,获得有关如何使您的帐户保持良好信誉的建议和指南,最重要的是,建立良好的网络关系,不与小人交恶,及时查看收入报告,遇到异常情况尤其是收入无故大幅度提高时向服务小组报告。

从Google Analytics分析AdSense的广告点击行为

如果你用Analytic作为网站统计即可使用Analytic分析广告行为,只要将AdSense帐号和Analytics帐号绑定,就可以非常方便了AdSense用户查看自己的统计分析数据,是一项非常实用的功能,可以帮助广大的广告用户分析AdSense的广告点击。

Google Adsense广告应避免几个错误

一:无论是任何原因,都不要点击你自己的Adsense广告。

二:永远不要改变Adsense的代码。我们有足够的手段来优化与定制Adsense的颜色,以适合你背景或边界的需求。在广告代码的外面增加你自己的代码,绝对不要在广告或者搜索代码里面瞎修改。

三:不要在网页上放置超过3个广告单元和1个链接单元或者2个搜索广告框。

discuz 网站搬家后用户头像无法显示 Ucenter也进不去 解决方法

Ucenter无法连接,用户头像无法显示,简单的解决方法,两步走搞定!

1,直接进入ucenter http://域名/uc_server
输入建站时候的密码
看看通讯是否有问题

 

经编辑目录后 通信成功。

2,更新论坛缓存: 后台-工具-更新缓存

At last, 刷新网站后用户头像此刻已经显示出来了 :)

robots.txt 使用方法

robots.txt对于大多数有网站优化经验的朋友来说并不算太陌生,用过的朋友肯定会有感受,设置好robots.txt对网站优化来说利远远大于弊。
    我们先来认识一下什么是robots.txt? 

    robots.txt是通过代码控制搜索引擎蜘蛛索引的一个手段,以便减轻网站服务器的带宽使用率,从而让网站的空间更稳定,同时也可以提高网站其他页面的索引效率,提高网站收录。
搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。 

    下面我们再来熟悉一下怎样使用robots.txt?

    首先,我们需要创建一个robots.txt文本文件,然后在文档内设置好代码,告诉搜索引擎我网站的哪些文件你不能访问。然后上传到网站根目录下面,因为当搜索引擎蜘蛛在索引一个网站时,会先爬行查看网站根目录下是否有robots.txt文件。

     robots.txt文件内的代码书写规范我们也要注意,其中User-agent:*是必须存在的,表示对所有搜索引擎蜘蛛有效。Disallow:是说明不允许索引哪些文件夹.

有没有想过,如果我们某个站点不让百度和google收录,那怎么办?

搜索引擎已经和我们达成一个约定,如果我们按约定那样做了,它们就不要收录。

这个写约定的的文件命名为:robots.txt。

robots.txt是一个最简单的.txt文件,用以告诉搜索引擎哪些网页可以收录,哪些不允许收录。

关于robots.txt一般站长需要注意以下几点:

  1. 如果你的站点对所有搜索引擎公开,则不用做这个文件或者robots.txt为空就行。
  2. 必须命名为:robots.txt,都是小写robot后面加”s”。
  3. robots.txt必须放置在一个站点的根目录下。如:通过http://www.deseui.com/robots.txt 可以成功访问到,则说明本站的放置正确。
  4. 一般情况下,robots.txt里只写着两个函数:User-agent和 Disallow。
  5. 观察这个页面并修改为自己的:http://www.deseui.com/robots.txt
  6. 有几个禁止,就得有几个Disallow函数,并分行描述。
  7. 至少要有一个Disallow函数,如果都允许收录,则写: Disallow: ,如果都不允许收录,则写:Disallow: /  (注:只是差一个斜杆)。

补充说明:

User-agent: *  星号说明允许所有搜索引擎收录

Disallow: /search.html   说明 http://www.deseui.com/search.html 这个页面禁止搜索引擎抓取。

Disallow: /index.php?   说明类似这样的页面http://www.deseui.com/index.php 禁止搜索引擎抓取。

 

文件写法

User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符
Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录
Disallow: /require/ 这里定义是禁止爬寻require目录下面的目录
Disallow: /ABC/ 这里定义是禁止爬寻ABC目录下面的目录
Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以”.htm”为后缀的URL(包含子目录)。
Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址
Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片
Disallow:/ab/adc.html 禁止爬取ab文件夹下面的adc.html文件。
Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录
Allow: /tmp 这里定义是允许爬寻tmp的整个目录
Allow: .htm$ 仅允许访问以”.htm”为后缀的URL。
Allow: .gif$ 允许抓取网页和gif格式图片

文件用法

例1. 禁止所有搜索引擎访问网站的任何部分
User-agent: *
Disallow: /
实例分析:淘宝网的 Robots.txt文件
User-agent: Baiduspider
Disallow: /
User-agent: baiduspider
Disallow: /
很显然淘宝不允许百度的机器人访问其网站下其所有的目录。
例2. 允许所有的robot访问 (或者也可以建一个空文件 “/robots.txt” file)
User-agent: *
Allow: /
例3. 禁止某个搜索引擎的访问
User-agent: BadBot
Disallow: /
例4. 允许某个搜索引擎的访问
User-agent: Baiduspider
allow:/
例5.一个简单例子
在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即搜索引擎不会访问这三个目录。
需要注意的是对每一个目录必须分开声明,而不要写成 “Disallow: /cgi-bin/ /tmp/”。
User-agent:后的*具有特殊的含义,代表“any robot”,所以在该文件中不能有“Disallow: /tmp/*” or “Disallow:*.gif”这样的记录出现。
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/
Robot特殊参数:
允许 Googlebot:
如果您要拦截除 Googlebot以外的所有漫游器不能访问您的网页,可以使用下列语法:
User-agent:
Disallow: /
User-agent: Googlebot
Disallow:
Googlebot 跟随指向它自己的行,而不是指向所有漫游器的行。
“Allow”扩展名:
Googlebot 可识别称为“Allow”的 robots.txt 标准扩展名。其他搜索引擎的漫游器可能无法识别此扩展名,因此请使用您感兴趣的其他搜索引擎进行查找。“Allow”行的作用原理完全与“Disallow”行一样。只需列出您要允许的目录或页面即可。
您也可以同时使用“Disallow”和“Allow”。例如,要拦截子目录中某个页面之外的其他所有页面,可以使用下列条目:
User-agent: Googlebot
Allow: /folder1/myfile.html
Disallow: /folder1/
这些条目将拦截 folder1 目录内除 myfile.html 之外的所有页面。
如果您要拦截 Googlebot 并允许 Google 的另一个漫游器(如 Googlebot-Mobile),可使用”Allow”规则允许该漫游器的访问。例如:
User-agent: Googlebot
Disallow: /
User-agent: Googlebot-Mobile
Allow:
使用 * 号匹配字符序列:
您可使用星号 (*) 来匹配字符序列。例如,要拦截对所有以 private 开头的子目录的访问,可使用下列条目: User-Agent: Googlebot
Disallow: /private*/
要拦截对所有包含问号 (?) 的网址的访问,可使用下列条目:
User-agent: *
Disallow: /*?*
使用 $ 匹配网址的结束字符
您可使用 $ 字符指定与网址的结束字符进行匹配。例如,要拦截以 .asp 结尾的网址,可使用下列条目: User-agent: Googlebot
Disallow: /*.asp$
您可将此模式匹配与 Allow 指令配合使用。例如,如果 ? 表示一个会话 ID,您可排除所有包含该 ID 的网址,确保 Googlebot 不会抓取重复的网页。但是,以 ? 结尾的网址可能是您要包含的网页版本。在此情况下,可对 robots.txt 文件进行如下设置:
User-agent: *
Allow: /*?$
Disallow: /*?
Disallow: / *?
一行将拦截包含 ? 的网址(具体而言,它将拦截所有以您的域名开头、后接任意字符串,然后是问号 (?),而后又是任意字符串的网址)。
Allow: /*?$ 一行将允许包含任何以 ? 结尾的网址(具体而言,它将允许包含所有以您的域名开头、后接任意字符串,然后是问号 (?),问号之后没有任何字符的网址)。[4]

其它属性

1. Robot-version: 用来指定robot协议的版本号
例子: Robot-version: Version 2.0
2.Crawl-delay:雅虎YST一个特定的扩展名,可以通过它对我们的抓取程序设定一个较低的抓取请求频率。您可以加入Crawl-delay:xx指示,其中,“XX”是指在crawler程序两次进入站点时,以秒为单位的最低延时。
3. Visit-time:只有在visit-time指定的时间段里,robot才可以访问指定的URL,否则不可访问.
例子: Visit-time: 0100-1300 #允许在凌晨1:00到13:00访问
4. Request-rate: 用来限制URL的读取频率
例子: Request-rate: 40/1m 0100 – 0759 在1:00到07:59之间,以每分钟40次的频率进行访问
Request-rate: 12/1m 0800 – 1300 在8:00到13:00之间,以每分钟12次的频率进行访问

Robots Meta标签

Robots.txt文件主要是限制整个站点或者目录的搜索引擎访问情况,而Robots Meta标签则主要是针对一个个具体的页面。和其他的META标签(如使用的语言、页面的描述、关键词等)一样,Robots Meta标签也是放在页面中,专门用来告诉搜索引擎ROBOTS如何抓取该页的内容。
Robots Meta标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”BaiduSpider”。content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。 index指令告诉搜索机器人抓取该页面;
follow指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;
Robots Meta标签的缺省值是index和follow,只有inktomi除外,对于它,缺省值是index、nofollow。

GoDaddy Linux主机升级zend optimizer教程

分享GoDaddy Linux主机如何升级zend optimize的r教程。
步骤/方法

1. 将如下代码写到php5.ini文件里,传到空间根目录,
[Zend]
zend_optimizer.optimization_level=15
zend_extension_manager.optimizer=/usr/local/Zend/lib/Optimizer-3.3.3
zend_extension_manager.optimizer_ts=/usr/local/Zend/lib/Optimizer_TS-3.3.3
zend_extension=/usr/local/Zend/lib/Optimizer-3.3.3/ZendExtensionManager.so
zend_extension_ts=/usr/local/Zend/lib/Optimizer_TS-3.3.3/ZendExtensionManager_TS.so
如果没有php5.ini文件可以到附件里下载解压后传到空间或自己记事本创建。

2. 将以下的代码保存为 .PHP 文件,如 phpinfo.php,然后将该文件放到网站根目录下。
phpinfo();
?>
输入http://您的站点网址/phpinfo.php,如果安装了 Zend Optimizer,应该可以看到如下所示:
就说明升级成功了.

php5.3.3如何支持Zend Guard加密过的页面

如果你了解Zend加密,你应该会经常接触Zend Guard,这是一个保护你Php程序版权的软件,不过因为目前php最新的版本是5.3.3,而ZendOptimizer-3.3.9 目前仅仅支持到php5.2版本,难道需要我们重新把php5.3版本降级到php5.2版本吗?答案显然不是。

随着php5.3系列版本的推出,Zend Guard也从先前的5.0.1版本升级到了5.1版本,但却没有在Zend主页上做介绍,下载链接如下

Zend Guard 5.1 EA

http://www.zend.com/en/downloads/

在这个版本中,Zend Guard Loader将替代原先的ZendOptimizer,也就是说ZendOptimizer在php5.2的时候生命周期就结束了,而在全新的php5.3系列版本中都将用Zend Guard Loader替代;不光如此,Zend Guard 5.1也更新了加密php文件的算法来迎合php5.3新版本支持,所以我们之前用Zend Guard老版本加密过的php文件在php5.3+Zend Guard Loader的环境下都无法正常浏览,会报诸如下列错误
Fatal error: Incompatible file format: The encoded file has format major ID 1, whereas the Loader expects 4 in
解决方法就是把php源文件在Zend Guard 5.1下重新加密,然后才能浏览。

安装ZendOptimizer-3.3.9和Zend Guard Loader的文章稍后会放在文档区,欢迎大家下载学习。PDF格式。

php5.2.14加载ZendOptimizer-3.3.9.pdf 和php5.3.3加载Zend Guard Loader.pdf都已放出,请大家到文档区下载学习

地方门户网站的坎坷与出路

作为地方门户站长,您是否每天早上上班第一件事就是打开站长工具,看看当天的排名变化呢?是不是发现每天都有不同来路的ip访问,但是转化一个都不成功呢?此类网站我们称之为半生不死型。
这样的网站如果能注意到以下几点,相信对这个问题的解决是能够有帮助的。


第一:网站推广。地方门户网站不能像传统的企业网站,个人网站一样主要通过seo来获取大量的ip流量。企业个人网站,展示率只要出现一次,基本已经达到宣传的目的。客户第2次来不来回访相比第一次而言,已经不是很重要了。

然后地方行门户,可以通过seo进行引流。我们要讲求高的转化率和回访率,所以不能把重点放在seo上。

第二:内容至上。前边我们通过搜索引擎seo给我们的网站引来了流量!客户访问后是否能找到自己想要的信息?是否很直观,很快捷的获取自己需要的信息?。只有内容到位,客户才能到位。一个本身质量非常高,很能吸引人的网站,推广起来往往都是事半功倍;一个垃圾站就算推广的再好,也只能是昙花一现,短暂的高IP与推广的期限力度直接成正比。对于一个行业门户网站而言,在无法做到覆盖全国全行业信息的前提下,紧紧抓住本地区本行业的有效信息,提供最及时最全面的地方资讯,比大而化之的网站资讯来说要能更加的吸引人。尤其行业门户网站在地方行业领域内多数都拥有很强的关系,立足于地区市场,同时为其他地方提供资讯对比,这将会是一条崭新的发展之路。
第三:集中精力专供一项内容。想必大部分人做门户网站都会弄 出一大堆板块,比如:汽车、婚嫁、分类、美食等内容,涵盖范围太广。即使这样也没有做到全方位兼顾。因此,在短时间内必须要找准一个或者几个主要主题,集中精力来做好重点主题,在产生很好效果的情况下,以后再求全面的发展。譬如从装修论坛起步的篱笆网、依靠打折成功的比翼久久网等等。

第四:线下活动一定要多要丰富(重点)