最近Vivi源码-柠檬看群里很多人在用wordpress蜘蛛爬行记录生成这个功能,出于对网站优化的研究,清楚的了解蜘蛛爬行规律也是很重要的,我们就可以知道蜘蛛的爬行规律,根据这个规律我们再来写文章,这样符合了蜘蛛的胃口是很利于优化的。。。但是小编一直提倡着远离插件,热爱速度的口号,所以今天就教大家用代码完美实现wordpress蜘蛛爬行记录生成功能!
教程开始
在wordpress主题文件目录下找到function文件,用代码编辑软件打开,在<?php ?>内的任意位置增加下面一段代码即可完成wordpress蜘蛛爬行记录生成的功能!
function get_naps_bot(){
$useragent = strtolower($_SERVER[\'HTTP_USER_AGENT\']);
if (strpos($useragent, \'googlebot\') !== false){
return \'Googlebot\';
}
if (strpos($useragent, \'msnbot\') !== false){
return \'MSNbot\';
}
if (strpos($useragent, \'slurp\') !== false){
return \'Yahoobot\';
}
if (strpos($useragent, \'baiduspider\') !== false){
return \'Baiduspider\';
}
if (strpos($useragent, \'sohu-search\') !== false){
return \'Sohubot\';
}
if (strpos($useragent, \'lycos\') !== false){
return \'Lycos\';
}
if (strpos($useragent, \'robozilla\') !== false){
return \'Robozilla\';
}
return false;
}
function nowtime(){
date_default_timezone_set(\'Asia/Shanghai\');
$date=date(\"Y-m-d.G:i:s\");
return $date;
}
$searchbot = get_naps_bot();
if ($searchbot) {
$tlc_thispage = addslashes($_SERVER[\'HTTP_USER_AGENT\']);
$url=$_SERVER[\'HTTP_REFERER\'];
$file=\"robotslogs.txt\";
$time=nowtime();
$data=fopen($file,\"a\");
$PR=\"$_SERVER[REQUEST_URI]\";
fwrite($data,\"Time:$time robot:$searchbot URL:$tlc_thispage\\n page:$PR\\r\\n\");
fclose($data);
}
注意事项
使用上面这段代码后,最好在网站的根目录创建个robotslogs.txt的文件,并且linux主机设置权限为777,然后过段时间,访问http://网址/robotslogs.txt 即可看到蜘蛛爬行记录了!
一些说使用后出错的朋友,请研究下function文件内,插入的位置!
文章来自Vivi源码http://www.vxiaotou.com转载请保留本链接,谢谢!
常见问题FAQ
- 免费下载或者VIP会员专享资源能否直接商用?
- 本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
- 提示下载完但解压或打开不了?
- 找不到素材资源介绍文章里的示例图片?
- Vivi资源网