最近5Uz资源网-柠檬看群里很多人在用wordpress蜘蛛爬行记录生成这个功能,出于对网站优化的研究,清楚的了解蜘蛛爬行规律也是很重要的,我们就可以知道蜘蛛的爬行规律,根据这个规律我们再来写文章,这样符合了蜘蛛的胃口是很利于优化的。。。但是小编一直提倡着远离插件,热爱速度的口号,所以今天就教大家用代码完美实现wordpress蜘蛛爬行记录生成功能!
教程开始
在wordpress主题文件目录下找到function文件,用代码编辑软件打开,在<?php ?>内的任意位置增加下面一段代码即可完成wordpress蜘蛛爬行记录生成的功能!
function get_naps_bot(){
$useragent = strtolower($_SERVER[\'HTTP_USER_AGENT\']);
if (strpos($useragent, \'googlebot\') !== false){
return \'Googlebot\';
}
if (strpos($useragent, \'msnbot\') !== false){
return \'MSNbot\';
}
if (strpos($useragent, \'slurp\') !== false){
return \'Yahoobot\';
}
if (strpos($useragent, \'baiduspider\') !== false){
return \'Baiduspider\';
}
if (strpos($useragent, \'sohu-search\') !== false){
return \'Sohubot\';
}
if (strpos($useragent, \'lycos\') !== false){
return \'Lycos\';
}
if (strpos($useragent, \'robozilla\') !== false){
return \'Robozilla\';
}
return false;
}
function nowtime(){
date_default_timezone_set(\'Asia/Shanghai\');
$date=date(\"Y-m-d.G:i:s\");
return $date;
}
$searchbot = get_naps_bot();
if ($searchbot) {
$tlc_thispage = addslashes($_SERVER[\'HTTP_USER_AGENT\']);
$url=$_SERVER[\'HTTP_REFERER\'];
$file=\"robotslogs.txt\";
$time=nowtime();
$data=fopen($file,\"a\");
$PR=\"$_SERVER[REQUEST_URI]\";
fwrite($data,\"Time:$time robot:$searchbot URL:$tlc_thispage\\n page:$PR\\r\\n\");
fclose($data);
}
注意事项
使用上面这段代码后,最好在网站的根目录创建个robotslogs.txt的文件,并且linux主机设置权限为777,然后过段时间,访问http://网址/robotslogs.txt 即可看到蜘蛛爬行记录了!
一些说使用后出错的朋友,请研究下function文件内,插入的位置!
文章来自5Uz资源网https://www.5uzy.com转载请保留本链接,谢谢!
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
评论(0)