首页 > 编程知识 正文

phpjs怎么看蜘蛛(php判断蜘蛛)

时间:2023-12-04 11:50:00 阅读:311985 作者:REKO

本文目录一览:

  • 1、搜索引擎蜘蛛访问日志查看器php版如何使用
  • 2、PHP中如何调用JS代码实现判断是否是蜘蛛访问
  • 3、搜索引擎蜘蛛访问日志查看器(php) v1.0 怎么使用?
  • 4、PHP判断来访是搜索引擎蜘蛛还是普通用户的代码小结
  • 5、PHP的网站怎么查询蜘蛛记录
  • 6、PHP程序中如何判断来访者是蜘蛛还是普通用户?

搜索引擎蜘蛛访问日志查看器php版如何使用

这个软件可以查看搜索引擎的蜘蛛访问记录,根据这些记录可以看到蜘蛛什么时候来访问过你的站,抓取了什么内容。

使用方法:把你下载的文件解压出来有一个目录为phpzz的目录吧,把这个一起传到你的空间根目录下面,让后在你的页面用一下方式调用

!--#include file="robot.php"-- ----插入php页面调用

SCRIPT src="robot.php"/SCRIPT ----插入html页面JS调用

bot.mdb 记录数据库

访问蜘蛛记录的话就在 你域名后面加上 /phpzz/zhizhu.php可以查看蜘蛛访问记录记录

PHP中如何调用JS代码实现判断是否是蜘蛛访问

这个理论上是无法做到的,因为蜘蛛可以模仿得和浏览器点开完全相同。

一般的办法是判断浏览器的AGENT标志,一般蜘蛛这里比较特殊,你看看日期里面的AGENT就知道如何识别了。

我的代码如下,可以参考:

搜索引擎蜘蛛访问日志查看器(php) v1.0 怎么使用?

bot.mdb 记录数据库 这是access数据库asp上用的。但看你的提问标题,真的有些难易理解。以下是网上的查的:asp版。你也可以用的,不过得空间支付asp,且你得通过 这句代码来调用 ----插入html页面JS调用搜索引擎蜘蛛访问日志查看器V1.0(asp版)这个软件可以查看搜索引擎的蜘蛛访问记录,根据这些记录可以看到蜘蛛什么时候来访问过你的站,抓取了什么内容。使用方法: ----插入asp页面调用 ----插入html页面JS调用bot.mdb 记录数据库访问 zhizhu.asp 可以查看蜘蛛访问记录记录优点:1、程序简洁易用。2、记录所有爬行的页面。3、可以批量删除数据。4、用数据库记录而不是txt。不足:1、程序小,功能也少。2、不能记录返回值,如200 404等。3、适合小型的网站程序,或者流量不是太大的站。4、因为是测试版本功能不多,以后会有更新,现在够用就好。

PHP判断来访是搜索引擎蜘蛛还是普通用户的代码小结

1、推荐的一种方法:php判断搜索引擎蜘蛛爬虫还是人为访问代码,摘自Discuz x3.2

?php

function checkrobot($useragent=''){

static $kw_spiders = array('bot', 'crawl', 'spider' ,'slurp', 'sohu-search', 'lycos', 'robozilla');

static $kw_browsers = array('msie', 'netscape', 'opera', 'konqueror', 'mozilla');

$useragent = strtolower(empty($useragent) ? $_SERVER['HTTP_USER_AGENT'] : $useragent);

if(strpos($useragent, 'http://') === false dstrpos($useragent, $kw_browsers)) return false;

if(dstrpos($useragent, $kw_spiders)) return true;

return false;

}

function dstrpos($string, $arr, $returnvalue = false) {

if(empty($string)) return false;

foreach((array)$arr as $v) {

if(strpos($string, $v) !== false) {

$return = $returnvalue ? $v : true;

return $return;

}

}

return false;

}

if(checkrobot()){

echo '机器人爬虫';

}else{

echo '人';

}

?

实际应用中可以这样判断,直接不是搜索引擎才执行操作

?php

if(!checkrobot()){

//do something

}

?

2、第二种方法:

使用PHP实现蜘蛛访问日志统计

$useragent = addslashes(strtolower($_SERVER['HTTP_USER_AGENT']));

if (strpos($useragent, 'googlebot')!== false){$bot = 'Google';}

elseif (strpos($useragent,'mediapartners-google') !== false){$bot = 'Google Adsense';}

elseif (strpos($useragent,'baiduspider') !== false){$bot = 'Baidu';}

elseif (strpos($useragent,'sogou spider') !== false){$bot = 'Sogou';}

elseif (strpos($useragent,'sogou web') !== false){$bot = 'Sogou web';}

elseif (strpos($useragent,'sosospider') !== false){$bot = 'SOSO';}

elseif (strpos($useragent,'360spider') !== false){$bot = '360Spider';}

elseif (strpos($useragent,'yahoo') !== false){$bot = 'Yahoo';}

elseif (strpos($useragent,'msn') !== false){$bot = 'MSN';}

elseif (strpos($useragent,'msnbot') !== false){$bot = 'msnbot';}

elseif (strpos($useragent,'sohu') !== false){$bot = 'Sohu';}

elseif (strpos($useragent,'yodaoBot') !== false){$bot = 'Yodao';}

elseif (strpos($useragent,'twiceler') !== false){$bot = 'Twiceler';}

elseif (strpos($useragent,'ia_archiver') !== false){$bot = 'Alexa_';}

elseif (strpos($useragent,'iaarchiver') !== false){$bot = 'Alexa';}

elseif (strpos($useragent,'slurp') !== false){$bot = '雅虎';}

elseif (strpos($useragent,'bot') !== false){$bot = '其它蜘蛛';}

if(isset($bot)){

$fp = @fopen('bot.txt','a');

fwrite($fp,date('Y-m-d H:i:s')."t".$_SERVER["REMOTE_ADDR"]."t".$bot."t".'http://'.$_SERVER['SERVER_NAME'].$_SERVER["REQUEST_URI"]."rn");

fclose($fp);

}

第三种方法:

我们可以通过HTTP_USER_AGENT来判断是否是蜘蛛,搜索引擎的蜘蛛都有自己的独特标志,下面列取了一部分。

function is_crawler() {

$userAgent = strtolower($_SERVER['HTTP_USER_AGENT']);

$spiders = array(

'Googlebot', // Google 爬虫

'Baiduspider', // 百度爬虫

'Yahoo! Slurp', // 雅虎爬虫

'YodaoBot', // 有道爬虫

'msnbot' // Bing爬虫

// 更多爬虫关键字

);

foreach ($spiders as $spider) {

$spider = strtolower($spider);

if (strpos($userAgent, $spider) !== false) {

return true;

}

}

return false;

}

下面的php代码附带了更多的蜘蛛标识

function isCrawler() {

echo $agent= strtolower($_SERVER['HTTP_USER_AGENT']);

if (!empty($agent)) {

$spiderSite= array(

"TencentTraveler",

"Baiduspider+",

"BaiduGame",

"Googlebot",

"msnbot",

"Sosospider+",

"Sogou web spider",

"ia_archiver",

"Yahoo! Slurp",

"YoudaoBot",

"Yahoo Slurp",

"MSNBot",

"Java (Often spam bot)",

"BaiDuSpider",

"Voila",

"Yandex bot",

"BSpider",

"twiceler",

"Sogou Spider",

"Speedy Spider",

"Google AdSense",

"Heritrix",

"Python-urllib",

"Alexa (IA Archiver)",

"Ask",

"Exabot",

"Custo",

"OutfoxBot/YodaoBot",

"yacy",

"SurveyBot",

"legs",

"lwp-trivial",

"Nutch",

"StackRambler",

"The web archive (IA Archiver)",

"Perl tool",

"MJ12bot",

"Netcraft",

"MSIECrawler",

"WGet tools",

"larbin",

"Fish search",

);

foreach($spiderSite as $val) {

$str = strtolower($val);

if (strpos($agent, $str) !== false) {

return true;

}

}

} else {

return false;

}

}

if (isCrawler()){

echo "你好蜘蛛精!";

}

else{

echo "你不是蜘蛛精啊!";

PHP的网站怎么查询蜘蛛记录

这很简单:$_SERVER['HTTP_USER_AGENT'],获取客户端浏览器的型号,也就是访问你网站的客户端用的是什么浏览器,比如:ie firefox......,但如果是蜘蛛,那就型号是什么呢,我们只要判断就可以知道了,下面是转网上的一段流行代码:?php

function get_naps_bot()

{

$useragent = strtolower($_SERVER['HTTP_USER_AGENT']);

if (strpos($useragent, ‘googlebot’) !== false){

return ‘Googlebot’;

}

if (strpos($useragent, ‘msnbot’) !== false){

return ‘MSNbot’;

}

if (strpos($useragent, ’slurp’) !== false){

return ‘Yahoobot’;

}

if (strpos($useragent, ‘baiduspider’) !== false){

return ‘Baiduspider’;

}

if (strpos($useragent, ’sohu-search’) !== false){

return ‘Sohubot’;

}

if (strpos($useragent, ‘lycos’) !== false){

return ‘Lycos’;

}

if (strpos($useragent, ‘robozilla’) !== false){

return ‘Robozilla’;

}

return false;

}

function nowtime(){

$date=date(“Y-m-d.G:i:s”);

return $date;

}

$searchbot = get_naps_bot();

if ($searchbot) {

$tlc_thispage = addslashes($_SERVER['HTTP_USER_AGENT']);

$url=$_SERVER['HTTP_REFERER'];

$file=”robotslogs.txt”;

$time=nowtime();

$data=fopen($file,”a”);

$PR=”$_SERVER[REQUEST_URI]“;

fwrite($data,”Time:$time robot:$searchbot URL:$tlc_thispagen page:$PRrn”);

fclose($data);

}

?

PHP程序中如何判断来访者是蜘蛛还是普通用户?

根据在一定时间打开的链接和流量多少来判断。

如果用脚本的话,可以这样在全局配置文件里记录访问各个页面的ip地址、访问时间、访问的脚本页面,那么你根据某个ip在短时间内访问到多个页面,就可以认定是蜘蛛,否则为普通用户。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。