记录蜘蛛爬行ASP代码
先建立一个 robots 文件夹 
<% 
Sub robot() 
Dim robots:robots="Baiduspider+@Baidu|Googlebot@Google|ia_archiver@Alexa|IAArchiver@Alexa|ASPSeek@ASPSeek|YahooSeeker@Yahoo|sohu-search@Sohu|help.yahoo.com/help/us/ysearch/slurp@Yahoo|sohu-search@SOHU|MSNBOT@MSN" 
dim I1,I2,l1,l2,l3,i,rs 
l2=false 
l1=request.servervariables("http_user_agent") 
F1=request.ServerVariables("script_NAME") 
I1=split(robots,chr(124)) 
for i=0 to ubound(I1) 
I2=split(I1(i),"@") 
if instr(lcase(l1),lcase(I2(0)))>0 then 
l2=true:l3=I2(1):exit for 
end if 
next 
if l2 and len(l3)>0 then'如果是爬虫,就更新爬虫信息 
FilePath = Server.Mappath("robots/"&l3&"_robots.txt") 
'记录蜘蛛爬行 
Set Fso = Server.CreateObject("scripting.FileSystemObject") 
Set Fout = Fso.OpenTextFile(FilePath,8,True) 
Fout.WriteLine "索引页面:"&F1 
Fout.WriteLine "蜘蛛:"&l3&chr(32)&chr(32)&"更新时间:"&**() 
Fout.WriteLine "-----------------------------------------------" 
Fout.Close 
Set Fout = Nothing 
Set Fso = Nothing 
end if 
end Sub 
%> 
asp 放在公用的函数文件里面 
比如 放在conn.asp里面 然后直接在 下面调用过程就行了 
Call robot() 
转载保留链接!网址:http://www.80920140.com/post/323.html
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源; 2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任; 3.作者投稿可能会经我们编辑修改或补充。
	



