当前位置:文档之家› 网站生成静态面的几种策略精编

网站生成静态面的几种策略精编

网站生成静态面的几种策略精编Document number:WTT-LKK-GBB-08921-EIGG-22986[转]网站生成静态页面的几种策略2008-02-02 11:13网站生成静态页面,及网站数据采集的攻、防原理和策略目前很多人都开始注重动态页面生成HTML页了,但选择哪种生成HTML的方法和防采集却不防搜索引擎的问题却经常困扰大家。

解决此问题则是本文产生的原因。

首先祥细说一下常用的几种生成HTML的方法:生成HTML方法主要步骤只有两个:一、获取要生成的html文件的内容二、将获取的html文件内容保存为html文件我在这里主要说明的只是第一步:如何获取要生成的html 文件的内容:目前常用获取html文件的内容的方法有几下几种:1、str="内容"str=str&"内容数据库读取内容........."这种方法与是在脚本内写要生成的html内容,不太方便预览生成页面的内容,无法可视化布局页面,更改html模板时会更加复杂。

用这种方法的人很多,但我感觉这种方法是最不方便的。

2、制作单独的HTML模板页,动态的内容用特定的字符作为标记(如:有人用$title$标记为网页标题),用或者将其模板内容载入,然后再用替换方法把原先定好的标记替换为动态内容(如:Replace(载入的模板内容,"$title$",rs("title" ) ) )。

3、用XMLHTTP或serverXMLHTTP获取动态页所显示的HTML内容,我常用的生成html文件的实例:'weburl是要获取的动态页地址'getHTTPPage(weburl)是获取动态页内容的函数weburl="")&""‘指定动态页地址body=getHTTPPage(weburl)'用函数取到动态页地址的内容此方法最大的好处就是不用费力气专门去写静态的模板页面,只是将原来就有的动态页面转换为HTML静态页面,但生成速度不是太快。

我常用的生成HTML的方法就是第3种:用XMLHTTP获取动态页生成的HTML内容,再用或者保存成html文件。

第二步是生成文件的方法:ASP里常用的有用生成文件和生成文件两种1、生成文件方法:Set fso = CreateObject("")File=("要生成文件路径和文件名.htm")Set txt=(File,8,True)data1="文件内容"用WriteLine方法生成文件data1data2="文件内容"'用Write方法生成文件data22、生成文件方法:Dim objAdoStreamset objAdoStream = ("")= 1()("文件内容")要生成文件路径和文件名.htm,2()再说一下我对HTML防采集却不防搜索引擎蜘蛛的一些经我开发过几个采集程序,也研究过很多采集程序代码,所以对采集程序的原理还算是稍微有些了解。

先说一下采集原理:采集程序的主要步骤如下:一、获取被采集的页面的内容二、从获取代码中提取所有用的数据一、获取被采集的页面的内容我目前所掌握的ASP常用获取被采集的页面的内容方法:1、用serverXMLHTTP组件获取数据Function GetBody(weburl)'创建对象Dim ObjXMLHTTPSet ObjXMLHTTP=("")'请求文件,以异步形式"GET",weburl,FalseWhile <> 41000'得到结果GetBody='释放对象Set ObjXMLHTTP=NothingEnd Function调用方法:GetBody(文件的URLf地址)2、或XMLHTTP组件获取数据Function GetBody(weburl)'创建对象Set Retrieval = CreateObject("") With Retrieval.Open "Get", weburl, False, "", "" .SendGetBody = .ResponseBodyEnd With'释放对象Set Retrieval = NothingEnd Function调用方法:GetBody(文件的URLf地址)这样获取的数据内容还需要进行编码转换才可以使用Function BytesToBstr(body,Cset)dim objstreamset objstream = ("")= 1=3body= 0= 2= CsetBytesToBstr =set objstream = nothingEnd Function调用方法:BytesToBstr(要转换的数据,编码)'编码常用为GB2312和UTF-8二、从获取代码中提取所有用的数据目前我掌握的方法有:1、用ASP内置的MID函数截取需要的数据Function body(wstr,start,over)start=Newstring(wstr,start)'设置需要处理的数据的唯一的开始标记over=Newstring(wstr,over)'和start相对应的就是需要处理的数据的唯一的结束标记body=mid(wstr,start,over-start)'设置显示页面的范围End Function调用方法:body(被采集的页面的内容,开始标记,结束标记)2、用正则获取需要的数据Function body(wstr,start,over)Set xiaoqi = New Regexp'设置配置对象= True'忽略大小写= True'设置为全文搜索= "”&start&“.+”&over&“"'正则表达式Set Matches =(wstr)'开始执行配置set xiaoqi=nothingbody=""For Each Match in Matchesbody=body& '循环匹配NextEnd Function调用方法:body(被采集的页面的内容,开始标记,结束标记)采集程序祥细思路:1、取得网站的分页列表页的每页地址目前绝大部分动态网站的分页地址都有规则,如:动态页第一页:page=1第二页:page=2第三页:page=3.....静态页第一页:第二页:第三页:.....取得网站的分页列表页的每页地址,只需要用变量替代每页地址的变化的字符即可如:2、获取被采集网站的分页列表页内容3、从分页列表代码中提取被采集的内容页面的URL连接地址绝大部分分页页面里的内容页连接也有固定规则,如:连接1连接2连接3用以下代码就可以获得一个URL连接集合Set xiaoqi = New Regexp= True= True= ””“.+”““Set Matches =(页面列表内容)set xiaoqi=nothingurl=""For Each Match in Matchesurl=url&Next4、取得被采集的内容页面内容,根据”提取标记“从被采集的内容页面分别截取要取得的数据。

因为是动态生成的页面,大多数内容页面内都有相同的html标记,我们可以根据这些有规则的标记提取需要的各个部分的内容。

如:每个页面都有网页标题网页标题,用我上面写的MID截取函数就可以获得之间的值,也可以用正则表达式来获得。

例:body("网页标题","","")目前防采集的方法有很多种,先介绍一下常见防采集策略方法和它的弊端及采集对策:一、判断一个IP在一定时间内对本站页面的访问次数,如果明显超过了正常人浏览速度,就拒绝此IP访问弊端:1、此方法只适用于动态页面,如:asp\jsp\php等...静态页面无法判断某个IP一定时间访问本站页面的次数。

2、此方法会严重影响搜索引擎蜘蛛对其收录,因为搜索引擎蜘蛛收录时,浏览速度都会比较快而且是多线程。

此方法也会拒绝搜索引擎蜘蛛收录站内文件采集对策:只能放慢采集速度,或者不采建议:做个搜索引擎蜘蛛的IP库,只允许搜索引擎蜘蛛快速浏览站内内容。

搜索引擎蜘蛛的IP库的收集,也不太容易,一个搜索引擎蜘蛛,也不一定只有一个固定的IP地址。

评论:此方法对防采集比较有效,但却会影响搜索引擎对其收录。

二、用javascript加密内容页面弊端:此方法适用于静态页面,但会严重影响搜索引擎对其收录情况,搜索引擎收到到的内容,也都是加密后的内容采集对策:建议不采,如非要采,就把解密码的JS脚本也采下来。

建议:目前没有好的改良建议评论:建议指望搜索引擎带流量的站长不要使用此方法。

三、把内容页面里的特定标记替换为”特定标记+隐藏版权文字“弊端:此方法弊端不大,仅仅会增加一点点的页面文件大小,但容易反采集采集对策:把采集来的含有隐藏版权文字内容的版权文字替掉,或替换成自己的版权。

建议:目前没有好的改良建议评论:自己感觉实用价值不大,就算是加上随机的隐藏文字,也等于画蛇添足。

四、只允许用户登陆后才可以浏览弊端:此方法会严重影响搜索引擎蜘蛛对其收录采集对策:目前落伍已经有人发了对策文章,具体对策就看这个吧《ASP小偷程序如何利用XMLHTTP实现表单的提交以及cookies或session的发送》建议:目前没有好的改良建议评论:建议指望搜索引擎带流量的站长不要使用此方法。

不过此方法防一般的采集程序,还是有点效果的。

五、用javascript、vbscript脚本做分页弊端:影响搜索引擎对其收录采集对策:分析javascript、vbscript脚本,找出其分页规则,自己做个对应此站的分页集合页即可。

建议:目前没有好的改良建议评论:感觉懂点脚本语言的人都能找出其分页规则六、只允许通过本站页面连接查看,如:("HTTP_REFERER")弊端:影响搜索引擎对其收录采集对策:不知道能不能模拟网页来源。

目前我没有对应此方法的采集对策建议:目前没有好的改良建议评论:建议指望搜索引擎带流量的站长不要使用此方法。

不过此方法防一般的采集程序,还是有点效果的。

相关主题