当前位置:文档之家› 缓存技术

缓存技术

一、缓存技术缓存技术是一种在本地存储经常访问的信息的一种技术。

Web缓存在用户本地的存储设备上存储Web网页及其内容,这要比Web查询快。

通过减少WAN链路和Web服务器上的传输量,缓存为ISP、企业网络及终端用户提供了以下一些好处。

1、减少W AN带宽的占用,降低成本。

ISP把缓存引擎(Cache Engine)置于网络关键点上,以提高响应时间,降低骨干网上的带宽占用需求。

ISP也把缓引擎置于W AN 访问的关键点上,使其能从本地磁盘上为Web查询提供服务,而不能远距离或通过Web服务器读取信息。

在企业网中,由于Web缓存技术可以用低成本、低带宽的W AN链路服务同一个位置的用户群,从而大大降低了对带宽的占用时间。

企业可以利用现有的W AN链路带宽增加用户数,并为用户提供更多的服务。

2、提高终端用户的效率。

本地Web缓存的响应时间比W AN下载相同内容的时间快三倍,终端用户可明显感到响应时间的加快,并可实现完整的传输。

3、安全访问控制及监测。

缓存引擎为网络管理员提供了一个简单、安全的方法,通过URL过滤机制,可加强基于站点地址的访问控制策略。

4、可操作日志记录。

网络管理员能了解哪些URL被点击、每秒缓存服务多少个查询、从缓存提取的URL的百分比是多少以及其它操作相关的统计数据。

Web缓存按以下步骤工作:1、用户访问Web网页;2、当网页传输给用户时,缓存系统存储网页并把与其相关的图文存储到本地存储设备上;3、另一个用户(或初始用户)访问此网页;4、Web缓存从本地存储器中取出网页,而不用在Internet上发送查询信息,这样就加快了下载速度,减少了W AN链路的带宽需求;5、不同的系统对保证缓存信息与源信息同步更新的方法各不相同。

IP缓存加快网络访问速度I P超高速缓存(I P C a c h i n g)已经成为优化使用带宽和提高网络性能的一种良好的解决方案。

对最终用户的近端所需文件频繁存储,可以降低相应的W A N或I n t e r n e t连接的带宽需要,这样反过来又省去了或延缓了昂贵的升级之需。

因为所有通信都是以L A N的速度传输,这同样提高了最终用户的性能。

这种缓存技术减少了W A N的数据链接流量,减轻了W e b服务器的负担,它给I S P、企业网与最终用户都带来了显而易见的好处。

1.减小W A N的带宽从而降低了网络开销;2.提高最终用户的效率。

采用了I P缓存技术的网络,从缓存服务器中下载的回应速度要比从W A N上下载同样的内容快3倍。

现实的提速方案早在万维网流行以前人们就知道I P缓存的这个好处。

典型的例子是I n t e r n e t上诸如F T P、G o p h e r和n e w s g r o u p s之类的归档文件的存放,文件在世界各地以镜像方式就近存放。

但对于H T T P,由于用户请求的随机性数据量大和时间相关性强,镜像存储并不可行。

I P缓存服务器对H T T P就相当于对上述归档协议的镜像存储。

这两种缓存服务器工作原理基本相同。

I P缓存服务器截获浏览器向W e b服务器发出的数据请求,当这部分数据从W e b服务器下传给浏览器时,将它们存在硬盘上。

这样,以后I P缓存服务器再截获到类似请求时,就可以直接把相应的缓存数据发给请求者。

I S P由于面对来自用户和I C P方要求提高服务质量的压力,成为了I P缓存服务器的主要使用者。

对于用户来说,更快的连接如D S L s(D i g i t a l S u b s c r i b e rL i n e s)、I S D N和C a b l e M o d e m s将取代链路中的薄弱环节———电话M o d e m(目前一般它的最大传输速率为56k b i t/s)。

那些升级了他们因特网接入的用户,将感到浏览器性能有明显的提高,同时更大的数据流量也将注入I n t e r n e t主干线。

在市场的推动下,I S P寻求性能价格比更高的方法来充分利用现有网络带宽,I P缓存则是现在和将来的主要解决方案。

代理服务器是前身典型的早期缓存服务器是代理缓存服务器。

它们为一组用户提供数据代理服务,接受用户的请求并转发到目的地。

作为所有用户访问I n t e r n e t唯一的接入点,代理服务器要进行内容过滤、用户认证、活动日志及数据缓存,和防火墙一起,它是一种安全的接入I n t e r n e t 的方案。

最早的代理缓存是基于软件的H a r v e s t C a c h e,它是1994年到1996年美国几家研究部门资助的一个联合研究项目的成果。

从那时起,市场上陆续出现了一些代理缓存服务器。

其中最引人注目的有M i c r o s o f tN e t s c a p e C o m m u n i c a t i o n s和N o v e l l等几家,它们的代理缓存服务器都与其各自的公司产品紧密结合。

除了有缓存功能,它们还有许多代理功能,如用户认证、内容过滤、病毒检查、安全、活动日志等。

“软”变“硬”是主流1997年一个题为“为什么有缓存的”的报告中,研究机构F o r r e s t e r预言缓存将从软件转向硬件。

D a t a q u e s t1998年7月也同样预言硬件缓存将是缓存市场的主流。

因此1998年许多供应商纷纷公布了硬件缓存的应用。

他们声称硬件缓存比纯软件好,因为操作系统和缓存硬件是紧密集成的,并针对缓存进行了优化。

他们还声称其产品易于安装和配置,是一个更安全的平台。

概括地讲,基于软件的缓存,如代理缓存,是针对代理特性来设计的,而硬件缓存装置能支持繁重的缓存任务,并且也能用于代理。

值得注意的是最近推出的,相对低廉的缓存装置。

这些基于非专有硬件和软件的设备,是预先配置好的,着重于低价和易用。

它们对于小公司和那些希望只在工作组内实行缓存,又因以前的解决方案价格过高或操作过繁而犹豫不决的大公司特别有吸引力。

现有的协议I C P(I n t e r n e t C a c h i n g P r o t o c o l),来源于H a r v e s t P r o j e c t的早期缓存研究,规定了多个I P缓存如何交换有关W e b内容的新信息,如何从对等的缓存上检索数据(如从源W e b服务器上检索相应数据)。

通过I C P,缓存服务器的管理员可以将机器配置成能检索其他支持I C P的缓存。

如一个本地的缓存可以轮询上一级的缓存,看看它们是否得到所需文件的更新拷贝,或者是否核实了该文件在源地的保存时间。

即使上一级的缓存没有文件的新版本,它也可能在更近的时间里核实了该文件在源地没有被更新或者以一个新的版本存储。

依赖于本地缓存的更新算法,可用该信息从源地得到文件的一个新版本,或是利用本地的版本。

轮询上一级的缓存数据因来回要耗时,延迟也会相应地增加,但因请求无需传到源地去,仍可节省大量的时间。

另外,从就近的基于I C P链接的缓存获得数据,一般会减少I n t e r n e t主干网的阻塞,为I n t e r n e t的其他用户节省了带宽。

目前市场上的缓存几乎都支持I C P。

和I C P一样,C R P(C a c h i n g A r r a y R o u t i n gP r o t o c o l)是缓存对等协议,它主要着重于本地缓存服务器间的载荷平衡。

它是由M i c r o s o f t起草的,已经作为I n t e r n e t提议提交给了3W C(W o r l d W i d e W e bC o n s o r t i u m)。

除了M i c r o s o f t,其他不少的厂商如P a c k e t s t o r m T e c h n o l o g i e s和S u n也支持C A R P。

不足之处代理缓存方案有两个主要缺点。

第一,缺乏透明性。

目前,为了将对W e b的访问要求指向一个本地缓存服务器而非原来的某个远程服务器,有的必须将W e b浏览器的客户端的所有请求配置成指向缓存服务器。

尽管这对于经验丰富的用户来说也许并不难,只需重新配置客户端浏览器,但这也是大多数网络管理员所尽量避免的,因为这样做,对于任何大规模的安装管理、技术支持和统一规划用户来说,实在是太麻烦了,而且开销也过大。

第二,可扩展性不足。

现在的系统局限在缓存器的大小、增长和性能上,目前的W e b缓存服务器包括防火墙代理服务器,网络管理员们现在正面对着他们曾遇到的,与早期防火墙相同的扩展性局限。

结果是当今的缓存服务器系统不提供成千上万同时产生的,链接增长的路径,网页的存储以及容错等等,缓存服务器被设计者们限定成一个孤立的、集中的缓存装置。

为了克服缺点,可以安装基于策略的路由器或第四层的交换机将数据流重定向到一组缓存服务器,实现透明的缓存。

这些缓存服务器截获发向H T T P80端口的请求并重定向到缓存服务器,由它来接管H T T P请求并将所需数据回传给浏览器。

一个真正透明的缓存方案还应该支持缓存服务器负载平衡以及故障恢复的功能。

典型的第四层交换机有A l t e o n N e t w o r k s的A C E d i r e c t o r和F o u n d r y N e t w o r k s的S e r v e r I r o n。

联想iCache的基本工作方式及应用环境浅析2000年03月-04月第二十四期作者:李晓洪;创建时间:2000-05-19联想iCache产品可放置于网络的多个点上,每台设备可服务于一组用户、工作组或地理区域。

联想iCache产品有Internet加速(正向代理), Web服务器加速(反向代理),高速缓存分层, 高速缓存集群四种工作方式。

这里我们主要介绍一下前两种工作方式:正向代理与反向代理。

Internet加速(正向代理)正向代理用来加速用户(如浏览器)请求响应的时间。

从网络配置观点看,这不是最简单的方法。

但是,它确实要求所有用户将其浏览器配置为将联想iCache设备作为代理服务器使用,而代理已经被定义为可以在Cisco路由器或L-4交换机(透明代理)之后透明地发挥作用。

基本上讲,正向代理的操作原理如下(见图3):(图3).浏览器从其正向代理服务器设备iCache请求初始web服务器的web页面。

转发代理服务从DNS获得数字IP。

从Web server上获得初始服务器的对象。

iCache将收到的对象的副本转发到浏览器。

转发代理服务无需访问DNS或初始Web服务器即可处理。

相同页面对象的后续请求。

1.系统中的用户发出浏览器请求,要求访问某Web站点。

为方便起见,我们称此站点为。

相关主题