解析路由器实现负载均衡的三种模式 负载均衡”概念运用在网络上,简单来说是利用多个网络设备通道均衡分担流量。负载均衡可运用多个网络设备同时工作,达成加速网络信息的处理能力,进而优化网络设备的性能,取代设备必须不停升级或淘汰的命运。
下面是我整理的路由器实现负载均衡的三种模式相关知识,欢迎阅读! 首先提出多WAN概念的侠诺科技,在多WAN的基础之上,也很快地就加入了负载均衡的功能。
“侠诺负载均衡”根据接入运营商种类,可区分为两大类型。第一类是接入多条相同运营商线路时,可运用智能型负载均衡、指定路由模式,达成多条线路均衡负载的作用,避免单一线路出现雍塞的弊病。第二类是接入不同运营商线路时,可采用侠诺策略路由,将属于不同运营商线路的应用封包流量,清清楚楚的分流,有效降低跨网的门坎,达成信息存取加速的目的。 图一:Qno侠诺负载均衡模式管理页面 侠诺科技从其技术论坛统计中发现,近期许多用户纷纷发贴提问,想了解再接入多条线路之后,如何进一步设定最佳的负载均衡模式。
侠诺科技深圳技术中心主任文浩坚介绍,目前提出的三种不同的负载均衡模式,可较全面的包含各种网络架构中所应采取措施,三种模式分别是: 模式一:智能型负载均衡 智能型负载均衡模式,是依据接入WAN端带宽的大小比例,自动完成负载均衡工作,进一步协助达成带宽使用率的优化目的。Qno侠诺在智能型负载均衡模式中,提供了联机数均衡与IP均衡两种选择。 联机数均衡是依据WAN端带宽大小比例,将内网所有的联网机数作均衡分配。
例如WAN1接入4M、WAN2接入2M,则联机数就会依据2:1分配。此种配置是网管员最一般的配置模式。 而IP均衡模式是为了避免某些网站(EX银行网站或HTTPS类型的网站),只能接受来自同一个公网IP的所发出封包的瓶颈。
如果采用联机数负载均衡模式,会发生该IP所发出的访问封包不一定是从固定WAN口流出,造成特定网站拒绝服务,导致断线的情况发生。如果采用IP均衡,让IP依据WAN端带宽大小进行比例均衡分配,例如WAN1与WAN2的带宽比例为2:1,则PC1、PC2走WAN1,PC3走WAN2,PC4、PC5走WAN1……,即可达到同一个内网PC所发出的应用服务封包,都从固定的WAN口(公网IP)流出,而整体内网IP也会依据带宽大小比例,自动进行均衡配置。此种配置比较适合常常需要进入特定网站时选择。
图二:智能负载均衡 模式二:指定路由 指定路由比起智能型负载均衡而言,是保留了更多的自由设定弹性与例外原则。由于智能型负载均衡是针对整体内网联机数或是整体IP进行均衡分配。并不能个别指定某种应用服务、某个特定IP、某个特定网址,通过哪个WAN口出去。所以,有时会造成特定的服务(例如邮件、VOIP等)或特定的人士(公司老板、高管等)不能有享有优先或例外的不便。
因此,指定路由是提供可配合协议绑定,先分别指定哪个应用服务、哪个IP网段、哪个目的网址,走哪个WAN端口。而其余剩下未绑定的部份,再进行智能型负载均衡,同样也有协议绑定模式或是IP均衡模式两种选择。 图三:协议绑定界面图 模式三:策略路由 由于大陆地区普遍存在电信、网通彼此互连不互通的跨网瓶颈。某家公司若同时接入电信网通线路,有时会明显发现要从电信去访问网通所提供的服务(如游戏下载等其它应用),会发现非常的缓慢,这就是服务器互访非常困难所造成的问题。
侠诺科技特别提出的策略路由设定,让两个以上互连不互通的'ISP线路分流,让电信服务走电信、网通服务走网通,加速服务存取的速度,可大大减低跨网的瓶颈。Qno侠诺在在产品的接口设计上采用了内建的网通策略模式,指定哪些WAN口只给网通走,即可快速设定完成。如果有其它的ISP线路需要做策略路由,也可采用自定的策略模式。 策略路由除了普遍应用在电信网通分流之外,也同样可运用在跨国企业、校园网络专线、公众网络、医保专线与一般网络的双网配置架构中,可帮助整合、加速双网的服务质量。
图四:策略路由 强调,通过路由器的负载均衡模式,可以在一定程度上解决网络拥塞问题,提高内网服务器响应时间、提高网络资源的利用效率,从而为宽带网络用户提供更好的网络互联质量。通过以上介绍,用户可根据自身情况,选择最适合的负载均衡模式。
已找到答案。
pppoe和ip的设置还是有一点儿区别的。
现在我这里网吧就用ip网关的形式,小区管理用户则用内网pppoe,都可以多线负载均衡。谢谢上面回贴的朋友,这里的高手都跑那里去了?新人都不给指导以后这论坛的人气会越来越淡。
1:找分区或目录同步软件,某台服务器改动了自动把修改应用到别的服务器,比如红旗的HA。 2:换种建服务器的思路,后台用一台独立的服务器做数据库和文件服务器,用来存放数据库和上传的文件,另外的做负载均衡运行服务器,把不需要变动的网页程序放上面。
你可以试试在一台服务器做WEB和数据库,另外一台做WEB,两个WEB都连接那一个数据库,这样两个WEB内容就是同步的了,然后两台WEB间做负载,下边是我COPY的 网络负载均衡可以让客户端用一个逻辑Internet名称和虚拟IP地址(又称群集IP地址)访问群集,同时保留每台计算机各自的名称。
下面,我们将在两台安装Windows Server 2003的普通计算机上,介绍网络负载均衡的实现及应用。 这两台计算机中,一台计算机名称为A,IP地址为192.168.0.7;另一台名为B,IP地址为192.168.0.8。规划网络负载均衡专用虚拟IP地址为192.168.0.9。当正式应用时,客户机只需要使用IP地址192.168.0.9来访问服务器,网络服务均衡会根据每台服务器的负载情况自动选择192.168.0.7或者192.168.0.8对外提供服务。
具体实现过程如下: 在实现网络负载均衡的每一台计算机上,只能安装TCP/IP协议,不要安装任何其他的协议(如IPX协议或者NetBEUI协议),这可以从“网络连接属性”中查看。 第一步,分别以管理员身份登录A机和B机,打开两台机的“本地连接”属性界面,勾选“此连接使用下列项目”中的“负载均衡”项并进入“属性”对话框,将IP地址都设为192.168.0.9(即负载均衡专用IP),将子网掩码设置为255.255.255.0; 第二步,分别进入A机和B机的“Internet协议(TCP/IP)”属性设置界面,点击“高级”按钮后,在弹出的“高级TCP/IP设置”界面中添加IP地址192.168.0.9和子网掩码设置为255.255.255.0。 第三步,退出两台计算机的“本地连接属性”窗口,耐心等一会儿让系统完成设置。
以后,如果这两台服务器不能满足需求,可以按以上步骤添加第三台、第四台计算机到网络负载均衡系统中以满足要求。 用IIS服务验证网络负载均衡 网络负载均衡配置好后,为了实现某项具体的服务,需要在网络负载均衡的计算机上安装相应的服务。例如,为了实现IIS网站的负载均衡,需要在相应的网络负载均衡服务器上安装IIS服务。
为了让每个用户在通过网络负载均衡访问到不同的计算机时,能够访问到一致的数据,需要在网络负载均衡的每台计算机上保持数据的一致性。举例来说,实现了两个节点的IIS的网络负载均衡,为了保证两个网站内容的一致性,除了这两个IIS服务器的配置相同外,相应的网站数据必须一致。 为了检验网络负载均衡,我们可以通过IIS来进行验证,其他的一些应用如终端服务、Windows Media服务与IIS的应用与之相类似。
在其他计算机上的IE浏览器中键入192.168.0.9,根据网络的负载,网络负载均衡会自动转发到A机或B 机。为了验证效果,你可以在浏览的时候,拔掉第一台计算机的网线或拔掉第二台机器的网线,将会发现浏览到的将是不同内容。当然,我们在测试的时候,为了验证网络负载均衡的效果,把两个网站设置成不一致的内容,而在正式应用的时候,网络负载均衡群集的每个节点计算机的内容将是一致的,这样不管使用哪一个节点响应,都能保证访问的内容是一致的。
随着用户访问的增多,一个应用服务器不能满足需求了,就需要部署多台应用服务器,通过负载均衡,将数据分发到不同的应用服务器。 从作用来看,和缓存集群的分发很相似,但是有不同。
缓存需要发送到特定的服务器。
但是,由于应用服务器是无状态的,因此,负载均衡不用根据请求分发到特定服务器,发送到哪个应用服务器都可以。 因此,负载均衡关注的技术焦点有两个,分别是:网络通信、路由选择 网络通信分为以下几种方法。 负载均衡服务器什么都不做,重定向响应 这种方法优点是简单,但是缺点也很明显: 由于这些问题,这种方法,在现实中几乎没有人使用。 每次请求DNS解析到IP地址不同,从而访问到不同到应用服务器。
这种方法,性能方面没有问题,虽然,还是2次http请求,但是不是每一次请求都需要域名解析,一次解析,ip就会记录到本地。下次,直接访问记录的ip。因此,性能无问题。
但是,由于域名解析服务器解析出的ip,如果出错,不会很快更新,且用户已经本地存储了ip也不会很快改变。因此,采用这种方案时,需要两级负载均衡。若应用服务器出错,在第二层负载均衡去掉。
对于安全性,现实使用时,该方法主要适用于两层负载均衡的情况,DNS负载均衡用于第一层负载均衡,解析出来的是第二层负载均衡服务器,因此,脆弱的服务器还是可以在内网中。淘宝、百度,不同时间ping,返回地址不同,意味着都是用了DNS负载均衡。 在应用层进行负载均衡,收到请求时,将请求转发到内网,再将收到的内网响应,返回给用户。
nagix本身的反向代理服务器,就有该功能。一般应用服务器是几十台,这种模式够用,再多一些,会不够用。因此,大一些的网站不会使用。 因为用的http请求协议,http比较重(比tcp的包重)。
对反向代理服务器压力很大,其通过应用程序级别的线/进程才能完成分发,还要等应用服务器返回,因此,会有性能瓶颈。即使负载均衡做集群效率也低,因为后面的应用服务器有限。 因此,可以应用的规模很有限。 负载均衡服务器,和反向代理负载均衡原理相同,但是是在tcp层,修改包中源地址和目标地址,并发送到内网,收到响应后,再修改目标地址和原地址,返回给用户。
因为,负载均衡服务器处理的是ip那一层包,因此,处理能力可以提高。 但是,这种方法,请求和响应都通过了负载均衡,尤其是响应一般比较大。响应出口网络带宽会成为瓶颈。 数据链路层负载均衡,IP地址不变,只修改网卡MAC地址。
应用服务器和负载均衡服务器共享一个虚拟ip。因为ip没有被修改过,tcp/ip协议还是通的,可以通过校验。又由于目的地址的mac地址改变了,因此,处理响应不用再经过负载均衡服务器。
大型互联网应用主要使用的负载均衡方案,也称为负载均衡的三角模式。 轮询 .... 该方案已经被淘汰的。 通过session复制的方式,集群规模会受限制,复制不过来。
做集群就是因为用户请求多,请求多,session也多,如果每个都有所有的session,对服务器压力很大。 来自相同的ip,总是到同一个应用服务器。这种方法也很快就淘汰了。 因为,会话需要会话关闭,如果因为发布程序,kill进程,session丢失。
系统的可用性会下降。 发请求时,带COOKIE发送服务器,session记录的COOKIE中,返回给浏览器。任何一台服务器可以重COOKIE里得到session。
缺点:COOKIE变大,网络开销有影响。且有些浏览器禁用COOKIE,不好用。 早期使用的这个方案。缺点明显,但是生命力强。
对服务器架构要求很低。
1.天融信负载均衡天融信网络卫士TopApp-LB负载均衡系统是一款融合了智能带宽控制功能的链路及服务器负载均衡产品。通过对网络出口链路和服务器资源的优化调度,TopApp-LB负载均衡系统让大规模的应用部署轻松实现,同时达至最稳定的运行效果,最高的资源利用率,最佳的应用性能和用户体验。
大量的企事业单位通过TopApp-LB负载均衡系统顺利实现了应用部署,满足了信息化发展的需求,并极大地提升了工作效率。
·二合一负载均衡集成高性能链路负载均衡和服务器负载均衡,保证应用数据在错综复杂的网络中获得最佳传输路径。完善的链路、应用服务健康检查机制,及时诊断出不能正常工作或负载过重的链路和服务器。能够根据应用、链路的健康状况,智能调整流量在多链路、多服务器之间的分配,并自动完成切换,提升网络和应用的可用性。·精确流量控制提升带宽价值创新的端到端精确带宽控制与均衡技术避免了传统队列机制所带来的广域网下行带宽的浪费,真正实现优先级管理、带宽限制、带宽保障以及带宽的公平使用,提升带宽价值。
·高可用性保证实现多机集群及Active-Standby、Active-Acitive模式的高可用性部署,最大化应用运行时间,避免了设备或网络故障对业务的影响。·强化的安全保护状态检测防火墙实现高性能的访问控制,双向NAT支持多对一、一对多和一对一等多种方式的地址转换,IP/MAC地址自动扫描及绑定,有效抵御数十种网络攻击。·易于使用及部署单臂、双臂可选的接入模式最大程度上减少用户网络结构的调整。
负载均衡算法的自适应管理、内置中国ISP地址列表、服务器故障自动通知及应用故障自动修复等降低了用户配置管理的复杂性。2.F5负载均衡器目前全球范围内应用最为广泛的负载均衡设为为美国F5公司。F5公司于2000年底进驻中国,目前已分别在北京、上海、广州、成都、深圳、珠海设立了办事机构。
在华拥有超过500位的F5认证工程师,为遍布全国的用户提供全面的技术支持。在国内业界,F5产品已经成为了主流负载均衡技术的代名词。产品技术特点:1)全面的负载均衡BIG-IP LTM(本地流量管理)包含静态和动态负载均衡方法,包括动态速率、最少连接和观察模式的动态平衡,这些方法用于以整体方式跟踪服务器的动态性能。
这保证了始终选择最佳的资源,以提高性能。可支持所有基于TCP/IP协议的服务器负载均衡。可支持最小连接数、轮询、比例、最快响应、哈希、预测、观察、动态比例等负载均衡算法。2)应用状态监控BIG-IP LTM提供的监视器,用于检查设备、应用和内容的可用性,包括适合多种应用的专用监视器(包括多种应用服务器、SQL、SIP、LDAP、XML/SOAP、RTSP、SASP、SMB等),以及用于检查内容和模拟应用调用的定制监视器。
3)高可用性和交易保障BIG-IP LTM提供了次秒级系统故障切换和全面的连接映射,无论出现何种系统、服务器或应用故障,都能保证它是一个高可用的解决方案。BIG-IP LTM可以主动检测和响应任何服务器或应用错误。4)支持NAT地址转换提供NAT地址转换功能,能够实现动态或静态地址转换。5)支持访问控制列表能够实现防火墙的基本功能,建立访问控制列表,拒接IP网段或端口号吗。
6)广域流量管理器(插件模块)为在全球各地的多个数据中心中运行的应用提供高可用性、最高的性能和全局管理。7)链路控制器(插件模块)无缝地监控多个WAN连接的可用性和性能,智能地管理站点的双向流量,从而提供容错的、经过优化的互联网接入。比如管理控制CT和CNC的网络流量。8)应用防火墙(插件模块)该模块可加入到F5设备中,为设备提供更高级的安全服务。
9)支持路由该功能为F5设备中基本功能,但只支持静态路由,如果使用较为高级的OSPF路由协议,需要购买单独的模块来支持。扩展应用-降低服务器负载1)内容转换BIG-IP LTM为将许多繁杂或者重复功能卸载到集中的高性能网络设备上提供了全面的解决方案。SSL、压缩以及BIG-IP LTM的其它多项功能提供了一个完整的内容转换网关,可重定向、插入或者全面转换应用内容,以实现有效且高效的应用集成。
2)OneConnectF5 OneConnect? 将数百万个请求汇聚为几百个服务器端的连接,确保后端系统能够高效地处理这些连接,从而使服务器容量提高60%。3)高速缓存智能缓存功能通过将重复流量从Web和应用服务器上卸载,使服务器容量提高9倍,从而实现显著的成本节约。该功能也是业内唯一提供多存储库缓存的解决方案,能够针对各应用或部门管理不同的缓存库,为高优先级的应用提供精确的智能控制。
4)SSL加速和卸载每个BIG-IP LTM设备提供了硬件加速方式的SSL加密,以消除应用服务器的SSL负担。通过加快设置和批量加密,企业可以采用更安全的密码将全部通信迁移到SSL,几乎不会导致应用性能下降或瓶颈。优化的应用1)智能应用交换BIG-IP LTM拥有读取所有IP应用的独特能力,因此,它可以转换并且持续保留特定供应商的应用服务器(Microsoft、IBM、Oracle、SUN等)的独特信息; Web服务应用的XML数据;或者指示移动/无线应用的定制数值。您的企业可以借助BIG-IP LTM转换、记录以及持续保留有效负载或数据流的能力,实现更高的可靠性和可扩展性。
2)智能压缩将应用性能提高至3倍,同时使带宽的使用量减少80%。使用业界标准的gzip和DEFLATE压缩算法减少HTTP流量,通过更慢/低的带宽连接降低带宽消耗量,缩短用户下载时间。这一功能对于压缩多种类型的文件提供了丰富的支持能力,包括HTTP、XML、Javascript、J2EE应用等。
3)灵活的第4至7层流量整形通过为更高优先级的应用分配带宽,控制流量峰值,并且根据第4层或第7层参数确定流量的优先级,保证最佳的应用性能。即目前我们IDC机房在核心交换机上所启用的QOS功能。4)TCP ExpressBIG-IP LTM的高度优化的TCP/IP堆栈(称为TCP Express?)将TCP/IP技术和最新RFC的改进功能,与F5开发的多项改进和扩展功能相结合,最大限度降低了拥塞、丢包和恢复的影响。BIG-IP LTM是一个全代理设备,因此,TCP Express可以屏蔽并且透明地优化服务器或客户端上运行的原有的或者不兼容的TCP堆栈。
这样可以使用户的性能提高2倍,并且使带宽效率提高4倍,同时降低您的服务器上的连接负载。安全的应用1)基础防火墙功能——数据包过滤BIG-IP LTM集成了一个控制点,用于定义和执行基于第4层的过滤规则(基于PCAP,类似于网络防火墙),以提高网络防护能力。2)资源隐藏和内容安全BIG-IP LTM对所有应用、服务器错误代码和真正的URL参考实现了虚拟化和隐藏,因为这些可能为黑客提供关于基础架构、服务及其相关漏洞的信息。
敏感的文档或内容将不允许离开您的站点。3)定制的应用攻击过滤全面的检测和基。