1 / 5
文档名称:

多网卡聚合技术在商业银行的应用.pdf

格式:pdf   大小:3,018KB   页数:5页
下载后只包含 1 个 PDF 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

多网卡聚合技术在商业银行的应用.pdf

上传人:青山代下 2024/5/21 文件大小:2.95 MB

下载得到文件列表

多网卡聚合技术在商业银行的应用.pdf

相关文档

文档介绍

文档介绍:该【多网卡聚合技术在商业银行的应用 】是由【青山代下】上传分享,文档一共【5】页,该文档可以免费在线阅读,需要了解更多关于【多网卡聚合技术在商业银行的应用 】的内容,可以使用淘豆网的站内搜索功能,选择自己适合的文档,以下文字是截取该文章内的部分文字,如需要获得完整电子版,请下载此文档到您的设备,方便您编辑和打印。:..IIk 多网卡聚合技术在商业银行的应用中国工商银行股份有限公司软件开发中心毛淑平目前,金融机构针对数量庞大的服务器已经采用了(2)负载均衡型。由服务器端与交换机配合实现。冷备、热备、N+I备份等多种备份方式来应付各种异常这类方式由服务器和交换机两者共同协商,基于某种协情况,但依然难以满足日益复杂的应用环境需求,尤其议,有可能是个别厂商专有,如Cisco的端口聚合(PAGP) 在网络发生故障时。而部分业务的特殊要求(如仲裁网协议,也可能是某个工业标准, ad标准的中的仲裁机只能有一台),导致某些服务器不能采用上链路聚集控制(LACP)协议,把JL条物理链路聚合成述备份方式。现行网络架构在满足业务连续性上仍存在一条虚拟链路,从而实现冗余功能和收发双向的负载均不足之处。利用多网卡聚合技术对多网卡实施捆绑,可衡功能。以有效提高服务器的网络流量、保障业务运行的连续性。多网卡聚合技术的实现如图l所示。多网卡聚合技术是指将若干张物理卡进行搁绑, 用一个IP对上层应用提供网络服务,从应用层面看, 就像只是一张网卡。具体而言,多网卡聚合技术有如下特点:允许将系统上多块单口网卡或者多口网卡中的不同网口捆绑在一起;捆绑在一起的网卡接口,将使用同一IP为上层应用提供网络服务。这些被捆绑在一起的网卡接口能实现冗余与负载均衡的功能。一多网卡聚合技术概述、。按实现方式,多网卡聚合技术可以划分为两大类。(1)冗余型。由服务器端单独实现。这类方式是在服务器端,通过操作系统组件、网卡厂商软件包或者服 。这类方式都能实现冗余功能, 多网卡聚合技术的核心是链路聚合技术。链路聚合部分平台在实现冗余功能的基础上,增加了发送负载均技术是将两台设备间的数条物理链路组合成逻辑上的一衡。此类多网卡聚合技术的实现对网卡、交换机等硬件条数据通路,称为一条聚合链路(见图2)。该链路在逻要求相对较低,基本不需在交换机端作额外配置。辑上是一个整体,内部的组成和传输数据的细节对上层2030 11/中国金融电脑59 :..服务都是透明的。链路聚合内部的物理链路共同完成数快速以太通道(FEC,Fast EtherChannel,对应百兆据收发任务并相互备份。只要还存在能正常工作的成员, 网)和千兆以太通道(GEC,Gigabit EtherChanne1) 整个传输链路就不会失效。在图2中,如果链路1发生两种。作为链路聚合技术的一种,以太通道具备链路故障,它们的数据收发任务会迅速转移到链路2,凶而, 聚合的两个基本特点,即能实现链路冗余和增加网服务器与交换机之间的连接不会中断。络带宽。比如,通过2条或4条链路,将2个或4个lOOMbit/s或lO00Mbit/s的端口连接在一起,形成一个以太通道。在以太通道中,使用PAGP协议可以很容易地在有以太通道能力的端口间自动建立FEC和GEC连接。配置以太通道时,交换机端口的设置有off、desirable、auto、on(使用PAGP)和active、passive(使用LACP)六种模式。要配置以太通道,Cisco交换机上被捆绑的链路端口必须遵循以下原则:ess端口,必须在同一个VLAN;如果是干线端口,必须使用同一种封装,且VLAN范围要相同;要有相同的速率和双工模式。图2链路聚合示意二、多网卡聚合技术的实现方案链路聚合具有如下一些显著的优点:①实现链路冗不同厂商提供的多网卡聚合实现方案各有差异,但余。链路聚合中,成员互相动态备份。当某一链路中断本质上类似,差异主要体现在具体配置上。本文以最常时,其他成员能够迅速接替其工作。与生成树协议(STP, 用的两种方案加以说明。Spanning—tree Porfast)不同,链路聚合启用备份的过程 AIX的多网卡聚合配置技术在聚合之外不可见,而且启用备份的过程也只在聚合链 ,与其他链路无关,切换可在毫秒级别完成。②增 EtherChannel,属于系统自带组件。EtherChannel有以加链路带宽。链路聚合的另一个明显优点就是能提供一下几种模式。种经济的提高链路传输率的方法。通过捆绑多条物理链 f 1)Standard模式。在该模式中,EtherChannel使路,不必升级现有设备就能获得更大带宽的数据链路, 用算法选择通过哪个适配器将信息包发送出去。算法包其容量在理论上等于各物理链路容量之和。聚合模块按含三部分:取数据值,通过EtherChannel中的适配器数照算法将业务流量分配给不同成员,实现链路级的负载目来除这个值以及使用余数(利用取模运算)识别发送均衡功能。在一个未能整体扩容的网络环境中,如果有链路。此模式为缺省操作方式。服务器需要局部增加带宽,链路聚合是一种不错的方法。(2)round—robin模式。在此模式中,EtherChannel 链路聚合使用最多的是EtherChannel(以太通道) 将轮洵使用适配器,发给每个适配器一个数据包。数据技术。该技术是Cisco公司专有的一种中继技术,分为包可能会以与它们发给EtherChannel的顺序稍微不同的60 中国金融电脑/ :.._甏鹱l麓§ 蕊鬟餐露顺序发出,但它会充分使用其带宽。虽然轮询分发是(2)IP Trunking。1P Trunking实际上是IEEE 等优化所有链路的理想方式,但要考虑它引入接收系统 ,需上无序信息包的潜在可能。要独立安装Trunking软件。该技术只适用于部分网卡型(3)。该模式启用IEEE (相对而言,为较早推出产品),包括ce、ge、qfe等。聚集控制协议(LACP)以获取自动链路聚集。 IP 及双全工(Full—Duplex)模式下,同时,这些网络接口UNIX服务器部可支持EtherChannel。不能再用于络启动。下列网卡可以完全支持EtherChannel和IEEE (3)NAL。NAL也是IEEE : SolariS平台上的一种具体实现,SolariS 10 Update3以1()/100 Mbps PCI Adapter 上都支持该技术(系统自带组件)。该技术只适用于部Universal 4一Port】0/100 Adapter 分卡型号(相对而言,为目前较新推出产品),包括】O/l O0 Mbps PCI Adapter II xge、e1(){)0g、bge等。NAL要求片j于聚合的网络接121 lO/lO0/lO00 Base——T PC1 Adapter 运行在相同速率以及Full—Duplex模式下,并且,已经Gigabit ——SX PCI Adapter 检测的网络接口(即ifconfig—a命令输出结果中包含的10/1 00/1000 Base-TX PCI——X Adapter 网络接口)不能再作为聚合链路成员。Gigabit ——SX PCI——X Adapter 三、多网卡聚合技术的应用2-port lO/100/lO()O B ase—TX PCI—X Adapter -port Gigabit ——SX PCI——X Adapter (1)服务器(包括网卡): UNIX服务器多网卡聚合技术平台的具体实现都有一定的约束条件,需要满足要求的在Solaris平台上,有三种多网卡聚合的具体实现技类型。若服务器原有配置的卡个数不足,需要增加网术,包括IPMP(work multipathing)、IP Trunking 卡,具体数量取决于所使用的多网卡聚合技术以及当前和NAL(Native Aggregation Link)。其中,IPMP属于环境上已有的阀卡数量。冗余型,IP Trunking和NAL属于负载均衡型(适用于(2)操作系统版本:业界主流的操作系统都能够满不同的网卡类型)。足多网卡聚合技术实现的要求,只有多网卡聚合的实现(1)IPMP。Solaris 10自带IPMP功能,可实现在非操作系统自带组件(软件)的个别平台需要额外安装多网卡上绑定—IP。当一个网卡发生故障时,IP可以相关软件。切换到另一个网卡,从而实现IP服务的高可性。此(3)交换机:主流的交换机从功能上都能满足多网外,IPMP还支持外发流量(Spread—out)的负载均衡。卡聚合技术的要求,但要实现负载均衡型多网卡聚合技IPMP一般情况下会配置数据地址(应用系统对外连接术,需要在交换机上进行相应的配置。使用)和测试地址(基于IP层的链路故障检测),但是, (4)实施多网卡聚合需要占用更多的交换机端口, 为了管理简单和节省IP地址,不必l酉己置测试地址。IL#I-, 在数据中心/一级分行服务器接入交换机端口紧张的情IPMP不支持通过DHCP管理数据地址。况下可能需要进行网络扩容。2010 11/中国金融电脑61 :..,保障了应用的稳定和高效运行。但是,实施多网卡聚合技术对应用也会产生一些影响,例如个别具体环境不完全满足多网卡聚合技术要求时,需要硬件、操作系统、软件等进行调整,此外,实施多网卡聚合技术需要一定的停机时问。(1)对于无法进行负载均衡、只能通过备机方式进行冗余备份的关键应用,可以使用多网卡聚合技术规避服务器网卡的单点故障。图3冗余型+数据中心模式(2)对于网络I/O成为服务器瓶颈的应用,可以使用多网卡聚合技术来提高应用的网络吞吐能力,比较适可以在交换机端口下作如下配置:如果是Cisco的设合文件传输量大或者有大量联机业务量的业务系统。备,可以启用spanning—tree portfast,设置端1:3模式为(3)目前数据库服务器的备份主要采用N+I和 switchport mode access;如果是H3C的设备,可以启用Standby技术,网络出现故障后存在一定的切换时间,可 stp edged—port enable。以在关键应用的数据库服务器上实施多网卡聚合技术。(2)负载均衡型+数据中心模式(4)目前,多网卡聚合技术实施以冗余型为主,负如果在数据中心应用负载均衡型多网卡聚合技术, 载均衡型为辅。由于负载均衡型不支持跨交换机冗余, 可以采用如下方式部署(见图4):服务器采用2个或所以不太建议直接实施负载均衡型多网卡聚合技术。但 2个以上网卡(不建议超过8个网卡),而且必须是同是,对于个别非生产业务应用(如集中备份服务器), 一类型的网卡,并通过网线连接同一台二层交换机端交换机故障几率较低,可以适当考虑直接实施负载均衡口,确保同台服务器连接交换机的端口都在同一VLAN 型多网卡聚合技术。而对于AIX或者Solaris平台,由于可以提供组合模式(即AIX上的EtherChannel+备份网卡、Solaris平台上的IP Trunking/NAL+IPMP这两种方式实现基于负载均衡的跨交换机冗余),则可以实施跨交换机冗余的负载均衡型多网卡聚合技术。(1)冗余型+数据中心模式如果是在数据中心应用冗余型多网卡聚合技术,可以采用如下方式部署(见图3):服务器采用2个网卡, 而且必须是同一类型的网卡,通过2条线分别连接2 台二层交换机端口,确保同台服务器连接交换机的端口都在同一VLAN下。服务器采用单网卡发送方式, 图4负载均衡型+数据中心模式中国金融电脑, :..器l壤l羹llI[e疆 lI[Ilit 黯下。可以在交换机端口下作如下配置:如果是Ci SCO的设备,可以在连接服务器的端Ll时,启用spanning—tree portfast,ess模式,并把所有连接同台服务器的端口作链路聚合,; 如果是H3C的设备,可以启用stp edged—port enable, 并设置lacp enable,采用动态LACP聚合方式。(3)冗余型十一级分行模式如果是在一级分行应用冗余型多网卡聚合技术,可以采用如下方式部署(见图5):服务器采用2个卡, 而且必须是同一类型的网卡,通过2条网线分别连接2 台三层交换机端口,确保同台服务器连接交换机的端口图6负载均衡型+一级分行模式都在同一VLAN下,服务器可以使用单网卡发送方式, 并且发送和接收数据的主网卡最后连接在主三层交换机口,确保同台服务器连接交换机的端口都在同一VLAN A的端口下。可以在交换机端口下作如下配置:如果是下。在所接的交换机端口下作如下配置:如果是Cisco Cisco的设备,可以启用spanning—tree portfast,没置端的设备,可以启用spanning—tree portfast,设置端口模口模式为switchport mode access;如果是H3C的设备, ess模式,并把连接同台服务器的所有端口作链可以启用stp edged—port enable。路聚合,;如果是H3C的设备, 可以启用stp edged-port enable,并设置lacp enable,采用动态LACP聚合方式。由于数据中心和一级分行在网络架构上存在区别, 因此,多网卡聚合技术在实施时应当区分开,但是可以同步进行。可以考虑试点策略,即先选择低带宽的应用进行试点,再进一步推广到高带宽应用,并按应用的业务类型和重要性分类,先在重要性较低的应用中试点, 待运维经验成熟后逐步推广至重要性更高的应用。圜图5冗余型+~级分行模式模式(4)负载均衡型+一级分行模式如果是在一级分行应用负载均衡型多网卡聚合技术,可以采用如下方式部署(见图6):服务器采用2个或2个以上网卡(不建议超过8个网卡),而且必须是同一类型的网卡,