存储设备架构剖析51CTO博客 - 威尼斯人

存储设备架构剖析51CTO博客

2019-01-03 16:35:39 | 作者: 运珹 | 标签: 架构,存储,设备 | 浏览: 199

 

磁盘阵列是最常用的存储设备,从最简略的单控磁盘阵列到杂乱的矩阵交流结构的多控阵列,能够满意不同等级的使用需求。单控磁盘阵列组成比较简略,其中心是一个RAID操控器,一个机柜中能够装备十多块磁盘,经过RAID操控器完成RAID功用。这种磁盘阵列一般会支撑逻辑卷办理的功用,能够将RAID设备池化,然后依据使用需求导出不同的LUN设备。在导出协议这一块,一般会选用ISCSI协议,满意低端IPSAN的使用需求。   单控磁盘阵列的最大优势是成本低,可是可靠性比较差。RAID操控器呈现问题时,无法供给持续存储效劳。为此,在单控的基础上开展成双控磁盘阵列。双控磁盘阵列能够分为Active-Standby,Active-Active作业形式,前者作业形式比较简略,Standby的操控器需求对Active操控器进行心跳监测,一旦发现Active操控器呈现问题时,能够顶替该操控器的人物,持续为用户供给存储效劳。Active-Standby增强了体系可用性,可是,没有因而带来吞吐量的进步。Active-Active不只增强体系可用性,并且进步了存储体系功用。在完成上,后者杂乱了许多,不只要处理存储同享的问题,并且需求两个操控器进行内存同步。为了处理操控器间高效内存同步的问题,能够选用PCI-Express的非通明桥技能。   一般咱们看到的IPSAN磁盘阵列便是一个Box,存储容量是有限的,在面向中端用户的使用中,需求容量和功用更高的存储设备。为此,呈现了一个机头带一堆盘柜的存储设备,该类设备的结构如下图所示: 机头经过multipath的方法衔接一切盘柜,一切盘柜经过环形衔接的方法串联起来。这种体系衔接方法比较简略,带来的问题是盘柜数量会影响体系IO功用。在老体系中,后端是经过FC总线互连的,在现有的许多体系中都是经过SAS总线进行互连。这种存储体系具有独立的操控设备,因而具有很强的处理才能,不只能够完成单个磁盘设备中的RAID,卷办理,并且能够完成存储虚拟化、快照和文件体系等杂乱功用。可是,单个操控器简略引进单点故障问题,因而,许多存储设备厂商供给的设备多为双操控节点的架构。如EMC的VNX的存储设备就选用诸如此类的双控架构:     双控多机柜的方法尽管能够满意容量上的需求,可是很难满意一些高功用使用的需求。经过扩展磁盘柜能够完成容量的扩展,可是,体系的导出接口以及后端的盘柜串行结构会是体系的IO功用瓶颈点。为此,双控多机柜的架构很难在高端存储使用得以使用。   为了获取高功用,只要将后端的盘柜串行网络打破,并且选用多操控器的方法,完成全体体系的高功用。CC-NUMA结构是高功用核算中的重要架构,同样在存储范畴得到了许多使用。闻名的Symetrix DMX和VMAX都是典型的CC-NUMA结构,该类存储体系的结构能够描绘如下:     从结构中咱们能够看出,该架构的实质是双控或许单控设备的集群,并且经过集群互连总线同享内存,组成NUMA体系,在软件上看到一个一致的内存,简化软件完成。在VMAX设备中,两个操控器构成一个HA对,同享盘柜组,避免了上述暗示图中的单点故障问题。一切操控器经过RapidIO总线互连,然后每个操控器都能够快速拜访本地内存,并且能够经过RapidIO拜访remote内存。VMAX将这种互连总线称之为matrix interface,这种互连方法的最大缺陷在于可扩展性比较差,没有办法扩展足够多的节点。VMAX中的两个操控节点的内存结构暗示图如下所示:

 

在存储范畴中,HP的3PAR选用和VMAX相似的结构,可是互连总线选用的是PCI-Express。这类体系尽管具有单机很高的功用,可是,很难真实做到Scale out。为了构建愈加灵敏的存储体系,不只具有很高的功用,很大的存储容量,并且需求做到极高的可扩展性和高可用性。为此,许多厂商在MPP集群体系的思维指导下,推出了MPP集群存储体系,该类存储体系的体系结构如下所示:

 

和CC-NUMA体系结构比较,MPP集群不会同享内存,因而,后端网络选用的是交流互连网络。每个操控器和盘柜组构成一个独立的存储节点,一切的存储节点之间经过后端交流互连网络衔接在一起,完成集群存储。当体系中的恣意节点接收到数据信息之后,都会经过后端网络将这个处理之后的信息进行转存或许进行数据冗余。这种架构最大的优点在于可扩展性强,不受制于matrix interface的约束。最大的下风在于后端网络往往是体系功用的瓶颈点。在现有产品中,EMC的Isilon就归于这种架构,这以后端网络选用Infiniband进行互连,意图便是为了增强后端网络功用。在MPP的架构中,上述暗示图将盘柜组和操控器进行了绑定,当然,咱们也能够将一切盘柜组和后端互连网络衔接在一起,这样能够同享一切盘柜组。IBM的XIV存储体系便是选用的这种架构:

 

MPP架构在可扩展性和可靠性方面体现特殊,可是对后端网络的规划要求严苛,一般也是功用的瓶颈点地点。上述许多的存储架构都是在优化操控器和磁盘柜之间的联系,企图经过操控器和磁盘柜的拜访并行化来进步功用和可靠性。可是,有没有一种在更高层次既完成简略又能到达相同意图集群架构呢?答案是必定的,其实在集群文件体系的视点能够比较简略的完成数据存储的集群化。HDFS和国内的蓝鲸文件体系便是选用的这种架构,该架构的暗示图如下图所示:

 

该架构能够被称之为带外形式。设备总共能够分红两大类,一类为存储节点;另一类为元数据效劳器。Client想要获取数据的时分首要拜访元数据效劳器,然后得到拜访块地点设备以及详细的方位信息。得到这些元数据之后,数据拜访就能够直接在Client和存储设置之间进行了。为了进步功用,元数据拜访能够在Client端进行Cache,不能让元数据效劳器成为一个体系瓶颈。一旦消除这个瓶颈,这种带外形式功率仍是很高的。   本文对当时几种盛行的存储架构进行了剖析,个人认为在不断寻求scale out的今日,软件主导的集群计划将会越来越遭到重视和欢迎。
版权声明
本文来源于网络,版权归原作者所有,其内容与观点不代表威尼斯人立场。转载文章仅为传播更有价值的信息,如采编人员采编有误或者版权原因,请与我们联系,我们核实后立即修改或删除。

猜您喜欢的文章