站内搜索: 商品 资讯 职位 下载
产品分类
产品搜索
  • 商品分类
  •  
您现在的位置:产品首页 >> 盛世博威 >> 解决方案 >> 按产品分类 >> 小型机 >> IBM中高端存储小型机解决方案
  • ·: IBM中高端存储小型机解决方案
  • 编号: BW-XIAOXINGJI-001
  • 浏览次数: 23

好友推荐

    

传统概念里,关键性任务的计算一直是大型主机的专有领域。主机能够提供关键性任务所必须的很高的交易速度、非常好的系统可用性和鲁棒的系统管理功能。

随着UNIX系统的发展和普及,关键性任务对主机的依赖程度也在逐渐减弱,越来越多的企业将他们的关键性任务应用从专有的主机系统迁移至基于UNIX平台上来。这种转变主要基于以下一些因素:Client/Server模式的高效率和扩展性、开放标准的出现、UNIX平台上交易处理能力的增强和基于RISC技术的处理器的性能/价格比的提高。

在山东盛世博威公司前几年的数据中心集成项目经验,发现IBM公司的HACMP for AIX软件是业界领先的,建立UNIX平台上关键性任务计算环境的工具软件。HACMP for AIX软件能够保证关键性资源的高可用性。

HACMP的概念和原理

在今天竞争激烈的全球市场中,从金融、电信、医疗到零售、运输、制造的各个企业都必须保证关键性业务的信息和数据的可用性,而且通常是一天24小时,一年365天。各个企业必须始终如一地、正确地根据用户的要求提供银行往来金额、投资资金、医疗记录、测试结果和其它许多关键服务,而成功提供这些服务的关键是依靠信息技术的可用性。

由Contingency Planning Research提供的最新研究结果表明,平均每小时的宕机时间会导致上百万美元的损失。更重要的是,当因为意料之外的系统故障而丢失他们的数据之后,50%的公司没有再重新开门,90%的公司则歇业两年。

因此,要保证业务的连续性,就必须尽可能减少会导致信息和应用不可用的系统宕机时间,从而减小对用户服务的影响。关键业务的连续性可以通过以下三个层次的方法实现:

磁带备份

磁带备份是实现基本的业务连续的通用方法。信息先备份到磁带上,然后送到另外的地点保存。这种方法的问题在于磁带备份往往需要较长的时间来记录数据。另外,在数据备份过程中或者做数据备份前的系统或环境故障很可能造成数据丢失。而且,从备份磁带上恢复数据也需要很长的时间,数据存储得越多,恢复的时间越长。

高可用系统

高可用系统一般是在一个地点,通过高可用软件将一组服务器连接在一起,组成一个群集。IBM的HACMP for AIX和HP的MC/ServiceGuard就是这样的群集产品,通过快速地将用户、应用和数据从发生硬件或软件故障的机器切换至其它机器来提供高可用计算环境。

容错系统

容错系统依赖于冗余的硬件设备和软件来实现关键业务的连续性。虽然容错系统是避免宕机和数据丢失的有效方法,但是购买、操作和维护容错系统都是非常昂贵的。另外,系统的升级也需要很大的代价。

用户可以根据自己的应用情况选择适合自己的方法实现关键业务的连续性。

§1.1 HACMP简介

IBM公司的HACMP for AIX软件是基于AIX平台的,在高可用系统层次实现关键性任务计算环境的工具软件。HACMP应用于RS/6000系列的单处理器机型、对称多处理器机型或SP的节点,可以检测系统故障并快速恢复服务,使最终用户只感受到很小的中断时间。HACMP(High Availability Cluster Multi-Processing)有两个主要的组成部分:高可用技术(HA)和群集多处理技术(CMP)。

高可用技术

在HA产品出现之前,在UNIX领域实现高可用性的最有效途径是通过容错技术。容错技术依靠专门的硬件设备检测到硬件的故障,然后立即切换至冗余的硬件设备上,不管故障设备是处理器、内存板、电源、I/O子系统还是存储子系统。尽管这种切换能够无缝地提供不间断的服务,但却在硬件费用和性能上付出了很高的代价,因为冗余的设备不能处理事务。更重要的是,容错系统不能处理软件故障,而这却是宕机的最常见的原因。

高可用技术并不是通过将可用性当作一系列重复的物理设备来实现高可用性,它将高可用性看作是一个全系统范围的、共享的资源的集合,这些资源相互协作来保证关键的服务。高可用技术将软件和工业标准的硬件结合起来,在系统、设备或应用发生故障时通过快速恢复关键服务来使宕机时间减至最小。尽管不能立即切换,恢复服务也是很快的,通常在1分钟之内。

容错技术和高可用技术的区别在于服务中断的时间。当硬件发生故障时,容错环境没有宕机时间,而高可用环境有很小的宕机时间。但是,在容错环境中,由于软件故障无法被检测,有可能造成系统的严重破坏。而在高可用环境中,软件故障只会造成很小的宕机时间。

现在,大多数的公司都愿意忍受一小段的宕机时间,采用高可用技术,而不愿意花费高得多的代价采用只能检测硬件故障的容错技术。另外,在高可用配置中,备份机还可承担其他应用。

群集多处理技术

群集多处理技术是指一组松散耦合的机器,通过网络连接在一起,共享磁盘资源。在群集中,多个服务器协同工作,为用户提供一组服务或资源。

将两个或多个服务器组成群集来备份关键应用是一个划算的高可用性解决方案。用户可以使用更多的技术能力,同时确保关键应用在硬件或软件故障后能够快速恢复正常工作。

群集多处理技术还为客户提供了灵活的扩展途径。客户可以很容易地在群集中增加处理器以分担不断增加的工作量,还可以对群集中的处理器进行升级。而在容错环境中,则必须同时增加两个处理器,其中一个作为冗余备份,在正常工作时不进行任何处理。

§1.2 HACMP中术语的定义

群集(Cluster):多个服务器节点一起工作,使用TCP/IP进行通讯,每个节点上运行Cluster Manager进程。

节点(Node):群集中的每个运行Cluster Manager进程的独立的机器。节点是HACMP的核心部分,节点上运行AIX操作系统和HACMP for AIX软件。在HACMP群集中,每个节点有一个唯一的节点名。一个节点可能拥有一组资源­­――磁盘、卷组、文件系统、网络、网络地址和应用。节点上一般运行着访问共享磁盘上数据的“后台”应用。

资源(Resources):由一个节点控制的实体,当节点发生故障时能够被其它节点接管。可以被当作资源的实体有:

★ 磁盘、卷组、文件系统

★ NFS输出的文件系统

★ IP地址

★ 应用程序

关键应用(Critical Application):由HACMP控制其启动和停止的应用程序,例如数据库的后台进程。

事件(Event):群集中发生的一些事情,即群集状态的改变,包括节点up/down,网络up/down,网卡故障等等。

行为(Behavior):事件发生时群集的响应动作。事件是由shell脚本控制的。

重聚(Reintegration):将故障节点、网络、网卡重新带回群集的过程。

下图是HACMP群集的一个例子。在实际的群集中,由于节点数目、网络拓扑、磁盘类型等具体配置的区别,群集的形状可能会不同。

§1.3 HACMP群集的硬件组成

从上图中可以看出,HACMP群集的硬件由以下硬件组成:

★ 节点

★ 共享磁盘设备

★ 网络和网卡

★ 客户机

1.3.1 节点机型

HACMP for AIX软件支持RS/6000单处理器和SMP机型作为群集的节点。在HACMP中,SMP系统和单处理器机型一样,都被当作单一节点。采用SMP系统是提高整个群集吞吐量的有效途径。群集中的每个节点都可以是一个大的SMP系统,使得群集系统远远超过单个系统的处理能力,可以支持成千上万个客户机连接到单一的数据库系统。

1.3.2 共享磁盘设备

群集中的每个节点都需要配置内置硬盘来存储AIX操作系统、HACMP软件和应用程序。另外,每个节点都应连接到一个或多个外置的共享磁盘上。共享磁盘是指物理上连接到多个节点的磁盘设备,共享磁盘上存放着关键任务的数据,通常采用镜像或RAID技术来提供数据的冗余保护。

HACMP的共享磁盘设备支持SCSI-2 Differential(微分)磁盘、SCSI-2 Differential磁盘阵列和串行磁盘。

HACMP支持两种对共享磁盘的访问方式:非并发访问和并发访问。在非并发访问环境中,每个时间点上只能有一条活动的连接,保持活动连接的节点拥有磁盘,当此节点离开群集时,它拥有的磁盘被其他节点接管。在并发访问环境中,共享磁盘同时与多个节点保持活动连接,因此当节点故障时,不需要接管磁盘。并发访问要求SSA或RAID作为外置共享磁盘。

共享硬盘应该单独放在一个机柜中,不应和机器混放

1.3.3 网卡

一个节点至少应有两块网卡连接每个网络:一块服务网卡(service adapter)和一块备份网卡(standby adapter)。如果配置IP地址接管,还应配置启动网卡(boot adapter)。启动网卡并不需要单独的物理网卡,而是配置在服务网卡上的不同的IP地址。

HACMP for AIX采用网卡标识(adapter label)来识别网卡。对于TCP/IP网络,网卡标识是在文件/etc/hosts中关联某一IP地址的名字。一个节点可以定义多个网卡标识和IP地址。

1.3.4 网络

HACMP使用LAN来监视网络,网卡和其它节点的状态,HACMP支持AIX支持的大多数基于TCP/IP 的网络,如 Ethernet、Token-Ring、FDDI、ATM等等。HACMP中定义了三种类型的网络:公用网络(public network)、私用网络(private network)和串行网络(serial network)。

公用网络

在HACMP环境中,公用网络连接多个节点并允许客户机服务群集节点。Ethernet、Token-Ring、FDDI、ATM等网络可以被定义为公用网络。

私用网络

HACMP群集中的节点必须相互通讯以实现对数据的连续访问。私用网络提供两个节点之间的点到点通讯,但不允许客户机访问。HACMP使用私用网络来传输锁的信息,只有在没有定义私用网络时才使用公用网络来传输锁的信息。

私用网络一般用于并发访问磁盘的情况。Ethernet、Token-Ring、FDDI、ATM等网络可以被定义为私用网络。

串行网络

串行网络是两个节点之间的点到点连接。HACMP在TCP/IP子系统发生故障时,使用串行网络来传输控制信息和心跳信息。串行网络可以是一条SCSI-2 Differential总线或一条RS232串行线。

网络名称

网络名称用于标识HACMP群集中的网络,群集进程使用网络名称信息来确定哪些网卡连接在同一物理网络上。网络的命名是任意的,但必须保持一致。如果多个网卡连接在同一物理网络上,定义这些网卡时必须使用相同的网络名称。

1.3.5 客户机

客户机是指能够访问群集中节点的机器。客户机通过公用局域网络与节点通讯,其上运行“前端”程序或客户机应用来访问群集节点上的服务器应用。HACMP for AIX为群集节点上的关键性的数据和应用提供高可用性环境,但不负责客户机的高可用性。

§1.4 AIXHACMP

AIX是第一个,也是最为成熟的第二代UNIX操作系统,具有很多先进的特征,保证UNIX系统的可靠性和高性能,IBM公司引入到UNIX中的LVM逻辑卷管理和JFS日志文件系统,使AIX更容易使用和管理。AIX满足几乎所有的工业标准和事实标准,是真正的开放系统。

AIX包含许多承袭IBM大主机等级的优异特性,诸如系统集成性、系统管理及系统可用性。除了具有当系统损毁时可以快速修复的文件系统外,IBM运用自身在计算机领域45年的经验,增加了逻辑卷管理和日志文件系统等功能,支持三份能够同步写入及错误区块重新配置的系统镜像功能,用以确保您高价值的数据。

IBM在设计RISC/6000的AIX操作系统时,针对UNIX系统的弱点,重新改写了UNIX的内核,清除200个编程缺陷。在系统功能稳定性、可靠性和可管理性方面做了极大的改进,使UNIX从一个主要面向科技市场的操作系统,发展成为能够承担关键任务的成熟的操作系统。

AIX具有动态可扩展内核,用户装卸设备时可联机动态配置,无须关机和重新启动,具有实时的扩展功能。所有硬件设备均可随时动态增加、更换而不影响文件系统及其数据。

AIX中的许多功能和HACMP紧密配合,为用户提供更高的可用性。以下介绍AIX中与HACMP相关的几项功能:LVM、JFS、ODM、SMIT和SRC。

逻辑卷管理器LVMLogical Volume Manager

LVM逻辑上将多个硬盘当作单一实体进行管理。使用LVM可将存储空间分区为“逻辑卷”,可以指定其存放位置,以获得优化的性能和可用性。逻辑卷(文件系统)可以动态扩展而不需重新配置整个逻辑硬盘子系统。逻辑卷可以镜像,避免磁盘的单点故障。

LVM使磁盘资源很容易被其他节点接管。

日志文件系统JFSJournaled File System

在传统Unix中,文件系统恢复需要很长时间且文件系统的完整性不能得到保证。AIX使用日志文件系统,所有对文件系统的更新在写到文件系统之前先记入一个日志之中,当系统故障后JFS日志可以被重新执行,文件系统的更新可以根据日志前滚或回滚(roll forward/back)。AIX很少用到fsck命令进行整个文件系统的恢复,所以故障后恢复文件系统的时间大大减少,也就大大减少了文件系统接管的时间。

ODMObject Data Manager

ODM是一个面向对象的数据库,其中存放着系统的配置信息。采用ODM管理使配置信息更加安全,可以免受偶然的或故意的损坏。ODM库一般通过SMIT、高级命令或应用程序进行访问。

所有的HACMP配置信息都存放于ODM库中。

HACMP for AIX使用“Global ODM”,可以在一个节点上做配置,然后传到群集内的所有节点。这样可以减少配置的工作量,并保证各个节点上配置信息的一致性。

SMITSystem Management Interface Tool

AIX中绝大部分系统管理功能都可以通过SMIT完成(95%以上)。使用SMIT减少了偶然使用错误命令或错误选项的可能性,增加了系统的可用性。

HACMP全部用SMIT管理,快捷路径是smit hacmp

SRCSystem Resource Controller

SRC是一个AIX进程,用来管理其它的进程。使用startsrcstopsrc命令来启动、停止由SRC控制的一组进程。如果SRC控制的一个进程非正常终止,SRC会自动执行一个特定的程序来响应。

HACMP的进程都是由SRC控制和监视的。

§1.5 HACMP群集的软件结构

HACMP for AIX软件由以下部分组成:

★ Cluster Manager

★ Event scripts

★ Cluster Lock Manager

★ Clinfo

★ Clsmuxpd

Cluster Manager

Cluster Manager运行在群集中的所有节点上。它的主要任务是监视和响应群集状态的变化,包括:节点故障和恢复、网络故障和恢复、网卡故障和恢复。它负责同步和协调群集内部的动作,发现错误征兆,诊断问题,并做出适当的反应。它还负责执行Event scripts(事件脚本)来影响群集状态的变化 。

Event scripts

Event scripts 定义了为响应群集事件所需执行的动作。HACMP包括了大多数情况下的Event scripts,这些Event scripts是用标准shell编写的,使用标准AIX命令和HACMP功能,且可以客户化。

Cluster Lock Manager

用于并发访问环境,使多个节点可以同时访问相同的数据。应用程序必须用Cluster Lock Manager API来登记、申请、释放锁。Lock Manager协调和排序对共享数据的访问,防止数据的不一致和错误。

Clinfo & Clsmuxpd

Clinfo是Cluster Information进程。Clinfo API允许应用程序来确定群集现在的状态和释放动作响应变化,每当群集内有事件发生时Clinfo发布信息。

Clinfo的通讯基于SNMP依靠SNMP的代理(clsmuxpd)接收群集状态的改变。

Clinfo是可选的。

§1.6 HACMP群集资源

1.6.1资源

HACMP for AIX软件通过以下途径提供高可用性环境:

★ 定义一组必须的群集资源,资源可以是硬件,也可以是软件。

★ 定义群集节点访问这些资源的关系。这些关系确定哪个节点控制资源以及当该节点放弃资源的控制权后哪个节点接管资源。当一个节点离开群集时,Cluster Manager能够将这个节点的资源转移到群集中的其它节点上。

资源的类型

高可用资源可以是以下几种实体:

★ 应用

★ 磁盘

★ 卷组

★ 文件系统

★ NFS文件系统

★ IP地址

资源怎样做到高可用

应用:由HACMP启动,如果节点发生故障,则在另一节点重新启动。

磁盘、卷组、文件系统:磁盘物理上与多个节点相连。在非并发环境中,一个节点控制磁盘资源,如果该节点发生故障,它控制的磁盘资源由其它节点接管。在并发环境中,多个节点同时控制磁盘资源,一个节点发生故障并不影响其它节点。

IP地址:如果服务网卡发生故障,由本机的备份网卡接管其地址,称为“网卡切换”。如果整个节点故障,由另一个群集节点的备份网卡接管其地址,称为“IP地址接管”。

1.6.2 资源组

每个HACMP的高可用资源都必须被分配在某个资源组中。资源组允许您将相关的资源结合成一个单一的实体,便于配置和管理。

HACMP共有三种类型的资源组,分别是Cascading(层叠)资源组、Rotating(旋转)资源组和Concurrent(并行)资源组。在一个群集中可以有多个不同类型的资源组。定义资源组的类型实际上就是定义了群集的故障恢复策略。

Cascading资源组

Cascading资源组可以被一个或多个节点接管。

所有被指定参与接管一个资源组的节点都是该资源组的资源链的一部分,每个参与的节点都被指定了接管优先级,优先级代表了接管可用资源的顺序。

当接管发生时,具有最高优先级的活动节点将获得资源组。如果该节点不可用,则由具有次高优先级的节点获得资源组,依此类推。

当对该资源组具有更高优先级的节点重新回到群集后,它将取回它的资源组。

Rotating 资源组

一个Rotating 资源组和一组节点相关联。资源组在所有被定义的节点之间轮转。每个节点可以拥有一个资源组。

开始时,第一个加入群集的节点获得第一个资源组,第二个加入群集的节点获得第二个资源组,依此类推,直到所有的资源组都被节点获得。剩余的节点作为备份节点。

当一个控制资源的节点故障时,可用节点中对资源组具有最高优先级的节点将接管资源组。当故障节点重新加入群集后,成为备份节点,不再取回资源组。

Concurrent 资源组

Concurrent 资源组由多个节点共享。所有并发访问资源组的节点在加入群集后都获得该资源组。节点之间没有优先级的区别。

由于AIX JFS 不支持并发访问,应用就必须用生设备(逻辑卷)。因此Concurrent 资源组的资源只能有应用、磁盘和卷组。

Concurrent 资源组的共享磁盘必须是SSA盘或RAID盘。

资源链

每个能访问资源组的节点都必须被列为参与节点,参与节点的列表就建立了资源组的资源链。这样,这几个节点都可以参与维护资源组的可用性。

对于Cascading资源组或Rotating 资源组来说,这也就建立了资源链中各节点的优先级。

对于Cascading资源组,当前在资源链中具有最高优先级的活动节点将从故障节点处获得资源组。

对于Rotating资源组,当前在资源链中具有最高优先级且具有可用连接(网络、网卡、IP地址)的节点将从故障节点处获得资源组。接管节点可能是已经拥有资源的节点,也可能是备份节点。

HACMP对资源组的位置有如下假定:

Cascading ―具有最高优先级的活动节点控制资源组。

Rotating ―具有与Rotating资源组相关的服务地址的节点控制资源组。

Concurrent ―所有活动节点都拥有资源组。

§1.7 建立高可用系统――避免单点故障

高可用系统的主要特点是具有检测和响应可能影响到关键服务的事件的能力。HACMP for AIX软件使群集在遇到系统的关键组件(例如网卡)发生故障的情况下仍能继续对外提供服务。

HACMP for AIX软件通过避免单点故障的方式建立高可用的和可扩展的群集。单点故障点是指一个关键的群集功能只由单一的组件提供,当这个组件故障时,群集没有其它的途径提供关键的服务。

在群集中,有可能出现单点故障的群集组件是:

★ 节点

★ 网络和网卡

★ 磁盘和磁盘控制卡

★ 应用

HACMP可以检测和响应三种类型的故障:节点故障、网卡故障和网络故障。

1.7.1 节点故障

节点故障指处理器硬件或操作系统故障。当发生节点故障上,其它节点可以配置为:

★ 接管共享磁盘

★ Vary-on卷组

★ Mount文件系统

★ Export NFS文件系统

★ 接管IP地址

★ 重启应用

 

故障时的磁盘接管

磁盘物理上与多个节点相连。在非并发环境中,一个节点控制磁盘资源,如果该节点发生故障,它控制的磁盘资源(包括卷组、文件系统等)由其它节点接管。在并发环境中,多个节点同时控制磁盘资源,因此不需要磁盘接管。

IP地址接管使另一节点可以获得故障节点的网络地址。当提供给客户机的服务绑定到一个特定的IP地址时,必须配置IP地址接管。如果只接管磁盘,客户机将无法访问服务器的IP地址。

IP地址接管过程如图3所示。

应用接管

当以下关键应用的节点离开群集时,接管节点重新启动这个关键应用,使服务得以继续。

1.7.2 网卡故障

HACMP软件能够处理服务网卡和备份网卡的故障。当服务网卡故障时,Cluster Manager将同一节点的服务网卡和备份网卡进行切换,服务网卡的故障是透明的。Cluster Manager检测到备份网卡故障时只是记入日志,并不进行其它操作。

1.7.3 网络故障

当群集中连接所有节点的网络故障时,由于网络配置各不相同,所以HACMP无法定义响应动作。此时系统在主控台上显示信息,事件被记入日志。用户可以根据实际情况自己编写脚本程序来响应网络故障。

在大多数配置中,网络都是单点故障点。为避免发生网络单点故障,建议在配置HACMP时配置双网络。

1.7.4 其它类型的故障

磁盘和磁盘控制卡故障

HACMP自己不能直接处理磁盘和磁盘控制卡故障。但是数据可通过AIX的LVM 镜像或磁盘阵列的RAID功能处理。

如果共享磁盘使用SCSI-2 Differential磁盘或SSA磁盘,磁盘故障可通过AIX的LVM 镜像处理。此时需要跨磁盘进行LVM镜像。单一磁盘故障就不会影响数据的可用性。如果磁盘配置卡发生故障,数据可通过跨总线的LVM镜像来复制。

如果共享磁盘使用磁盘阵列,磁盘阵列自己负责数据的冗余保护。在连接RAID磁盘阵列时应采用多总线,避免磁盘配置卡的单点故障

其他硬件故障

在HACMP中没有直接支持,但可通过AIX Error Notification功能来捕获特定错误并执行响应命令,例如:当发生关键硬件故障时可以shutdown,由另一个节点接管。

应用程序错误

可以自己编写应用监视程序监视应用程序的错误信息或进程状态,也可以通过AIX的SRC功能进行管理。

HACMP错误

HACMP的主进程发生错误时,可升级为节点故障进行处理。

电源故障

不要将同一设备的电源连接到一个电源上,最好使用UPS。

1.8方案设计

针对本项目我们推荐的机型是:IBM P6 570小型机,SANB24交换机,DS5020的磁盘存储。所有部件都是冗余设计,保证业务应用高可用性。

1.8.1 P570产品介绍

   使用 IBM Power™ 570 服务器,可以轻松地从 2个内核扩展至 32个内核。独特的 IBM 模块化 SMP 架构允许您根据需要添加功能更强大的 POWER6™ 3.5、4.2、4.4、4.7 或 5.00GHz 处理能力。凭借创新的 RAS 功能和行业领先的虚拟化功能,570 特别适合于用作中端应用程序或数据库服务器,或用于服务器整合。客户可以灵活使用尖端的 AIX®、IBM i 和 Linux® 操作系统,这大大扩展了可用应用程序的范围,并为客户管理增长、复杂性和风险提供了更多途径。

处理器 2、481216 POWER63.54.24.44.7  5.00GHz;或者 48162432 POWER64.20GHz

时钟频率(最低/最高)3.5/5.00GHz

系统内存(标配/最大)4GB/768GB

内部存储器(标配/最大)146.8GB/79.2TB
(通过可选的 I/O 抽屉)

性能(相对性能范围)***15.85 / 193.25

Power 570 一览表如下

标准配置

每个构建模块

570(最大)

处理器内核

第一个构建模块包含两颗或四颗 3.5、4.2 或 4.7 GHz 的 POWER6 处理器内核;其他所有模块均包含四颗内核

16 个 3.5、4.2 或 4.7 GHz POWER6 处理器内核

缓存

每颗内核 4 MB 二级缓存
每两颗内核共享 32 MB 三级缓存

每个系统 64 MB 二级缓存
每个系统 256 MB 三级缓存

RAM(内存)2

2 GB 到 48 GB 的 667 MHz DDR2 内存;或

16 GB 到 96 GB 的 533 MHz DDR2 内存;或

32 GB 到 192 GB 的 400 MHz DDR2 内存

192 GB 的 667 MHz DDR2 或

384 GB 的 533 MHz DDR2 或

768 GB 的 400 MHz DDR2 

内部磁盘驱动器 CEC

一到六个 SAS

24 SAS

介质托架 CEC

一个热插拔 Slimline

4 个热插拔 Slimline

PCI 适配器插槽 CEC

四个 PCI Express 8x 插槽;
两个 266 MHz 的 PCI-X DDR 内存。

16 个 PCI Express 8x 插槽;8 个 266 MHz 的 PCI-X DDR 内存。

标准 I/O 适配器

以太网(CEC,不包括 PCI 插槽)

标配:

一个双端口千兆以太网,或

可选:

一个四端口千兆以太网,或

一个双端口 10 Gb 以太网

标配:

四个双端口千兆以太网,或

可选:

四个四端口千兆以太网,或

四个双端口 10 Gb 以太网

集成磁盘(CEC

一个 SAS 控制器

四个 SAS 控制器

其他端口(CEC

2 个 USB;2 个 HMC;2 个 SPCN

八个 USB;两个 HMC;八个 SPCN

扩展功能(可选)

I/O 扩展

多达 12 个 I/O 抽屉

48 个 I/O 抽屉

高性能连接

4 Gb 光纤通道,10 Gb 以太网

GX 插槽(I/O 环路)

两个(第二个插槽与一个 PCI Express 8x 插槽共享)

八个(四个插槽与四个 PCI Express 8x 插槽共享空间)

PowerVM 虚拟化技术

POWER Hypervisor™

动态 LPAR;虚拟 LAN(内存到内存分区间通讯)1

PowerVM 标准版1(可选)

微分区,每个处理器最多 10 个微分区;多个共享处理器池;虚拟 I/O 服务器;共享专用容量;PowerVM Lx86

PowerVM 企业版3(可选)

配备实时分区迁移功能的 PowerVM 标准版

随需扩容功能(可选)

处理器和/或内存 CUoD
开启/关闭处理器和/或内存 CoD
试用处理器和/或内存 CoD
实用程序 CoD 

操作系统

AIX V5.2 或更高版本
IBM i 5.4 或更高版本
SUSE Linux Enterprise Server 10 for POWER (SLES10 SP1) 或更高版本
Red Hat Enterprise Linux 4.5 for POWER (RHEL4.5) 或更高版本
RHEL5.1 或更高版本

高可用性

IBM PowerHA™ 系列

电源要求

200 v 到 240 v AC

系统规格

570 构建模块:6.85英寸(高)(4U) x 19.0 英寸(宽)x 32.4 英寸(深)(174 毫米 x 483 毫米 x 824 毫米);重量:140.0 磅(63.6 千克)4

有限保修(37x24

三年保修,星期一至星期日每天 24 小时,下一工作日处理,不另行收费;选定组件现场维修;所有其他元件按 CRU(客户可更换元件)执行(因国家/地区而异)。提供保修服务升级和维护。

1.8.2  SAN交换机2498-B24介绍

IBM System Storage SAN24B-4 易捷版

使用简便的 SAN 交换机,具有易于安装和易于使用的功能,专为满足中小型环境的需求而设计。

通过 8 Gbps 光纤通道 (FC) 技术提供新的性能等级;

随需增加端口的功能可以从 8 个扩展至 16 和 24 个端口;

在着眼于未来技术的同时保护现有的 4、2 和 1 Gbps 基础架构投资;

对于运行 Microsoft® Windows®、Unix®、Linux®、IBM AIX® 和 OS/400® 操作系统的服务器来说,它是新的基础架构简化和业务持续性解决方案的基础。

 

IBM System Storage™ SAN24B-4 易捷版网络交换机专为满足中小型 SAN 环境的需要而设计。可用于构建各种高性能 SAN 解决方案,从简单的单交换机配置到支持光纤连接和高级业务持续性功能的大型多交换机配置均可。面向 IBM System x™ 、BladeCenter® 和 IBM POWER Systems™ 服务器的基础架构简化解决方案,包括采用 IBM System Storage 磁盘存储阵列的存储整合和高可用性服务器群集。业务持续性解决方案包括使用 IBM System Storage 磁带库和设备以及 IBM Tivoli® Storage Manager 数据保护软件实现数据保护。

对于希望从存储整合中获益的用户以及刚刚开始实施光纤通道存储系统的用户来说,可以使用一台 SAN24B-4 易捷版交换机作为存储区域网络的基础。该入门级配置可包含一个或两个连接到磁盘存储阵列或 LTO™ 磁带机的光纤通道链路。入门级 8 端口存储整合解决方案使用一个通道连接到磁盘或磁带即可支持多达 7 台服务器。“随需增加端口”功能使基础交换机可以增加到 16 和 24 个端口以支持更多的服务器和存储设备,并且无需使交换机离线。使用冗余交换机还可以创建高可用性解决方案。该功能尤其适合于服务器群集环境。此类配置可支持 6 到 22 台服务器,每台服务器均具有两个光纤通道适配器并与冗余的 SAN24B-4 易捷版交换机交叉连接,交换机再交叉连接至一个双控制器存储系统。尽管 SAN24B-4 易捷版主要用作中小型 SAN 的基础,但它也可以经过配置与 IBM System Storage 和 TotalStorage® SAN b 型和 m 型系列的其他产品一起参与构建扩展的光纤网络配置。随着 SAN 需求的不断变化和增长,该功能有助于提高投资保障。

产品特性

 

硬件概要

标准配置包括 8 端口激活和连接到主机以及存储设备的功能

连接到其他 SAN 设备的功能在 2498-B24 上为标配,在 249824E 上为可选。

8 端口激活选项支持按需购买,可扩展至 16 和 24 个端口。

无需任何 SAN 经验即可使用 EZSwitchSetup 向导。

小型网络配置只需要少量的管理甚至根本不需要管理。

“高级 Web 工具”提供直观的图形交换机管理功能。

支持 IBM POWER Systems 和 System x,以及指定的非 IBM 服务器。

与其他 IBM System Storage 和 TotalStorage SAN b 型交换机、路由器和导向器的完全兼容能力以及与当前 m 型交换机和导向器的本地互操作性有助于保护此前的 SAN 投资。

非常适合用作大型 SAN 的边缘交换机。

“访问网关”模式支持无缝地连接至异构 SAN 环境,增强可扩展性并简化管理(仅在 24 端口配置上提供)。

 

1U 19 英寸封装设计适用于安装在机架上或桌面上。

通过 8 Gbps 光纤通道端口实现高性能(需要支持 8 Gbps 吞吐量的存储硬件)

速度自动检测功能可后向兼容 4、2 和 1 Gbps 光纤通道链路。

支持 8、4 和 2 Gbps 链路速度或 4、2 和 1 Gbps 链路速度,具体取决于所使用的光学收发器 (SFP)。

可以将速度不同的短波和长波 SFP 混合在同一交换机中,以便满足特定需求。

所有的端口上均可进行全光纤网络操作和通用端口操作。

所有端口均支持交换机间链路 (ISL) 干线。

高级分区、使用 Web 工具的智能管理和监控、Fabric Watch 和性能监控功能。

非阻塞体系架构配有 24 个端口,可以提供高达 284 Gbps 的总吞吐量。

标准高级分区功能可提供硬件强制分区,以防止未经授权或验证的存储网络访问、不安全的管理访问以及全球名称欺诈。

IBM SAN b 型交换机和导向器使用通用的交换机固件,有助于简化 SAN 光纤网络扩展。

固件升级不会影响正常运行。

可以使用 GUI、SNMP 和 Telnet 通过光纤网络进行远程访问和远程管理。

1.8.3 DS5020磁盘存储介绍

 IBM 一直致力于提供低总拥有成本、高性能、功能强大且易用性超凡的存储解决方案,在其不懈的努力下,现又推出了 IBM System Storage® DS5020 易捷版。作为 DS 系列的成员,DS5020 易捷版提供了支持 8 Gbps 速率的高性能光纤通道连接、适用于要求稍低的应用和较低成本的实施的可选 1 Gbps iSCSI 接口、高达 67.2TB 的光纤通道物理存储量、224TB 的 SATA 物理存储量以及强大的系统管理、数据管理和数据保护功能。凭借 EXP520 扩展单元,DS5020 易捷版可连接多达 6个光纤通道扩展单元,从而将容量从工作组级扩展到企业级。

要点

· 新一代 8 Gbps FC 接口支持基础架构简化

· 混合主机接口支持 (FC/iSCSI) 可实现 SAN 分层

· 均衡的性能非常适合于虚拟化/整合

· 支持低耗电的超高速固态磁盘 (SSD)

· 降低整合成本

· 自加密驱动器可在驱动器的整个生命周期内保护数据安全

· 支持混用 FC/FDE/SATA/SSD 驱动器可实现经济高效的分层存储

· 值得信赖的存储系统,可随需保护并提供数据

· 功能丰富的管理软件可最大限度地提高利用率并降低存储总拥有成本

· 关键应用程序认证让您信心十足

· 使用 IBM System Storage DS Storage Manager 集中管理 DS 系列

· 通过连接 6个 EXP520 扩展单元,可支持多达 112个磁盘驱动器模块

常见特性

· 动态容量扩展 (DCE)

· System Storage DS® Storage Manager 软件

· 可生成逻辑卷时间点副本的 IBM FlashCopy® 

· 动态卷扩展

· 可将一个逻辑卷完整复制至另一逻辑卷的 VolumeCopy 功能

· 面向多 LUN 应用的增强型远程镜像

· 热备用磁盘驱动器

硬件概要

· 高达 4GB 电池供电缓存

· 型号 20A 具有 8个主机端口和 4个驱动器端口 - 标配光纤通道 (FC) 交换和 FC 仲裁环路 (FC-AL),自动检测 2 Gbps/4 Gbps,可选 1 Gbps iSCSI 接口

· 支持的驱动器:

o 4 Gbps FC/FDE:15 k - 600 GB、450 GB、300 GB E-DDM 

o 4 Gbps SATA:7.2 K 1 TB 和 2 TB E-DDM 

o SSD:73 GB 和 300 GB 

· 支持 RAID 级别 0、1、3、5、6 和 10 

· 多达 128个存储分区

· 112个光纤通道驱动器(使用 6个 EXP520 扩展单元)

· 双冗余、可热插拔式散热风扇

· 19 inch 行业标准机架

凭借 IBM System Storage DS5020 易捷版更高效地管理数据

最优化的数据管理需要数据可用性高、存储管理能力强大、性能超凡的存储解决方案。IBM 推出了 IBM System Storage® DS5020 易捷版,旨在提供更低总拥有成本、高性能、强大功能和无与伦比的易用性。作为 IBM DS 系列的成员,DS5020 易捷版提供了下列特性:

· 支持 8 Gbps 速率的高性能光纤通道 (FC) 连接。

· 可选的 1 Gbps iSCSI 接口。

· 可支持 112个 2TB SATA 磁盘驱动器提供高达 224TB 的物理存储量。

· 强大的系统管理、数据管理和数据保护功能。

实现更低的总拥有成本

面对持续增长的数据和日益紧缩的预算,各个公司都在不断寻求通过各种途径来提高效率并降低成本。8 Gbps FC 可让公司减少每台服务器的主机总线适配器数量及其 FC 存储区域网络 (SAN) 基础架构中的总端口数量,而不会牺牲性能,从而节省购置和运营成本。

此外,自动协调 8 Gbps 光纤通道接口允许 DS5020 易捷版无缝集成至现有 2 Gbps 或 4 Gbps 基础架构,并能在 SAN 不可避免地进入 8 Gbps 时代时提供面向未来的投资保护。

该系统提供了经济合理的入门配置,旨在帮助您避免过度配置,并可在需求发生变化时提供无缝的“按需购买”可扩展性。其高效的存储利用率可降低原始容量需求,而高性能和高容量驱动器混用功能则可在单个机柜中实现分层存储。这些独特的功能减少了满足性能和/或容量需求所需的驱动器数量,能够显著降低购置和运营成本。

山东盛世博威通信技术有限公司

关键词: 小型机