欢迎光临,若觉得本博客的内容对您有帮助,请多点击边栏的Google广告,并提供意见及建议,谢谢!
Jun 14
    在使用lvm的系统中,首先需要把物理设别创建为PV,然后才能组成VG及创建LV逻辑盘。对于盘符不多的情况下,这通常不是问题,只要一一对应寻找即可。但这次在一个项目中,遇到的情况是:
引用
有三个系统共享一个盘柜,盘柜中划分了约30个LUN映射到系统中。由于不同系统连接到盘柜的路径不同,导致同一个LUN设备,在不同系统上其设备号并不相同。例如:在A系统上是/dev/sdx,而在B系统上则是/dev/sdy。

    这样,万一我需要在原有的系统上增加PV,需逐一手动匹配物理设备,并且不同系统上还需要匹配多次,相当麻烦。所以,我写了下面的脚本协助寻找那些仍未创建为PV的设备。
Tags: ,
Dec 10
   HP MSL 6060是6000系列带库的其中一个细型号。在客户现场,原红旗DC Server 4.1 SP1 for x86通过QLA2312的HBA卡无法识别到带库的机械手设备。通过升级相应的HBA卡驱动,以及使用mtx套件,实现检查磁带库状态及使用磁带库作备份操作。
Tags: , ,
Jul 20
   客户反应,由两套IBM x460组成的Oracle 10g RAC集群,出现ping任何IP地址,都会出现0.000ms的故障。
一、故障描述
◎硬件架构:
每套x460是由两台x460堆叠而成的,每台带1块双口的网卡,也就是一套4个口,实际使用到其中的2个口,一个接路由器,一个接交叉线连接到另外一套中,做心跳。
每套带两块HBA卡,连接到DS4300盘柜中,实现冗余。
Dec 16
   这几天项目中,遇到一个使用双机双盘柜,结合HA软件实现全冗余配置的环境,总结一下配置的重点。而前面的日志已经比较详细的描述过双机单盘柜的配置,请参考[原]在红旗DC Server上实现Failover
一、系统架构
   这次的系统架构与之前不同的地方主要在于:增加一个盘柜,两个盘柜相互做互备,任一盘柜损坏,都不会影响应用的持续运行。
Nov 27
 由于红旗DC Server 4.1比IBM x366要早发布很多,所以,在实际项目中常需要根据情况调整和安装新驱动。在红旗更新SP2 补丁包后,我发现该过程简单了很多,特整理一下。
 这次要实现的目的包括:
引用
1、对板载IBM Server Raid 8i卡,使用1.5.1版本的aacraid驱动;
2、更新网卡驱动为tg3;
3、使用系统自带支持failover的qla2300驱动,支持QLA2312 HBA卡;
Feb 22
 在实际的项目中,为了保证生产系统在出现故障后可以自动回复,通常会采用冗余的设置,例如使用HA软件和使用多HBA卡连接盘柜。下面我就以IBM DS4300(旧型号FAStT 600)盘柜和IBM FC2-133光纤通道卡(对应QLA2340)在红旗DC Server 4.1上的项目来进行说明。
一、下面是连接的示意图
点击在新窗口中浏览此图片
Feb 17
  今天遇到旧项目中关于DS4300 中端磁盘系统(FAStT600),要实现Failover的问题。随便就到IBM上找了一些资料看看,包括:

一、冗余切换的原理
假定主机端的光纤通道卡为HBA1、HBA2。存储端控制器A、控制器B。
每个LUN缺省属于一个控制器。那么当然可能一部分LUN属于控制器A,一部分属于B。

情形1:有光纤交换机的SAN结构,必然会定义一个光纤卡主用,一个辅用的情况,这个主用辅用与存储端如何配置LUN及控制器的关系无关,因为没有必要
■主机端多通道冗余软件,无需对存储端的控制器坏、光纤线断的情况作出反应,就是说无需进行光纤通道卡切换,那是在光纤交换机处就处理掉了的。只是可以获取信息,你可以看到所有属于控制器A的LUN,在控制器A损坏或者其光纤线断开的时候,全部切换到了控制器B,但是,在主机端,一直是通过HBA1来访问
■如果主机端的HBA1卡损坏,或者光纤断开,那么主机端多路冗余软件切换到用HBA2来访问存储,存储端也无需作出任何反应
Tags: , ,
分页: 1/1 第一页 1 最后页 [ 显示模式: 摘要 | 列表 ]