Bu Blogda Ara

20 Aralık 2011 Salı

REDHAT NETAPP LUN MULTIPATHING

1. Sunucuda şu paketler kurulu olmalı : 

rpm -q device-mapper
rpm -q device-mappermultipath
yum install device-mapper
yum install device-mapper-multipath 

2. Netapp host utility kurulu olmalı. 

netapp_linux_host_utilities_***.tar.gz 

3. Hostun lunları görüyor mu kontrol edilmeli.

sanlun lun show

 controller:          lun-pathname          device filename  adapter  protocol          lun size         lun state
netapp1:  /vol/ASLDWH01/dwh_DWH01_lun0  /dev/sdb         host3    FCP          1.9t (2040130437120)  GOOD     
netapp1:  /vol/ASLDWH01/dwh_DWH01_lun0  /dev/sdc         host3    FCP          1.9t (2040130437120)  GOOD     
.
.
.

4. multipath' in şuanki durumunu listeleyelim. 

sanlun lun show -p
# sanlun lun show -p
netapp1:/vol/servervol/serverlun (LUN 0) Lun state: GOOD
Lun Size: 100g (107374182400) Controller_CF_State: Cluster Enabled

Protocol: FCP Controller Partner: netapp2
Multipath-provider: NONE
5.  Multipath servisini başlatalım..

# service multipathd start  

6. /etc/multipath.conf dosyasına alias girebilmek için WWID numarasını  
 #multipath -v3
komutu ile bulun. 

7. /etc/multipath.conf dosyasının bir yedeğini alın ve conf dosyasına sadece aşağıdaki satırları yazın. 

Ben burada sdb, sdc , sdd, sde ' den multipath oluşturacağım için ve root dizini (sda) yı black list' e alıyorum.  Blacklist' e girecek device' ları sisteminize göre conf' a girmeniz gerekiyor.  
 _____________________________________________
  defaults
{
user_friendly_names yes
max_fds max
queue_without_daemon no
}
blacklist {
###devnode “*”
devnode “^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*”
devnode “^sda”
devnode “^hd[a-z]”
devnode “^cciss!c[0-9]d[0-9]*” # Note the cciss, usual in HP
}
multipaths {
multipath {
wwid  360a9800050335767434a68386b4b484e  # önceden bulduğunuz WWID
alias netapp #  buradaki alias name size kalmış.
# server LUN on NETAPPFILER
}
}
devices
{
device
{
vendor “NETAPP”
product “LUN”
getuid_callout “/sbin/scsi_id -g -u -s /block/%n”
prio_callout “/sbin/mpath_prio_ontap /dev/%n”
features “1 queue_if_no_path”
hardware_handler “0″
path_grouping_policy group_by_prio
failback immediate
rr_weight uniform
rr_min_io 128
path_checker directio
flush_on_last_del yes
}
____________________________________________

8. multipath servisini restart edin ve startup' a ekleyin . 

# service multipathd restart
# chkconfig –add multipathd
# chkconfig multipathd on 

9. kontrol edelim , 

#multipath -l 

netapp (360a9800050335767434a68386b4b484e) dm-2 NETAPP,LUN
[size=100G][features=1 queue_if_no_path][hwhandler=0][rw]
\_ round-robin 0 [prio=0][active]
\_ 4:0:1:0 sdb 8:16 [active][undef]
\_ 5:0:1:0 sdd 8:48 [active][undef]
\_ 6:0:1:0 sdf 8:80 [active][undef]
.
.
.

Eğer bu komutun çıktısını göremiyorsanız şunu deneyebilirsiniz.. 
/etc/lvm/lvm.conf ' a  aşağıdaki satırları ekleyin/düzenleyin. 

filter = [ "a/mapper/", "r/.*/" ]

types = [ "device-mapper", 1]

Sonrasında
# service multipathd restart
#multipath -l
komutlarını çalıştırın. 
10. şimdi netapp hosts utility ile multipath durumunu kontrol edebilirsiniz. 

#sanlun lun show -p
 
NETAPPFILER:/vol/servervol/serverlun (LUN 0) Lun state: GOOD
Lun Size: 100g (107374182400) Controller_CF_State: Cluster Enabled
Protocol: FCP Controller Partner: NETAPPFILER2
DM-MP DevName: netapp (360a98000486e576748345276376a4d41) dm-2
Multipath-provider: NATIVE

fdisk -l komutu ile olulan dm device' larını göreceksiniz. 

oluşan bu LUN' a mapper ile erişebilirsiniz. 
# ls -l /dev/mapper
brw-rw—- 1 root disk 253,  Dec 21 10:54 netapp


mkfs ile ext3 formatlayarak mount edip bu alanı kullanabiliriz. 

# mkfs -t ext3 /dev/mapper/netapp
# mount /dev/mapper/netapp /mnt/netapp/


Not:
#multipath -F komutu ile dm device lari isterseniz kaldırabilisiniz.










Hiç yorum yok: