SunCluster Delete Ressource Group: Difference between revisions

From Lolly's Wiki
Jump to navigationJump to search
Line 105: Line 105:
<source lang=bash>
<source lang=bash>
# for node in $(clnode list) ; do cldev refresh -n ${node} ; cldev clear -n ${node} ; done
# for node in $(clnode list) ; do cldev refresh -n ${node} ; cldev clear -n ${node} ; done
</source>
==Bei bedarf Zonenkonfigs aufräumen==
<source lang=bash>
# ZONE=my-zone
# for node in $(clnode list) ; do ssh ${node} zonecfg -z ${zone} delete -F ; done
</source>
</source>

Revision as of 15:17, 24 April 2015

Kategorie:SunCluster

Komplettes entfernen einer Ressource Group

Herleitung der Daten, die nachher in den Einzeilern benutzt werden.

Macht dies nicht! Ich übernehme auch hier wieder keine Verantwortung! Alles falsch! Nicht machen!

Setzen der betreffenden Ressource Group

# RG=my-rg

Ressource anzeigen

# clrs list -g ${RG}
my-nsr-res
my-oracle-res
my-lh-res
my-zone-res
my-hasp-zfs-res

Abschalten der Ressource Group und Ressourcen

# clrs offline ${RG}
# clrs list -g ${RG} | xargs clrs disable

ZPools anzeigen

# clrs show -p ZPools -g ${RG}
...
=== Resources ===

Resource:                                       my-hasp-zfs-res

  --- Standard and extension properties ---

  Zpools:                                       my_pool my-redo1_pool my-redo2_pool
    Class:                                         extension
    Description:                                   The list of zpools
    Per-node:                                      False
    Type:                                          stringarray
...

ZPools anzeigen

# clrs show -p ZPools -g ${RG} | nawk '$1=="Zpools:"{$1="";print $0;}'
 my_pool my-redo1_pool my-redo2_pool

DID Devices anzeigen

# for disk in $(for zpool in $(clrs show -p ZPools -g ${RG} | nawk '$1=="Zpools:"{$1="";print $0;}' ) ; do zpool import ${zpool} 2>/dev/null ; zpool status ${zpool} ; zpool export ${zpool} ; done | nawk '/c[0-9]+t/{gsub(/s.*$/,"",$1);print $1}') ; do echo /dev/rdsk/${disk}; done | xargs cldev list -vn $(hostname)
DID Device          Full Device Path
----------          ----------------
d53                 node06:/dev/rdsk/c0t600A0B80006E103C00000B9B50B2F83Ed0
d38                 node06:/dev/rdsk/c0t600A0B80006E10020000D54150B2FF26d0
d57                 node06:/dev/rdsk/c0t600A0B80006E103C00000B9E50B2F9FFd0
d50                 node06:/dev/rdsk/c0t600A0B80006E10020000D54450B300C8d0
d46                 node06:/dev/rdsk/c0t600A0B80006E103C00000BA250B3098Ad0
d28                 node06:/dev/rdsk/c0t600A0B80006E10020000D54850B310C2d0
d55                 node06:/dev/rdsk/c0t600A0B80006E134400000B5350B2FB08d0
d56                 node06:/dev/rdsk/c0t600A0B80006E10E40000D6F450B2FBB1d0
d40                 node06:/dev/rdsk/c0t600A0B80006E134400000B5950B30D8Bd0
d45                 node06:/dev/rdsk/c0t600A0B80006E10E40000D6FA50B30E62d0

oder nur die DIDs:

# for disk in $(for zpool in $(clrs show -p ZPools -g ${RG} | nawk '$1=="Zpools:"{$1="";print $0;}' ) ; do zpool import ${zpool} 2>/dev/null ; zpool status ${zpool} ; zpool export ${zpool} ; done | nawk '/c[0-9]+t/{gsub(/s.*$/,"",$1);print $1}') ; do echo /dev/rdsk/${disk}; done | xargs scdidadm -lo instance
53
38
57
50
46
28
55
56
40
45

Abschalten des Device Monitorings

Das ist wichtig, um die Devices später ganz aus dem Cluster zu bekommen!

# for disk in $(for zpool in $(clrs show -p ZPools -g ${RG} | nawk '$1=="Zpools:"{$1="";print $0;}' ) ; do zpool import ${zpool} 2>/dev/null ; zpool status ${zpool} ; zpool export ${zpool} ; done | nawk '/c[0-9]+t/{gsub(/s.*$/,"",$1);print $1}') ; do echo /dev/rdsk/${disk}; done | xargs scdidadm -lo name | xargs cldev unmonitor

Ressourcegruppe löschen

# clrs list -g ${RG} | xargs clrs delete 
# clrg delete ${RG}

Jetzt auf dem Storage die LUNs unmappen

Und gegebenen Falls löschen...

Nicht mehr vorhandene LUNs aus dem Solaris entfernen

# for node in $(clnode list) ; do ssh ${node} cfgadm -alo show_SCSI_LUN | nawk '$NF=="unusable"{gsub(/,[0-9]+$/,"",$1);print $1}' | sort -u | xargs -n 1 ssh ${node} cfgadm -c unconfigure -o unusable_SCSI_LUN ; ssh ${node} devfsadm -C -v -c disk ; done

DIDs aufräumen

# for node in $(clnode list) ; do cldev refresh -n ${node} ; cldev clear -n ${node} ; done

Bei bedarf Zonenkonfigs aufräumen

# ZONE=my-zone
# for node in $(clnode list) ; do ssh ${node} zonecfg -z ${zone} delete -F ; done