HP IBRIX 9720/9730 Storage管理者ガイド - Hewlett Packard

HP IBRIX 9720/9730 Storage
管理者ガイド
nl
概要
このガイドでは、クラスターの構成と監視、システムのアップグレードとリカバリ、ハードウェアコンポーネントの交換、
およびトラブルシューティングに関する操作を説明しています。 IBRIX ファイルシステムの機能や標準の Linux 管理ツール
およびコマンドに関する説明は含まれていません。 IBRIX ファイルシステム機能の構成および使用方法については、
『HP IBRIX 9000 Storage File System ユーザーガイド』 を参照してください。
nl
本書は、ネットワークのインストールおよび管理の経験と、Linux の運用および管理作業の経験があるシステム管理者を対
象にしています。 最新の IBRIX ガイドについては、
http://www.hp.com/support/IBRIXManuals (英語) を参照してください。日本語版が用意されているマニュアルは、
http://www.hp.com/jp/manual/ (日本語) から入手できます。
nl
HP 部品番号: AW549-96052
2012 年 12 月
第 10 版
© Copyright 2009, 2012 Hewlett-Packard Development Company, L.P.
本書で取り扱っているコンピューターソフトウェアは秘密情報であり、 その保有、使用、または複製には、Hewlett-Packard Company から使
用許諾を得る必要があります。 米国政府の連邦調達規則である FAR 12.211 および 12.212 の規定に従って、コマーシャルコンピューターソ
フトウェア、コンピューターソフトウェアドキュメンテーションおよびコマーシャルアイテムのテクニカルデータ (Commercial Computer
Software, Computer Software Documentation, and Technical Data for Commercial Items) は、ベンダーが提供する標準使用許諾規定に基づいて
米国政府に使用許諾が付与されます。
本書の内容は、将来予告なしに変更されることがあります。 HP 製品、またはサービスの保証は、当該製品、およびサービスに付随する明示
的な保証文によってのみ規定されるものとします。 ここでの記載で追加保証を意図するものは一切ありません。 ここに含まれる技術的、編
集上の誤り、または欠如について、HP はいかなる責任も負いません。
商標について
Microsoft® および Windows® は、米国における Microsoft Corporation の登録商標です。
UNIX® は The Open Group の登録商標です。
保証
保証に関して: この製品に対する保証の複写が必要な際は、保証内容に関する次の Web サイトを参照してください。
http://www.hp.com/go/storagewarranty (英語)
リビジョン履歴
版
日付
ソフトウェ
ア
説明
バージョン
1
2009 年 12 月
5.3.1
IBRIX 9720 Storage の初回リリース。
2
2010 年 4 月
5.4
ネットワーク管理とサポートチケットを追加。
3
2010 年 8 月
5.4.1
Fusion Manager のバックアップ、アジャイル Fusion Manager 構成への移行、ソフト
ウェアアップグレード手順、システムリカバリ手順を追加。
4
2010 年 8 月
5.4.1
アップグレード手順を改訂。
5
2010 年 12 月
5.5
NDMP バックアップと仮想インターフェイスの構成に関する情報を追加し、クラス
ター手順を更新。
6
2011 年 3 月
5.5
セグメント排出情報を更新。
7
2011 年 4 月
5.6
アップグレード手順を改訂。
8
2011 年 9 月
6.0
アジャイル Fusion Manager、統計ツール、Ibrix Collect、イベント通知、キャパシティ
ブロックの取り付け、NTP サーバー、アップグレードに関する情報を追加または更
新。
9
2012 年 6 月
6.1
9730 システム、ハードウェアの監視、セグメント排出、HP Insight Remote Support、
ソフトウェアアップグレード、イベント、統計ツールに関する情報を追加または更
新。
10
2012 年 12 月
6.2
高可用性、フェイルオーバー、サーバーのチューニング、VLAN のタグ付け、セグメ
ントの移行と退避、アップグレード、SNMP に関する情報を追加または更新。
目次
1 製品の説明.............................................................................................12
システムの機能.....................................................................................................................12
システムコンポーネント........................................................................................................12
IBRIX ソフトウェアの機能.......................................................................................................12
高可用性と冗長性..................................................................................................................13
2 はじめに.................................................................................................14
IBRIX 9720/9730 Storage のセットアップ...............................................................................14
インストール手順.............................................................................................................14
追加の設定手順................................................................................................................14
システムへのログイン...........................................................................................................15
ネットワークを使用する場合.............................................................................................15
TFT キーボード / モニターを使用する場合..........................................................................16
Onboard Administrator のシリアルリンクを使用する場合.....................................................16
システムと各サーバーブレードの起動.....................................................................................16
管理インターフェイス...........................................................................................................16
GUI の使用.......................................................................................................................17
GUI のカスタマイズ..........................................................................................................20
GUI アクセスへのユーザーアカウントの追加......................................................................20
CLI の使用........................................................................................................................21
アレイ管理ソフトウェアの起動..........................................................................................21
9000 クライアントインターフェイス.................................................................................21
IBRIX ソフトウェアのマンページ.............................................................................................22
パスワードの変更..................................................................................................................22
ファイアウォール用のポートの構成........................................................................................22
NTP サーバーの構成..............................................................................................................24
IBRIX 9000 システム上での HP Insight Remote Support の構成....................................................24
HP Insight Remote Support に対する IBRIX クラスターの構成.................................................25
HP SIM 7.1 および IRS 5.7 の場合の HP Insight Remote Support の構成...................................29
HP SIM 6.3 および IRS 5.6 の場合の HP Insight Remote Support の構成..................................31
HP Insight Remote Support 構成のテスト..............................................................................34
Phone Home 構成の更新....................................................................................................34
Phone Home の無効化.......................................................................................................34
HP Insight Remote Support のトラブルシューティング..........................................................34
3 クライアントアクセス用の仮想インターフェイスの構成............................36
ネットワークと VIF に関するガイドライン..............................................................................36
ボンディングされた VIF の作成..............................................................................................37
バックアップサーバーの構成..................................................................................................37
NIC フェイルオーバーの構成.................................................................................................38
自動フェイルオーバーの構成..................................................................................................38
構成例..................................................................................................................................38
クライアント構成における VIF の指定.....................................................................................39
VLAN タギングの設定............................................................................................................39
リンク状態監視のサポート.....................................................................................................40
4 フェイルオーバーの構成..........................................................................41
アジャイル管理コンソール.....................................................................................................41
アジャイル Fusion Manager モード....................................................................................41
アジャイル Fusion Manager とフェイルオーバー.................................................................41
Fusion Manager についての情報の表示...............................................................................42
クラスターの高可用性の構成..................................................................................................42
フェイルオーバー中に発生するイベント.............................................................................43
目次
3
HA ウィザードによる自動フェイルオーバーの構成.............................................................43
自動フェイルオーバーの手動での構成................................................................................49
HA 構成の手動での変更................................................................................................50
サーバーの手動フェイルオーバー......................................................................................51
サーバーのフェイルバック ...............................................................................................52
HBA 監視の設定...............................................................................................................52
高可用性機能の設定のチェック..........................................................................................54
障害の発生したノードからのコアダンプの取得........................................................................55
クラッシュキャプチャをセットアップするための前提条件...................................................56
ノードのクラッシュキャプチャのセットアップ...................................................................57
5 クラスターイベント通知の構成................................................................58
クラスターイベント...............................................................................................................58
クラスターイベントの電子メール通知の設定...........................................................................58
イベントと電子メールアドレスの関連付け.........................................................................58
電子メール通知設定の構成................................................................................................59
イベントと電子メールアドレスの関連付けの解除................................................................59
電子メールアドレスのテスト.............................................................................................59
電子メール通知設定の表示................................................................................................60
SNMP 通知の設定..................................................................................................................60
SNMP エージェントの設定................................................................................................61
trapsink 設定の構成...........................................................................................................61
イベントと trapsink の関連付け..........................................................................................62
ビューの定義....................................................................................................................62
グループおよびユーザーの設定..........................................................................................63
SNMP 構成の要素の削除...................................................................................................64
SNMP 構成情報の表示......................................................................................................64
6 システムバックアップの構成...................................................................65
Fusion Manager 構成のバックアップ.......................................................................................65
NDMP バックアップアプリケーションの使用..........................................................................65
クラスターの NDMP パラメーターの設定...........................................................................66
NDMP プロセス管理.........................................................................................................66
NDMP セッションの表示またはキャンセル....................................................................67
NDMP サーバーの起動、停止、または再起動.................................................................67
テープおよびメディアチェンジャーデバイスの表示または再スキャン..................................67
NDMP イベント................................................................................................................68
7 9000 クライアントのホストグループの作成.............................................69
ホストグループの仕組み........................................................................................................69
ホストグループツリーの作成..................................................................................................69
ホストグループへの 9000 クライアントの追加.......................................................................70
ホストグループへのドメインルールの追加..............................................................................70
ホストグループの表示...........................................................................................................71
ホストグループの削除...........................................................................................................71
その他のホストグループ操作..................................................................................................71
8 クラスター操作の監視.............................................................................72
9720/9730 ハードウェアの監視.............................................................................................72
サーバーの監視................................................................................................................72
ハードウェアコンポーネントの監視...................................................................................75
ブレードエンクロージャーの監視..................................................................................76
サーバーの詳細の取得..................................................................................................79
ストレージとストレージコンポーネントの監視...................................................................82
ストレージクラスターの監視........................................................................................83
ストレージクラスターのドライブエンクロージャーの監視.........................................84
ストレージクラスターのプールの監視......................................................................86
4
目次
ストレージクラスターのストレージコントローラーの監視.........................................88
ストレージクラスター内のストレージスイッチの監視....................................................89
ストレージクラスター内の LUN の管理..........................................................................89
ファイルサービングノードの状態の監視.................................................................................90
クラスターイベントの監視.....................................................................................................91
イベントの表示................................................................................................................91
データベースのイベントテーブルからのイベントの削除......................................................92
クラスターの稼働状態の監視..................................................................................................92
ヘルスチェック................................................................................................................92
ヘルスチェックのレポート................................................................................................93
ログの表示............................................................................................................................95
インテグレーテッドマネジメントログ (IML) の表示および消去..................................................95
ファイルサービングノードの稼働状況に関する統計情報の表示.................................................95
9 Statistics ツールの使用.............................................................................97
Statistics ツールのインストールと設定.....................................................................................97
Statistics ツールのインストール..........................................................................................97
収集と同期の有効化..........................................................................................................97
Statistics ツールの IBRIX ソフトウェア 6.0 からのアップグレード..............................................98
履歴レポート GUI の使用.......................................................................................................98
レポートの生成................................................................................................................99
レポートの削除..............................................................................................................100
Statistics ツールの維持..........................................................................................................100
スペース要件..................................................................................................................100
Statistics ツール構成の更新..............................................................................................101
Statistics ツール構成の変更..............................................................................................101
Fusion Manager のフェイルオーバーと Statistics ツールの構成............................................101
Statistics ツールプロセスのステータスの確認....................................................................102
Statistics ツールプロセスの制御........................................................................................102
Statistics ツールのトラブルシューティング............................................................................102
ログファイル......................................................................................................................103
Statistics ツールのアンインストール......................................................................................103
10 システムのメンテナンス......................................................................104
システムのシャットダウン...................................................................................................104
IBRIX ソフトウェアのシャットダウン................................................................................104
システムハードウェアの電源切断....................................................................................106
システムの起動...................................................................................................................106
システムハードウェアの電源投入....................................................................................106
停電後の電源投入...........................................................................................................106
IBRIX ソフトウェアの起動................................................................................................106
ファイルサービングノードの電源オン/オフ..........................................................................107
ローリングリブートの実行...................................................................................................107
プロセスの開始と停止.........................................................................................................107
ファイルサービングノードおよび 9000 クライアントのチューニング.....................................108
セグメントの管理................................................................................................................112
セグメントの移行...........................................................................................................112
セグメントの退避とクラスターからのストレージの削除 ...................................................114
クラスターからノードを削除する.........................................................................................117
ネットワークのメンテナンス................................................................................................118
クラスターインターフェイスとユーザーネットワークインターフェイス.............................118
ユーザーネットワークインターフェイスの追加.................................................................118
構成データベースにネットワークインターフェイスオプションを設定する..........................119
ネットワークインターフェイスの優先設定.......................................................................120
ネットワークインターフェイスの優先解除.......................................................................121
ネットワークの変更........................................................................................................122
目次
5
Linux 9000 クライアントの IP アドレスの変更..............................................................122
クラスターインターフェイスの変更............................................................................122
ルーティングテーブルエントリーの管理......................................................................122
ルーティングテーブルエントリーの追加.................................................................122
ルーティングテーブルエントリーの削除.................................................................123
ネットワークインターフェイスの削除.........................................................................123
ネットワークインターフェイス情報の表示.......................................................................123
11 アジャイル Fusion Manager 構成への移行..............................................124
設定のバックアップ.............................................................................................................124
移行の実行..........................................................................................................................124
アジャイル Fusion Manager のフェイルオーバーとフェイルバックのテスト.............................127
オリジナルの管理コンソールノードを、アジャイル Fusion Manager をホストするファイルサー
ビングノードに変換.............................................................................................................127
12 IBRIX ソフトウェアの 6.2 リリースへのアップグレード..........................129
9720 シャーシファームウェアのアップグレード...................................................................131
IBRIX ソフトウェアの 6.x から 6.2 へのオンラインアップグレード..........................................131
アップグレードの準備.....................................................................................................131
アップグレードの実行.....................................................................................................131
アップグレード後...........................................................................................................132
IBRIX ソフトウェアの 6.x から 6.2 への自動オフラインアップグレード...................................133
アップグレードの準備.....................................................................................................133
アップグレードの実行.....................................................................................................133
アップグレード後...........................................................................................................134
IBRIX ソフトウェアの 6.x から 6.2 への手動オフラインアップグレード...................................135
アップグレードの準備.....................................................................................................135
アップグレードの手動での実行........................................................................................137
アップグレード後...........................................................................................................137
Linux 9000 クライアントのアップグレード............................................................................139
Linux クライアントへのカーネルのマイナーアップデートのインストール............................139
Windows 9000 クライアントのアップグレード.....................................................................140
アップグレードの問題のトラブルシューティング..................................................................140
自動アップグレード........................................................................................................140
手動アップグレード........................................................................................................141
iLO ファームウェアが古いためオフラインアップグレードに失敗する.................................141
ノードがクラスターネットワークに登録されていない ......................................................141
ファイルシステムのマウント解除の問題...........................................................................142
13 ライセンス..........................................................................................143
ライセンス条項の表示.........................................................................................................143
ライセンスキーの取得.........................................................................................................143
14 ファームウェアのアップグレード.........................................................144
ファームウェアのアップグレードのコンポーネント...............................................................144
ファームウェアのアップグレードの手順...............................................................................145
FMT に関する追加情報の参照..........................................................................................149
9730 システムへのパフォーマンスモジュールの追加........................................................149
9720 システムへの新しいサーバーブレードの追加............................................................149
15 トラブルシューティング......................................................................151
Ibrix Collect を使用した HP サポート用情報の収集..................................................................151
ログの収集.....................................................................................................................151
アーカイブファイルの削除..............................................................................................152
アーカイブファイルのダウンロード.................................................................................152
Ibrix Collect の設定..........................................................................................................153
データ収集情報の表示.....................................................................................................154
6
目次
データ収集構成情報の表示..............................................................................................154
XML ファイル内のコマンドまたはログの追加/削除...........................................................154
9720 システムのトラブルシューティング.............................................................................154
問題の報告.....................................................................................................................154
便利なユーティリティとプロセス....................................................................................155
exds_stdiag ユーティリティ........................................................................................155
exds_netdiag ユーティリティ......................................................................................156
exds_netperf ユーティリティ.......................................................................................157
Onboard Administrator へのアクセス.....................................................................................158
ネットワーク経由で OA にアクセス.................................................................................158
OA の Web ベースの管理インターフェイスにアクセス.................................................158
シリアルポート経由で OA にアクセス.............................................................................158
サービスポート経由で OA にアクセス.............................................................................158
hpacucli の使用 – アレイコンフィギュレーションユーティリティ (ACU).............................159
POST エラーメッセージ.......................................................................................................159
IBRIX 9730 コントローラーエラーメッセージ.........................................................................159
IBRIX 9720 LUN レイアウト..................................................................................................161
IBRIX 9720 コンポーネントの監視.........................................................................................162
X9700cx シャーシ上の故障 I/O モジュールの特定.................................................................162
故障の表示.....................................................................................................................162
故障したコンポーネントの特定........................................................................................162
X9700c コントローラーの取り付け直し............................................................................166
ソフトウェアのバージョン番号の表示...................................................................................166
特定の問題のトラブルシューティング...................................................................................167
ソフトウェアサービス.....................................................................................................167
フェイルオーバー...........................................................................................................167
Windows 9000 クライアント..........................................................................................168
モード 1 ボンディングまたはモード 6 ボンディング.........................................................168
Onboard Administrator が反応しない................................................................................169
IBRIX RPC のホスト呼び出しが失敗する............................................................................169
サーバーブレード/電源 PIC の劣化.................................................................................169
LUN ステータスが「failed」............................................................................................169
HP P700m の明らかな不具合...........................................................................................170
X9700c エンクロージャーの前面パネルの障害 ID LED が黄色になっている..........................171
交換用ディスクドライブの LED が緑点灯しない................................................................171
X9700cx GSI LED が黄色になっている..............................................................................171
ファームウェア更新後、X9700cx ドライブの LED が黄色になっている...............................171
Virtual Connect ドメインの構成.............................................................................................172
ファイルサービングノード上の情報と構成情報データベースの同期........................................172
Express Query Manual Intervention Failure (MIF) のトラブルシューティング...............................173
16 9720/9730 ストレージの復旧..............................................................175
最新の IBRIX ソフトウェアのリリースの取得..........................................................................175
リカバリの準備...................................................................................................................175
9720 または 9730 ファイルサービングノードのリカバリ.......................................................176
復旧の完了 .........................................................................................................................182
トラブルシューティング......................................................................................................184
iLO リモートコンソールがキー入力に反応しない..............................................................184
17 サポートとその他の資料......................................................................185
HP のサポート窓口..............................................................................................................185
関連情報.............................................................................................................................185
HP Web サイト...................................................................................................................186
ラックに関する注意.............................................................................................................186
製品の保証..........................................................................................................................186
目次
7
A 段階的なアップグレード........................................................................187
IBRIX ソフトウェアの 6.1 リリースへのアップグレード...........................................................187
9720 シャーシファームウェアのアップグレード...............................................................187
IBRIX ソフトウェアの 6.x から 6.1 へのオンラインアップグレード......................................188
アップグレードの準備................................................................................................188
アップグレードの実行................................................................................................188
アップグレード後......................................................................................................189
IBRIX ソフトウェアの 5.6.x または 6.0.x から 6.1 へのオフラインアップグレード...............189
アップグレードの準備................................................................................................189
アップグレードの実行................................................................................................191
アップグレード後......................................................................................................191
Linux 9000 クライアントのアップグレード.......................................................................192
Linux クライアントへのカーネルのマイナーアップデートのインストール.......................193
Windows 9000 クライアントのアップグレード................................................................193
6.0 以前のファイルシステムのアップグレードによるソフトウェアスナップショットのサポー
ト..................................................................................................................................193
6.1.1 より前のファイルシステムのデータ保管機能のためのアップグレード.........................195
アップグレードの問題のトラブルシューティング..............................................................195
自動アップグレード...................................................................................................195
手動アップグレード...................................................................................................196
iLO ファームウェアが古いためオフラインアップグレードに失敗する............................196
ノードがクラスターネットワークに登録されていない .................................................196
ファイルシステムのマウント解除の問題......................................................................197
Fusion Manager VIF の bond1 への移動........................................................................197
IBRIX ソフトウェアの 5.6 リリースへのアップグレード..........................................................198
自動アップグレード........................................................................................................199
手動アップグレード........................................................................................................199
アップグレードの準備................................................................................................200
ノード構成の保存......................................................................................................200
アップグレードの実行................................................................................................200
ノード構成の復元......................................................................................................200
アップグレードの完了................................................................................................201
アップグレードの問題のトラブルシューティング..............................................................201
自動アップグレード...................................................................................................201
手動アップグレード...................................................................................................202
IBRIX ソフトウェアの 5.5 リリースへのアップグレード..........................................................202
自動アップグレード........................................................................................................203
手動アップグレード........................................................................................................204
専用管理サーバーマシンまたはブレードを持つクラスターの標準アップグレード...........204
標準オンラインアップグレード..............................................................................204
標準オフラインアップグレード..............................................................................206
アジャイル管理コンソール構成を持つクラスターのアジャイルアップグレード...............208
アジャイルオンラインアップグレード....................................................................208
アジャイルオフラインアップグレード....................................................................212
アップグレードの問題のトラブルシューティング..............................................................215
B IBRIX 9730 コンポーネントおよびケーブル配線図....................................216
メインラックの背面図.........................................................................................................216
拡張ラックの背面図.............................................................................................................217
IBRIX 9730 CX I/O モジュールおよび SAS ポートコネクター..................................................217
IBRIX 9730 CX 1 と SAS スイッチの接続...............................................................................218
IBRIX 9730 CX 2 と SAS スイッチの接続...............................................................................219
IBRIX 9730 CX 3 と SAS スイッチの接続...............................................................................220
IBRIX 9730 CX 7 と SAS スイッチの接続 (拡張ラック)............................................................221
8
目次
C IBRIX 9730 スペアパーツリスト .............................................................222
HP
HP
HP
HP
HP
IBRIX 9730 パフォーマンスシャーシ (QZ729A).................................................................222
IBRIX 9730 140 TB MLStorage 2xBL パフォーマンスモジュール (QZ730A)............................222
IBRIX 9730 210 TB ML Storage 2xBL パフォーマンスモジュール (QZ731A)...........................223
X9730 140 TB 6G ML Storage 2xBL パフォーマンスモジュール (QZ732A)...........................223
X9730 210TB 6G ML Storage 2xBL パフォーマンスモジュール (QZ733A)............................224
D IBRIX 9720 コンポーネントおよびケーブル配線図....................................225
ベースキャビネットおよび拡張キャビネット.........................................................................225
ベースキャビネットの前面図...........................................................................................225
キャパシティブロック 1 個のベースキャビネットの背面図................................................226
フル装備のベースキャビネットの前面図...........................................................................227
フル装備のベースキャビネットの背面図...........................................................................228
拡張キャビネットの前面図 .............................................................................................229
キャパシティブロックが 4 個の拡張キャビネットの背面図................................................230
パフォーマンスブロック (c-Class ブレードエンクロージャー)..................................................230
c-Class ブレードエンクロージャーの前面図.......................................................................231
c-Class ブレードエンクロージャーの背面図.......................................................................231
Flex-10 ネットワーク.......................................................................................................231
キャパシティブロック.........................................................................................................232
X9700c (12 ディスクドライブのアレイコントローラー).....................................................233
X9700c 前面図...........................................................................................................233
X9700c 背面図...........................................................................................................233
X9700cx (70 ディスクドライブの高密度 JBOD).................................................................234
X9700cx 前面図.........................................................................................................234
X9700cx 背面図.........................................................................................................234
配線図................................................................................................................................235
キャパシティブロックのケーブル接続 — ベースキャビネットおよび拡張キャビネット........235
Virtual Connect Flex-10 Ethernet モジュールのケーブル接続 — ベースキャビネット...............235
SAS スイッチのケーブル接続 — ベースキャビネット........................................................237
SAS スイッチのケーブル接続 — 拡張キャビネット...........................................................237
E IBRIX 9720 スペアパーツリスト .............................................................239
IBRIX 9720 Storage Base (AW548A)......................................................................................239
X9700 拡張ラック (AQ552A)................................................................................................239
X9700 サーバーシャーシ (AW549A).....................................................................................239
X9700 ブレードサーバー (AW550A).....................................................................................240
X9700 82TB キャパシティブロック (X9700c および X9700cx) (AQ551A).................................240
X9700 164TB キャパシティブロック (X9700c および X9700cx) (AW598B)...............................241
F 警告および注意事項...............................................................................243
静電気対策の情報................................................................................................................243
静電気による損傷の防止.................................................................................................243
アースの方法.............................................................................................................243
アースの方法..................................................................................................................243
装置の記号..........................................................................................................................244
重量警告.............................................................................................................................244
ラックに関する警告と注意事項............................................................................................245
デバイスに関する警告と注意事項.........................................................................................245
G 規定に関するご注意..............................................................................248
規定準拠識別番号................................................................................................................248
Federal Communications Commission notice (米国)...................................................................248
FCC rating label..............................................................................................................248
Class A equipment......................................................................................................248
Class B equipment......................................................................................................248
Modification...................................................................................................................249
目次
9
Cables...........................................................................................................................249
Canadian notice (Avis Canadien) (カナダおよびカナダ、フランス語使用地域)...........................249
Class A equipment...........................................................................................................249
Class B equipment...........................................................................................................249
European Union notice (欧州).................................................................................................249
Japanese notices (日本).........................................................................................................250
VCCI-A に関するご注意...................................................................................................250
VCCI-B に関するご注意...................................................................................................250
VCCI マーク...................................................................................................................250
電源コードに関するご注意..............................................................................................250
Korean notices (韓国)............................................................................................................250
Class A equipment...........................................................................................................250
Class B equipment...........................................................................................................250
Taiwanese notices (台湾).......................................................................................................251
BSMI Class A notice.........................................................................................................251
Taiwan battery recycle statement........................................................................................251
Turkish recycling notice (トルコ).............................................................................................251
Vietnamese Information Technology and Communications compliance marking (ベトナム).............251
レーザー規定に関するご注意................................................................................................251
English laser notice (英語).................................................................................................251
Dutch laser notice (オランダ語).........................................................................................252
French laser notice (フランス語)........................................................................................252
German laser notice (ドイツ語).........................................................................................252
Italian laser notice (イタリア語)........................................................................................253
Japanese laser notice (日本語)...........................................................................................253
Spanish laser notice (スペイン語)......................................................................................253
リサイクルに関するご注意...................................................................................................254
English recycling notice (英語)...........................................................................................254
Bulgarian recycling notice (ブルガリア語)...........................................................................254
Czech recycling notice (チェコ語)......................................................................................254
Danish recycling notice (デンマーク語)..............................................................................254
Dutch recycling notice (オランダ語)...................................................................................254
Estonian recycling notice (エストニア語)............................................................................255
Finnish recycling notice (フィンランド語)...........................................................................255
French recycling notice (フランス語)..................................................................................255
German recycling notice (ドイツ語)...................................................................................255
Greek recycling notice (ギリシャ語)...................................................................................255
Hungarian recycling notice (ハンガリー語).........................................................................255
Italian recycling notice (イタリア語)...................................................................................256
Latvian recycling notice (ラトビア語)..................................................................................256
Lithuanian recycling notice (リトアニア語)..........................................................................256
Polish recycling notice (ポーランド語)................................................................................256
Portuguese recycling notice (ポルトガル語).........................................................................256
Romanian recycling notice (ルーマニア語)..........................................................................257
Slovak recycling notice (スロバキア語)...............................................................................257
Spanish recycling notice (スペイン語)................................................................................257
Swedish recycling notice (スウェーデン語).........................................................................257
バッテリーの廃棄に関するご注意.........................................................................................258
Dutch battery notice (オランダ語)......................................................................................258
French battery notice (フランス語).....................................................................................258
German battery notice (ドイツ語)......................................................................................259
Italian battery notice (イタリア語).....................................................................................259
バッテリーに関するご注意 (日本語).................................................................................260
10
目次
Spanish battery notice (スペイン語)...................................................................................260
用語集.....................................................................................................261
索引........................................................................................................263
目次
11
1 製品の説明
HP 9720 および 9730 Storage は、スケーラブルなネットワーク接続型ストレージ (NAS) 製品
です。 このシステムは HP IBRIX ソフトウェアと HP のサーバーおよびストレージハードウェ
アを結合して、ファイルサービングノードに対するクラスターを創出します。
システムの機能
9720 および 9730 Storage には、以下の特徴があります。
•
単一の名前空間においてセグメント化されたスケーラブルなファイルシステム
•
ファイルシステムデータにアクセスするための NFS、SMB (Server Message Block)、FTP、
HTTP サポート
•
一元的な CLI および GUI によるクラスター管理
•
ポリシー管理
•
継続的なリモート複製
•
すべてのストレージコンポーネントに対するデュアルの冗長パス
•
ギガバイト/秒のスループット
重要: クラスター構成は定期的にバックアップすることが重要です。 詳細については、「Fusion
Manager 構成のバックアップ」 (65 ページ) を参照してください。
システムコンポーネント
重要: IBRIX 9720/9730 Storage に含まれるすべてのソフトウェアは、システムの操作のみ
を目的とするものです。 HP 担当者の指示がない場合は、ソフトウェアの追加、削除または変
更をしないでください。
9730 のシステムコンポーネントおよびケーブル接続に関する情報は、「IBRIX 9730 コンポー
ネントおよびケーブル配線図」 (216 ページ) をご覧ください。
9720 のシステムコンポーネントおよびケーブル接続に関する情報は、付録 D 「IBRIX 9720 コ
ンポーネントおよびケーブル配線図」をご覧ください。
システムコンポーネントの完全なリストについては、次のサイトにある『HP IBRIX 9000 Storage
QuickSpecs』を参照してください。
http://www.hp.com/go/StoreAll (英語)
IBRIX ソフトウェアの機能
HP IBRIX ソフトウェアは、スケールアウト型ネットワーク接続ストレージソリューションであ
り、クラスター用のパラレルファイルシステムおよび統合ボリュームマネージャー、複数のコ
ンポーネントの自動フェイルオーバーなどの高可用性機能、および集中管理インターフェイス
を含んでいます。 IBRIX ソフトウェアは、何千ものノードに拡張可能です。
セグメント化されたファイルシステムアーキテクチャーに基づく IBRIX ソフトウェアは、複数
のアプリケーションで共有、および Fusion Manager で中央管理可能な単一のクラスター環境
に、I/O およびストレージシステムを統合します。
IBRIX ソフトウェアは、高 I/O 帯域幅、高 IOPS スループット、およびスケーラブルな構成を
必要とする高パフォーマンスコンピューティングアプリケーションとともに動作するように設
計されています。
主な機能とメリットのいくつかを次に示します。
•
12
スケーラブルな構成。 サーバーの増設によりパフォーマンスを拡張でき、ストレージデバ
イスの増設により容量を拡張できます。
製品の説明
•
単一の名前空間。 すべてのディレクトリとファイルが同じ名前空間に格納されます。
•
複数の環境。 SAN 環境と DAS 環境の両方で動作します。
•
高可用性。 高可用性ソフトウェアがサーバーを保護します。
•
チューニング機能。 システムを I/O ブロックのサイズに合わせてチューニングできます。
•
柔軟な構成。 セグメントを動的に移行して再バランスおよびデータ階層化を実施できま
す。
高可用性と冗長性
セグメント化されたアーキテクチャーは、障害回復の基盤となります。1 つ以上のセグメント
へのアクセスが失われても、ファイルシステム全体がアクセス不能になることはありません。
個々のセグメントは保守作業のため一時的にオフラインにした後、ファイルシステムに戻すこ
とができます。
IBRIX ソフトウェアでは、次のような様々なポイントにおける手動および自動でのフェイルオー
バー保護が可能です。これにより、継続的なデータアクセスが保証されます。
•
サーバー: 障害の発生したノードは電源を遮断され、指定されたスタンバイサーバーがセ
グメント管理をすべて引き継ぎます。
•
セグメント: 指定されたスタンバイサーバーが、障害の発生したノード上の各セグメント
のオーナーシップを引き継ぎます。
•
ネットワークインターフェイス: 障害の発生したネットワークインターフェイスが再び稼
働状態になるまでの間、スタンバイネットワークインターフェイスが IP アドレスを引き継
ぎます。
•
ストレージの接続: HBA で保護されたファイバーチャネルアクセスを使用しているサー
バーの場合、HBA に障害が発生すると、ノードからの指定されたスタンバイサーバーへの
フェイルオーバーがトリガーされます。
高可用性と冗長性
13
2 はじめに
この章では、システムへのログイン、システムと各サーバーブレードの起動、パスワードの変
更、Fusion Manager 構成のバックアップに関する手順について説明します。 また、IBRIX ソフ
トウェア管理インターフェイスについても説明します。
重要:
システムをご使用の際は、次のガイドラインに従ってください。
•
HP からの指示がない限り、オペレーティングシステムやカーネルのパラメーターを変更
したり、IBRIX 9720/9730 Storage の一部を更新したりしないでください。システムが正
常に動作しなくなる可能性があります。
•
ファイルサービングノードはファイルサービング操作に応じてチューニングされていま
す。 サポートされているバックアッププログラムを除き、その他のアプリケーションを
ノード上で直接実行しないでください。
IBRIX 9720/9730 Storage のセットアップ
HP のサービススペシャリストがお客様のサイトでシステムを設定します。次のような作業を
行います。
インストール手順
•
設置を始める前に、製品のコンポーネントがそれらの設置場所に配置されていることを確
認します。 製品の梱包を解き、各梱包に含まれているアイテムのリストと実際の内容を照
合し、製品外部に物理的な損傷がないことを確認します。次に、製品を電源に接続し、お
客様のネットワークに接続します。
•
HP Enterprise NAS 製品の実装に関連するお客様のサーバー、ネットワーク、ストレージ
環境を確認し、前提条件が満たされているかどうか検証します。
•
サービス計画フェーズ以降に、お客様のファイルシステムパフォーマンス、可用性、管理
に関する要件が変更されていないことを確認します。 HP Enterprise NAS 製品の実装計画
とソフトウェア構成を最終決定します。
•
配布前チェックリストに記載されている情報に基づいて、文書化された合意に基づく構成
を実装します。
•
構成の詳細を文書化します。
追加の設定手順
システムが稼働したら、続けてクラスターおよびファイルシステムに関する追加設定を行うこ
とができます。 大部分の操作は管理コンソール GUI と CLI を使用して行います (ここに記載さ
れている機能の一部は、システムインストールの過程で設定される場合もあります)。
クラスター: 必要に応じて次のように設定します。
14
•
ファイアウォールポート。 「ファイアウォール用のポートの構成」 (22 ページ) を参照し
てください。
•
HP Insight Remote Support および Phone Home。 「IBRIX 9000 システム上での HP Insight
Remote Support の構成」 (24 ページ) を参照してください。
•
クライアントアクセス用の仮想インターフェイス。 「クライアントアクセス用の仮想イン
ターフェイスの構成」 (36 ページ) を参照してください。
•
電子メールまたは SNMP を介したクラスターイベント通知。 「クラスターイベント通知
の構成」 (58 ページ) を参照してください。
•
Fusion Manager バックアップ。 「Fusion Manager 構成のバックアップ」 (65 ページ) を
参照してください。
はじめに
•
NDMP バックアップ。 「NDMP バックアップアプリケーションの使用」 (65 ページ) を
参照してください。
•
統計ツール。 「Statistics ツールの使用」 (97 ページ) を参照してください。
•
Ibrix Collect。 「Ibrix Collect を使用した HP サポート用情報の収集」 (151 ページ) を参照
してください。
ファイルシステム: 必要に応じて次の機能を設定します。
•
NFS、SMB (Server Message Block)、FTP、または HTTP。 ファイルシステムデータにアク
セスするために使用する方法を設定します。
•
クォータ。 必要に応じて、ユーザー、グループ、ディレクトリツリーのクォータを設定し
ます。
•
リモート複製。 この機能を使用すると、あるクラスター上のソースファイルシステム内で
発生した変更を、同じクラスターか、または別のクラスター上のターゲットファイルシス
テムに複製できます。
•
データの保管と検証。 この機能を使用すると、WORM (Write-Once Read-Many) と保管さ
れたファイルを管理できます。
•
ウイルス対策サポート。 この機能はサポートされているウイルス対策ソフトウェアを使用
して、IBRIX ファイルシステム上でファイルをスキャンできます。
•
IBRIX ソフトウェアスナップショット。 この機能により、オンラインバックアップを目的
としたファイルシステムまたはディレクトリのポイントインタイムコピーを取得できま
す。また、誤って削除されたファイルを簡単に回復することも可能です。 ユーザーはス
ナップショットに表示された時点でのファイルシステムまたはディレクトリにアクセスで
きます。
•
ファイルの割り当て。 この機能を使用すると、新しいファイルとディレクトリを格納する
ためのセグメントの選択方法を指定できます。
•
データ階層化。 この機能を使用すると、ファイルをファイル属性に基づいて特定の階層に
移動できます。
これらのファイルシステム機能の詳細については、『HP IBRIX 9000 Storage File System ユー
ザーガイド』 を参照してください。
ローカライズのサポート
Red Hat Enterprise Linux 5 では、サポートされたロケール用に UTF-8 (8 ビット Unicode
Transformation Format) エンコードを使用します。 これにより、別のロケールで UTF-8 を使用
して作成されたドキュメントを表示、編集、作成することができます。IBRIX ソフトウェアで
は、/etc/sysconfig/i18n 設定ファイルをユーザーのロケールに合わせて変更することが
できます。 次の例では、複数の文字セットに LANG および SUPPORTED 変数を設定していま
す。
LANG="ko_KR.utf8"
SUPPORTED="en_US.utf8:en_US:en:ko_KR.utf8:ko_KR:ko:zh_CN.utf8:zh_CN:zh"
SYSFONT="lat0-sun16"
SYSFONTACM="iso15"
システムへのログイン
ネットワークを使用する場合
別のホストからリモートでログインする場合は、ssh を使用します。 構成済みのいずれかの
サイトネットワークインターフェイス (eth1、eth2、または bond1) を使用して、すべてのサー
バーにログインできます。
システムへのログイン
15
ssh で root ユーザーとしてログインすると、サーバーへのログイン後、.ssh/known_hosts
ファイルによりクラスター内のサーバーを操作できます。
お客様のクラスター内のオリジナルのサーバーブレードは、パスワード不要の ssh をサポー
トするよう構成されています。 1 つのサーバーに接続すると、root パスワードを再度入力し
なくても他のサーバーに接続できます。 他のサーバーブレードで同じサポートを可能にした
り、パスワードを入力せずにシステム自体にアクセスするには、他のサーバーの鍵を各サー
バーブレードの .ssh/authorized_keys に追加します。
TFT キーボード / モニターを使用する場合
サイトのネットワークがダウンした場合、次の手順でコンソールにログインできます。
1. キーボードモニターを引き出します (「ベースキャビネットの前面図」 (225 ページ) 参照)。
2. Print Scrn または Ctrl を 1 秒以内に 2 度押し、スクリーン表示 (OSD) のメインダイアログ
ボックスにアクセスします。
3. 最初のサーバー名をダブルクリックします。
4. 通常どおりログインします。
注記: デフォルトでは、最初のポートがブレード 1 の前面のドングル (つまりサーバー 1) に
接続されています。 サーバー 1 がダウンしている場合、ドングルは別のブレードに接続しま
す。
Onboard Administrator のシリアルリンクを使用する場合
ターミナルサーバーに接続する場合は、Onboard Administrator のシリアルリンクを介してロ
グインできます。
システムと各サーバーブレードの起動
システムを起動する前に、サーバーブレード以外のすべてのシステムコンポーネント (キャパ
シティブロックやパフォーマンスモジュールなど) の電源が入っていることを確認してくださ
い。 デフォルトでは、サーバーブレードは、システムパフォーマンスシャーシ (c-Class Blade
エンクロージャー) に電源が供給された時点で起動します。 すべてのサーバーブレードの電源
が切れている場合、次の手順でシステムを起動できます。
1. サーバーブレード 1 の電源ボタンを押します。
2. サーバー 1 に root ユーザーとしてログインします。
3. 残りのサーバーブレードの電源を入れます。
ibrix_server -P on -h <hostname>
注記: または、残りのすべてのサーバーの電源ボタンを押します。 最初のサーバーブ
レードの起動を待つ必要はありません。
管理インターフェイス
クラスター処理は、IBRIX Fusion Manager によって管理します。Fusion Manager では GUI と
CLI の両方を使用できます。 ほとんどの操作は、GUI と CLI のどちらからでも実行できます。
CLI からしか実行できない操作は次のとおりです。
16
•
SNMP 設定 (ibrix_snmpagent、ibrix_snmpgroup、ibrix_snmptrap、
ibrix_snmpuser、ibrix_snmpview)
•
ヘルスチェック (ibrix_haconfig、ibrix_health、ibrix_healthconfig)
•
Raw ストレージ管理 (ibrix_pv、ibrix_vg、ibrix_lv)
•
Fusion Manager の操作 (ibrix_fm) と Fusion Manager のチューニング (ibrix_fm_tune)
•
ファイルシステムのチェック (ibrix_fsck)
はじめに
•
カーネルプロファイリング (ibrix_profile)
•
クラスター構成 (ibrix_clusterconfig)
•
構成情報データベースの整合性維持 (ibrix_dbck)
•
シェルタスク管理 (ibrix_shell)
GUI からしか実行できない操作は次のとおりです。
•
データ検証スキャンの自動更新スケジューリング
•
ソフトウェアスナップショットの自動更新スケジューリング
GUI の使用
GUI は、Fusion Manager へのブラウザーベースのインターフェイスです。 サポートされてい
るブラウザーと、ダッシュボードでチャートを表示するために必要なその他のソフトウェアに
ついては、リリースノートを参照してください。 必要に応じて複数の GUI ウィンドウを開く
ことができます。
HTTP を使用して GUI にアクセスする場合は、Web ブラウザーを開き、ポート 80 を指定して
次の場所に移動してください。
http://<management_console_IP>:80/fusion
HTTPS を使用して GUI にアクセスする場合は、ポート 443 を指定して次の場所に移動してく
ださい。
https://<management_console_IP>:443/fusion
これらの URL で、<management_console_IP> は、Fusion Manager ユーザー VIF の IP アド
レスを指しています。
ユーザー名とパスワードを入力するダイアログボックスが表示されます。 デフォルトの管理
ユーザーは ibrix です。 システムのインストール時にこのユーザーに割り当てられたパス
ワードを入力します (このパスワードは Linux の passwd コマンドを使用して変更できます)。
ほかのユーザーも GUI にアクセスできるようにする場合は、「GUI アクセスへのユーザーア
カウントの追加」 (20 ページ) を参照してください。
ログインすると、GUI ダッシュボードが開き、クラスター全体を監視できるようになります
(GUI の表示と操作の詳細については、オンラインヘルプを参照してください)。 ダッシュボー
管理インターフェイス
17
ドは、システムステータス、クラスターの概要、ナビゲーターという 3 つの部分で構成されて
います。
システムステータス
[System Status] セクションには、直前の 24 時間以内に発生したクラスターイベントの数が表
示されます。 イベントには次の 3 つの種類があります。
アラート: ファイルシステムデータへのアクセスが失われる可能性のある中断イベント。 たとえば、セ
グメントが使用不能になった場合や、サーバーがアクセス不能になった場合など。
警告: ファイルシステムへのアクセスは失われないものの、中断を招く可能性のある状態。この状態に
対処しないでいると、アラート条件にまで悪化する可能性があります。 たとえば、サーバー CPU の使
用率が非常に高い場合や、クォータ制限値に近づいている場合など。
情報: クラスターに対する変更に伴って通常生じるイベント。 たとえば、ファイルシステムをマウント
した場合やセグメントを作成した場合など。
クラスターの概要
クラスターの概要では、次の情報を提供します。
[Capacity]
現在未使用の、または使用中のクラスターストレージスペースの容量。
[File systems]
クラスター内のファイルシステムの現在のヘルスステータス。 概要では、それぞれの状態
(健全、警告状態、アラート状態、不明) のファイルシステムの数を示します。
[Segment Servers]
クラスター内のファイルサービングノードの現在のヘルスステータス。 概要では、それぞ
れの状態 (健全、警告状態、アラート状態、不明) のノード数を示します。
18
はじめに
[Services]
指定したファイルシステムサービスが現在動作しているかどうかを示します。
1 つ以上のタスクが実行
中。
実行中のタスクなし。
[Statistics]
以下の項目に関する履歴パフォーマンスグラフ
•
ネットワーク I/O (MB/秒)
•
ディスク I/O (MB/秒)
•
CPU 使用率 (%)
•
メモリ使用率 (%)
各グラフの X 軸は時間、Y 軸はパフォーマンスを表します。
[Statistics] メニューを使用して、監視するサーバーの選択 (2 台まで)、Y 軸の最大値の変更、
CPU とメモリのリソース使用率分布の表示/非表示を行います。
[Recent Events]
最近のクラスターイベント。 [Recent Events] メニューを使用して、表示するイベントのタ
イプを選択します。
[Cluster Overview] から特定のメニュー項目に直接アクセスすることもできます。 [Capacity]、
[Filesystems]、または [Segment Servers] のインジケーター上にマウスを移動すると、使用可能
なオプションが表示されます。
ナビゲーター
ナビゲーターはウィンドウの左側にあり、クラスター階層を表示します。 ナビゲーターを使用
してクラスター構成内にドリルダウンし、ファイルシステムやストレージなどのクラスターオ
ブジェクトを追加、表示、または変更したり、スナップショットや複製などのタスクを開始ま
たは表示することができます。 オブジェクトを選択すると、詳細ページにそのオブジェクトの
概要が表示されます。 下部のナビゲーターでは、選択したオブジェクトの詳細を表示したり、
タスクを開始したりすることができます。 次の例では、上部のナビゲーターで [Filesystems] を
選択し、下部のナビゲーターで [Mountpoints] を選択することで、ファイルシステム ifs1 の
マウントに関する詳細を表示しています。
管理インターフェイス
19
注記: GUI で操作を行う場合、操作が完了するまで回転する指の図が表示されます。 ただ
し、Windows リモートデスクトップを使用して GUI にアクセスしている場合、回転する指の
図は表示されません。
GUI のカスタマイズ
GUI に表が表示されているときは、ほとんどの場合、表示する列を指定でき、各列のソート順
序を指定できます。 この機能を使用できる場合は、列の上にマウスを合わせると、ラベルの色
が変化し、ポインターが表示されます。 ポインターをクリックすると、使用可能なオプション
が表示されます。 次の例では、[Mountpoint] 列の内容を昇順または降順にソートでき、表示に
含める列を選択できます。
GUI アクセスへのユーザーアカウントの追加
IBRIX ソフトウェアは管理者ロールとユーザーロールをサポートしています。 管理者ロールで
ログインしたユーザーは、クラスターを設定したり、リモート複製やスナップショットなどの
操作を開始することができます。 ユーザーロールでログインしたユーザーは、クラスター設定
とステータスを表示できますが、設定を変更したり操作を開始したりすることはできません。
デフォルトの管理ユーザー名は ibrix です。 デフォルトの標準ユーザー名は ibrixuser で
す。
管理者ロールとユーザーロールのユーザー名は、/etc/group ファイルで定義します。 管理
ユーザーは ibrix-admin グループ内に指定し、標準ユーザーは ibrix-user グループに指
20
はじめに
定します。 これらのグループは、IBRIX ソフトウェアのインストール時に作成されます。 次に
示す /etc/group ファイル内のエントリーは、これらのグループ内のデフォルトユーザーを
示しています。
ibrix-admin:x:501:root,ibrix
ibrix-user:x:502:ibrix,ibrixUser,ibrixuser
必要に応じて、Linux コマンドを使用して、これらのグループにほかのユーザーを追加するこ
とができます。 例を次に示します。
adduser -G ibrix-<groupname> <username>
adduser コマンドを使用するときには、必ず -G オプションを含むようにしてください。
CLI の使用
本書で述べる管理コマンドは、Fusion Manager ホスト上で実行する必要があります。これらの
コマンドを実行するには、root 権限が必要です。 これらのコマンドは $IBRIXHOME⁄bin にあ
ります。 コマンドの詳細については、『HP IBRIX 9000 Network Storage System CLI リファレ
ンスガイド』を参照してください。
ssh を使用して Fusion Manager をホストするマシンにアクセスする場合は、Fusion Manager
ユーザー VIF の IP アドレスを指定します。
アレイ管理ソフトウェアの起動
アレイのタイプによっては、GUI からアレイ管理ソフトウェアを起動できます。 ナビゲーター
で [Vendor Storage] を選択し、[Vendor Storage] ページからアレイを選択して、[Launch Storage
Management] をクリックします。
9000 クライアントインターフェイス
9000 クライアントから Fusion Manager にアクセスする方法は次のとおりです。
•
Linux クライアント: ファイルシステムのマウントまたはアンマウントや統計情報の表示
などのタスクには、Linux クライアントコマンドを使用します。 これらのコマンドの詳細
については、『HP IBRIX 9000 Storage CLI リファレンスガイド』を参照してください。
•
Windows クライアント: ファイルシステムのマウントまたはアンマウントや Windows ク
ライアントの登録などのタスクには、Windows クライアント GUI を使用します。
Windows 9000 クライアント GUI の使用
Windows 9000 クライアント GUI は、Fusion Manager へのクライアントインターフェイスで
す。 GUI を開くには、デスクトップアイコンをダブルクリックするか、クライアントの [ス
タート] メニューから 9000 クライアントプログラムを選択します。 このクライアントプログ
ラムには、機能別のタブが表示されます。
注記: Windows 9000 クライアント GUI を起動できるのは、管理者権限を持つユーザーのみ
です。
•
[Status]: クライアントの Fusion Manager 登録ステータスおよびマウントされているファ
イルシステムを表示し、トラブルシューティングに役立つ IAD ログへのアクセスを提供し
ます。
•
[Registration]: Fusion Manager にクライアントを登録します。詳しくは、『HP IBRIX 9000
Storage インストールガイド』を参照してください。
•
[Mount]: ファイルシステムをマウントします。 リストからクラスター名 (Fusion Manager
名) を選択し、マウントするファイルシステムの名前を入力した後、ドライブを選択して、
[Mount] をクリックします (リモートデスクトップを使用してクライアントにアクセスする
ときにドライブ文字が表示されない場合は、いったんログアウトしてからログインし直し
ます)。
管理インターフェイス
21
•
[Umount]: ファイルシステムをアンマウントします。
•
[Tune Host]: 優先する NIC (クライアント用に異なるネットワークインターフェイスを優先
していない限り、クライアントはデフォルトでクラスターインターフェイスを使用しま
す)、通信プロトコル (UDP または TCP)、使用するサーバースレッドの数などのパラメー
ターをチューニングできます。
•
[Active Directory Settings]: 現在の Active Directory 設定を表示します。
詳しくは、クライアント GUI のオンラインヘルプを参照してください。
IBRIX ソフトウェアのマンページ
IBRIX ソフトウェアでは、ほとんどのコマンドのマンページが用意されています。 マンページ
を表示するには、MANPATH 変数を設定し、マンページへのパスを含め、エクスポートします。
マンページは $IBRIXHOME/man ディレクトリにあります。 たとえば、$IBRIXHOME が /usr/
local/ibrix (デフォルト) の場合は、MANPATH 変数を次のように設定し、変数をエクスポー
トします。
MANPATH=$MANPATH:/usr/local/ibrix/man
パスワードの変更
重要: hpspAdmin ユーザーアカウントは IBRIX ソフトウェアのインストール時に追加され、
内部で使用されます。 このアカウントを削除したり、パスワードを変更しないでください。
システム上の次のパスワードを変更できます。
•
ハードウェアパスワード: 詳しくは、特定のハードウェアのマニュアルを参照してくださ
い。
•
root パスワード: 各サーバーで passwd(8) コマンドを使用します。
•
IBRIX ソフトウェアユーザーパスワード: このパスワードはインストール時に作成され、
GUI へのログイン時に使用されます。 デフォルトは ibrix です。 このパスワードは Linux
の passwd コマンドを使用して変更できます。
# passwd ibrix
新しいパスワードを入力するように求められます。
ファイアウォール用のポートの構成
重要: 予期しない結果が生じないように、HP では、ファイアウォールの構成はスケジュール
されたメンテナンス時間に実行することをお勧めします。
ファイアウォールの構成時には、次の点に注意する必要があります。
22
•
SELinux を無効化する必要があります。
•
デフォルトでは、マウントやロックなどの操作に対して、NFS はランダムなポート番号を
使用します。 これらのポートを固定して、ファイアウォール構成ファイルに例外として表
示できるようにする必要があります。 たとえば、rpc.statd、rpc.lockd、
rpc.mountd、rpc.quotad のために固有のポートをロックする必要があります。
•
すべてのネットワーク上ですべての ICMP タイプを許可するのが最善の方法ですが、必要
に応じて ICMP のタイプを 0、3、8、11 に制限することもできます。
はじめに
次の表に示すポートを必ず開いてください。
ポート
説明
22/tcp
SSH
9022/tcp
Onboard Administrator (OA) 用の SSH (9720/9730 ブレードのみ)
123/tcp、123/upd
NTP
5353/udp
マルチキャスト DNS、224.0.0.251
12865/tcp
netperf ツール
80/tcp
Fusion Manager からファイルサービングノードへ
443/tcp
5432/tcp
Fusion Manager および IBRIX ファイルシステム
8008/tcp
9002/tcp
9005/tcp
9008/tcp
9009/tcp
9200/tcp
ファイルサービングノードと NFS クライアント間 (ユーザーネットワーク)
2049/tcp、2049/udp
NFS
111/tcp、111/udp
RPC
875/tcp、875/udp
クォータ
32803/tcp
lockmanager
32769/udp
lockmanager
892/tcp、892/udp
マウントデーモン
662/tcp、662/udp
stat
2020/tcp、2020/udp
stat 送信
4000:4003/tcp
カスタムアプリケーション (CMU) で使用するために予約 (使用しない場合は無
効にできる)
137/udp
ファイルサービングノードと SMB クライアント間 (ユーザーネットワーク)
138/udp
139/tcp
445/tcp
9000:9002/tcp
ファイルサービングノードと 9000 クライアント間 (ユーザーネットワーク)
9000:9200/udp
20/tcp、20/udp
ファイルサービングノードと FTP クライアント間 (ユーザーネットワーク)
21/tcp、21/udp
7777/tcp
GUI と、GUI にアクセスする必要のあるクライアント間
8080/tcp
5555/tcp、5555/udp
Dataprotector
631/tcp、631/udp
Internet Printing Protocol (IPP)
1344/tcp、1344/udp
ICAP
ファイアウォール用のポートの構成
23
NTP サーバーの構成
クラスターの初期設定時には、プライマリおよびセカンダリ NTP サーバーは、外部のタイム
ソースと時刻同期を行うように構成されます。 NTP サーバーのリストは、Fusion Manager の
構成内に格納されます。 アクティブな Fusion Manager ノードは、外部ソースと時刻同期しま
す。 その他のファイルサービングノードは、アクティブな Fusion Manager ノードと時刻同期
します。 外部のタイムソースが存在しない場合、アジャイル Fusion Manager ノードのローカ
ルハードウェアのクロックがタイムソースとして使用されます。 この構成方法では、外部のタ
イムソースが存在しない場合でも、すべてのクラスターノード上で時刻同期が行われます。
9000 クライアントでは、クラスターノードとの時刻同期は行われません。 9000 クライアン
ト上で NTP サーバーを構成する必要があります。
現在構成されている NTP サーバーをリストします。
ibrix_clusterconfig -i -N
NTP サーバーの新しいリストを指定します。
ibrix_clusterconfig -c -N SERVER1[,...,SERVERn]
IBRIX 9000 システム上での HP Insight Remote Support の構成
重要: IBRIX ソフトウェア 6.1 リリースでは、IBRIX SNMP エージェントのデフォルトポート
が 5061 から 161 に変更されています。このポート番号は変更できません。
前提条件
IBRIX システムをサポートするために必要なコンポーネントは、ファイルサービングノード上
にプリインストールされています。 HP Insight Remote Support は、Central Management Server
(CMS) と呼ばれる単独の Windows システムにインストールする必要があります。
•
HP Insight Manager (HP SIM): このソフトウェアは HP システムを管理するもので、システ
ムが正常に稼働する時間を最大化するための最も簡単で最もコストの低い方法です。
•
HP Insight Remote Support Advanced (IRSA): このバージョンは HP Systems Insight Manager
(SIM) に統合されています。 リモート通報、通知/アドバイザリ、ディスパッチ、プロア
クティブサービスを包括的にサポートします。 IRSA と HP SIM を合わせて CMS と呼びま
す。
サポートされているソフトウェアバージョンは次のとおりです。
•
HP SIM 6.3 および IRSA 5.6
•
HP SIM 7.1 および IRSA 5.7
重要: HP Insight Remote Support Standard (IRSS) は IBRIX ソフトウェア 6.1 以降ではサポート
されません。
ソフトウェアのダウンロードに関する製品説明と詳細については、次に示す HP Insight Remote
Support Software の Web ページを参照してください。
http://h50146.www5.hp.com/services/cs/availability/irs/index.html (日本語)
HP SIM の詳細については、次の Web サイトを参照してください。
http://h50146.www5.hp.com/products/software/management/hpsim/ (日本語)
IRSA ドキュメントについては、次の Web サイトを参照してください。
http://www.hp.com/go/insightremoteadvanced-docs (英語)
24
はじめに
重要: HP Systems Insight Manager を使用して IBRIX MIB ファイルをコンパイルし、手動で登
録する必要があります。
1. ibrixMib.txt を /usr/local/ibrix/doc/からダウンロードします。
2. ファイル名を ibrixMib.mib に変更します。
3. HP Systems Insight Manager で、以下の手順を実行します。
a. 次のコマンドを入力して、既存の MIB の登録を解除します。
<BASE>\mibs>mxmib -d ibrixMib.mib
b.
ibrixMib.mib ファイルを <BASE>\mibs ディレクトリにコピーしてから、次のコ
マンドを入力します。
<BASE>\mibs>mcompile ibrixMib.mib
<BASE>\mibs>mxmib -a ibrixMib.cfg
MIB に関する詳細については、以下に掲載されている『HP Systems Insight Manager ユーザー
ガイド』の「MIB のコンパイルとカスタマイズ」を参照してください。
http://www.hp.com/go/insightmanagement/sim/ (英語)
[Support & Documents] をクリックし、次に [Manuals] をクリックします。 ユーザーガイドに
移動します。
制約
次のことに留意してください。
•
IBRIX システムでは、HP Insight Remote Support の実装はハードウェアイベントに制限され
ます。
•
9720 CX ストレージデバイスは、HP Insight Remote Support ではサポートされていませ
ん。
HP Insight Remote Support に対する IBRIX クラスターの構成
9720/9730 システムのリモートサポートを有効にするには、Virtual SAS Manager、Virtual
Connect Manager、および Phone Home を設定する必要があります。 この手順の実行時には、
クラスター内のすべてのノードをアクティブにする必要があります。
注記: Phone Home を設定すると、以前の IBRIX snmp 設定の詳細がすべて削除され、Phone
Home の設定詳細が SNMP 設定に適用されます。 Phone Home を有効にすると、
ibrix_snmpagent を使用して snmp エージェントの設定を編集または変更することができな
くなります。 ただし、ibrix_snmptrap を使用して trapsink IP を追加したり、ibrix_event
を使用して trapsink IP にイベントを関連付けたりすることはできます。
Onboard Administrator の登録
Onboard Administrator は自動的に登録されます。
Virtual SAS Manager の構成
9730 システムでは、SAS スイッチの SNMP サービスは、デフォルトでは無効になっていま
す。 すべての SAS スイッチで SNMP サービスを手動で有効にし、trapsink IP を提供するに
は、次の手順を実行します。
1. OA から Virtual SAS Manager を開きます。 [OA IP] > [Interconnet Bays] > [SAS Switch] >
[Management Console] を選んでください。
2. Virtual SAS Manager で、[Maintain] タブを開き、[SAS Blade Switch] をクリックして [SNMP
Settings] を選びます。 ダイアログボックスで、SNMP サービスを有効にし警告に必要な情
報を入力してください。
IBRIX 9000 システム上での HP Insight Remote Support の構成
25
Virtual Connect Manager の構成
IBRIX 9720/9730 システム上で Virtual Connect Manager を構成するには、次の手順を実行し
ます。
1. Onboard Administrator から、[OA IP] > [Interconnet Bays] > [HP VC Flex-10] > [Management
Console] を選びます。
2. HP Virtual Connect Manager で、[SNMP Configuration] タブを開きます。
3. SNMP Trap Destination を構成します。
4.
26
はじめに
•
[Destination Name] および [IP Address] (CMS IP) を入力します。
•
[SNMP Trap Format] に [SNMPv1] を選びます。
•
[Community String] に [public] を指定します。
すべてのトラップカテゴリ、VCM トラップおよびトラップレベルを選びます。
Phone Home の設定
GUI で Phone Home を設定するには、上部のナビゲーターで [Cluster Configuration] を選択し、
下部のナビゲーターで [Phone Home] を選択します。 [Phone Home Setup] パネルに現在の設定
が表示されます。
IBRIX 9000 システム上での HP Insight Remote Support の構成
27
[Enable] をクリックして、 [Phone Home Settings] ダイアログボックスの設定を行います。
[Software Entitlement ID] フィールドは、現在使用されていないのでスキップしてください。
Phone Home に必要な時間は、クラスター内のデバイス数によって異なります。クラスターが
大きいほど時間がかかります。
CLI から Phone Home 設定を構成するには、次のコマンドを使用します。
ibrix_phonehome -c -i <IP Address of the Central Management Server> [-z
Software Entitlement Id] [-r Read Community] [-w Write Community] [-t
System Contact] [-n System Name] [-o System Location]
例を次に示します。
28
はじめに
ibrix_phonehome -c -i 99.2.4.75 -P US -r public -w private -t Admin -n
SYS01.US -o Colorado
次に、使用している HP SIM のバージョンに合わせて HP Insight Remote Support を構成します。
•
HP SIM 7.1 および IRS 5.7 の場合: 「HP SIM 7.1 および IRS 5.7 の場合の HP Insight Remote
Support の構成」 (29 ページ) を参照してください。
•
HP SIM 6.3 および IRS 5.6 の場合: 「HP SIM 6.3 および IRS 5.6 の場合の HP Insight Remote
Support の構成」 (31 ページ) を参照してください。
HP SIM 7.1 および IRS 5.7 の場合の HP Insight Remote Support の構成
HP
HP
1.
2.
Insight Remote Support を構成するには、次の手順を実行します (ここで使用されている、
Systems Insight Manager (SIM) の画像は、英語版の表示です)。
システムのサーバーとシャーシに対する使用権を構成します。
HP SIM 上でデバイスを検出します。
サーバーおよびシャーシの使用権の構成
下部のナビゲーターで [Phone Home] を展開します。 [Chassis]、または [Servers] を選択する
と、GUI にはそのデバイスタイプに対する現在の使用権が表示されます。 次の例は、クラス
ター内のサーバーに対する使用権を示しています。
使用権を構成するには、デバイスを選択し、[Modify] をクリックして、そのデバイスタイプの
ダイアログボックスを開きます。 次の例は [Server Entitlement] ダイアログボックスを示してい
ます。 Customer-Entered (顧客入力) のシリアル番号と製品番号は、HP サポートでの保証内容
確認に使用されます。
CLI からデバイスの使用権を設定する場合は、次のコマンドを使用します。 これらのコマンド
は、クラスターに存在するデバイスごとに実行する必要があります。
サーバーの使用権の設定:
IBRIX 9000 システム上での HP Insight Remote Support の構成
29
ibrix_phonehome -e -h <Host Name> -b <Customer Entered Serial Number>
-g <Customer Entered Product Number>
Host Name パラメーターには、ibrix_fm -l コマンドによって表示される内容を正確に入
力してください。
シャーシの使用権の設定:
ibrix_phonehome -e -C <OA IP Address of the Chassis> -b <Customer Entered
Serial Number> -g <Customer Entered Product Number>
注記:
ん。
GUI の [Phone Home] > [Storage selection] は、9720/9730 システムでは使用できませ
HP SIM のデバイスの検出
HP Systems Insight Manager (SIM) は、SNMP プロトコルを使用して IBRIX システムを自動的に
検出および識別します。 HP SIM で、[オプション] -> [検出] -> [新規]の順に開きます。 ダイア
ログボックスで、[システムのグループ単位での検出]を選択して、検出名と Fusion Manager の
IP アドレスを入力します。
[認証] -> [SMTP] タブで、読み取りコミュニティ文字列を入力します。 この文字列は、Phone
Home の読み取りコミュニティ文字列と一致する必要があります。 文字列が特定できない場
合、Fusion Manager IP は「Unknown」として検出されます。
30
はじめに
デバイスは、次の表の記述のように検出されます。
デバイス
検出されたターゲット
Fusion Manager IP
システムタイプ:
システムサブタイプ:
製品モデル:
Fusion Manager
9000
HP 9000 Solution
システムタイプ:
システムサブタイプ:
製品モデル:
Storage Device
9000、Storage、HP ProLiant
HP 9720 NetStor FSN(ProLiant BL460 G6)
HP 9720 NetStor FSN(ProLiant BL460 G6)
HP 9730 NetStor FSN(ProLiant BL460 G7)
HP 9730 NetStor FSN(ProLiant BL460 G7)
nl
nl
ファイルサービング
ノード
nl
nl
nl
nl
nl
nl
nl
nl
nl
nl
次の例は、HP SIM 7.1 で検出されたデバイスを示しています。
ファイルサービングノードと OA IP は、Fusion Manager IP アドレスに関連付けられています。
HP SIM で、[Fusion Manager] を選択して、[システム] タブを開きます。 次に、[Associations]
を選択してデバイスを表示します。
[Systems by Type] -> [Storage System] -> [Scalable Storage Solutions] -> [All X9000 Systems ]の下
に、すべての IBRIX デバイスが表示されます。
HP SIM 6.3 および IRS 5.6 の場合の HP Insight Remote Support の構成
HP SIM のデバイスの検出
HP Systems Insight Manager (SIM) は、SNMP プロトコルを使用して IBRIX システムを自動的に
検出および識別します。 HP SIM で、[オプション] -> [検出] -> [新規]の順に開き、[システムの
グループ単位での検出]を選択します。 [新規検出] で、検出名と監視対象のデバイスの IP アド
レスを入力します (ここで使用されている、HP Systems Insight Manager (SIM) の画像は、英語
版の表示です)。 詳細については、HP SIM 6.3 のマニュアルを参照してください。
注記:
クラスター内の各デバイスは個別に検出する必要があります。
IBRIX 9000 システム上での HP Insight Remote Support の構成
31
[認証] -> [SMTP] タブで、読み取りコミュニティ文字列を入力します。 この文字列は、Phone
Home の読み取りコミュニティ文字列と一致する必要があります。 文字列が特定できない場
合、デバイスは「Unknown」として検出されます。
次の例は、HP SIM 6.3 で検出されたデバイスを示しています。 ファイルサービングノードは、
ProLiant サーバーとして検出されています。
デバイス使用権の構成
IBRIX システムに対するリモートサポートが有効になるように、CMS を構成します。 詳細につ
いては、『HP Insight Remote Support Advanced A.05.60 操作ガイド』の「HP Insight Remote
Support Advanced の [Settings] タブを使用したクライアントおよび CMS 情報の更新」を参照
してください。
32
はじめに
HP SIM で、次のカスタムフィールド設定を入力します。
•
9720/9730 Onboard Administrator のカスタムフィールド設定
Onboard Administrator (OA) は OA IP アドレスによって検出されます。 OA が検出された
ら、HP Systems Insight Manager のシステムプロパティを編集します。 [Contract and
Warranty Information] ページの [Entitlement Information] セクションで、次の情報を更新し
ます。
•
◦
[顧客入力製品番号] には、IBRIX エンクロージャーの製品番号を入力します。
◦
[カスタム配送 ID] には、[9000] と入力します。
◦
[システム国別情報] を選択します。
◦
[顧客連絡先] および [顧客設置先情報] に、適切な詳細情報を入力します。
[契約及び保証情報]
[Entitlement Information] の下で、[顧客入力シリアル番号]、[顧客入力製品番号]、[システム
国別情報]、[カスタム配送 ID] を指定します。
デバイス使用権の確認
HP SIM で使用権情報を確認するには、次の手順を実行します。
1. [Remote Support Configuration and Service] に移動して、[Entitlement] タブを選択します。
2. 検出されたデバイスを確認します。
注記: HP SIM で検出されたシステムが [Entitlement] タブに表示されない場合は、
[Synchronize RSE] をクリックします。
3.
4.
5.
[Action List] で [Entitle Checked] を選択します。
[Run Action] をクリックします。
使用権のチェックが完了したら、[Refresh] をクリックします。
注記: HP SIM で検出されたシステムが [Entitlement] タブに表示されない場合は、
[Synchronize RSE] をクリックします。
IBRIX 9000 システム上での HP Insight Remote Support の構成
33
使用権を設定したデバイスは、[Remote Support System List] ダイアログボックスの [ENT] 列に
緑色で表示されます。
デバイスが赤で表示されている場合、[顧客入力] のシリアル番号と部品番号が正しいことを確
認して、デバイスを再検出します。
HP Insight Remote Support 構成のテスト
トラップが正しく機能していることを確認するために、次のコマンドを使用して汎用のテスト
トラップを送信します。
snmptrap -v1 -c public <CMS IP> .1.3.6.1.4.1.232 <Managed System IP> 6
11003 1234 .1.3.6.1.2.1.1.5.0 s test .1.3.6.1.4.1.232.11.2.11.1.0 i 0
.1.3.6.1.4.1.232.11.2.8.1.0 s "IBRIX remote support testing"
たとえば、CMS の IP アドレスが 99.2.2.2 で、IBRIX ノードが 99.2.2.10 の場合は、次のよう
に入力します。
snmptrap -v1 -c public 99.2.2.2 .1.3.6.1.4.1.232 99.2.2.10 6 11003 1234
.1.3.6.1.2.1.1.5.0 s test .1.3.6.1.4.1.232.11.2.11.1.0 i 0
.1.3.6.1.4.1.232.11.2.8.1.0 s "IBRIX remote support testing"
Phone Home 構成の更新
クラスター内のデバイスを追加または削除したら、Phone Home 構成を同期化する必要があり
ます。 この操作によって、新しく追加したデバイス (サーバー、ストレージ、シャーシ) に対
して Phone Home を有効化し、クラスター内に存在しなくなったデバイスの詳細を削除しま
す。 GUI では、上部のナビゲーターで [Cluster Configuration] を選択し、下部のナビゲーター
で [Phone Home] を選択して、[Phone Home Setup] パネルの [Rescan] をクリックします。
CLI では、次のコマンドを入力します。
ibrix_phonehome –s
Phone Home の無効化
Phone Home を無効にすると、クラスターとハードウェアからすべての Phone Home 情報が削
除され、ソフトウェアは監視されなくなります。 GUI で Phone Home を無効化するには、
[Phone Home Setup] パネルで [Disable] をクリックします。 CLI では、次のコマンドを入力し
ます。
ibrix_phonehome -d
HP Insight Remote Support のトラブルシューティング
HP SIM でデバイスが検出されない
クラスターのネットワークとデバイスが CMS にアクセスできることを確認します。 これらが
CMS にアクセスできない場合、デバイスは正しく検出されません。
34
はじめに
SNMP トラップホストの最大数がすでに設定済みである
このエラーが報告された場合、trapsink IP アドレスの最大数がすでに設定されています。 OA
デバイスの場合、trapsink IP アドレスの最大数は 8 です。デバイスから trapsink IP アドレスを
手動で削除して、Phone Home の構成に戻り、CMS の IP アドレスを trapsink IP アドレスとし
て追加できるように設定します。
Phone Home でクラスターノードが構成されていない
Phone Home の構成中にクラスターノードがダウンした場合、ログファイルには次のメッセー
ジが表示されます。
SEVERE: Sent event server.status.down: Server <server name> down
ノードが稼働したら、Phone Home を再スキャンしてノードを構成に追加します。 「Phone
Home 構成の更新」 (34 ページ) を参照してください。
Fusion Manager IP が「Unknown」として検出される
HP SIM に入力されている読み取りコミュニティ文字列が、Phone Home の読み取りコミュニ
ティ文字列と一致していることを確認します。
さらに、VIF IP で snmpwalk を実行して、情報を確認します。
# snmpwalk -v 1 -c <read community string> <FM VIF IP> .1.3.6.1.4.1.18997
9720 OA の検出時に重大なエラーが発生する
3GB SAS スイッチに、169.x.x.x の範囲の内部 IP が存在する場合、HP SIM からアクセスでき
ません。 これらのスイッチは監視されませんが、その他の OA コンポーネントは監視されま
す。
検出されたデバイスが CMS では「Unknown」として報告される
ファイルサービングノードで次のコマンドを実行し、HP Insight Remote Support サービスが実
行しているかどうか確認します。
# service snmpd start
# service hpsmhd start
# service hp-snmp-agents start
サービスが実行されていない場合は、起動します。
# service snmpd start
# service hpsmhd start
# service hp-snmp-agents start
アラートが CMS に到達しない
ノードが構成されており、システムが正しく検出されているのにアラートが CMS に到達しな
い場合は、ファイルサービングノードの cma.conf 構成ファイルに trapif エントリーが存
在しているかどうか確認します。
デバイスの [Entitlement] タブが緑色で表示されない
[Entitlement] タブが緑色で表示されない場合は、[顧客入力] のシリアル番号と部品番号または
デバイスを確認します。
SIM による検出
SIM による検出では、どのデバイスの検出にも [システムのグループ単位での検出]オプション
を使用します。
IBRIX 9000 システム上での HP Insight Remote Support の構成
35
3 クライアントアクセス用の仮想インターフェイスの構
成
IBRIX ソフトウェアでは、Fusion Manager トラフィックやファイルサービングノード間のトラ
フィックを伝送するために、クラスターネットワークインターフェイスを使用します。 この
ネットワークは、クラスターのインストール時に bond0 として構成されます。 Fusion Manager
のフェイルオーバーをサポートするために、クラスターネットワークインターフェイス用に仮
想インターフェイスが作成されます。
クラスターネットワークインターフェイスでもファイルサービングノードとクライアント間の
トラフィックを伝送できますが、HP では、この目的のために 1 つ以上のユーザーネットワー
クインターフェイスを構成することをお勧めします。
ユーザーネットワークの高可用性を実現するには、ネットワークに対してボンディングされた
仮想インターフェイス (VIF) を構成し、VIF に対するフェイルオーバーを設定する必要がありま
す。 この方法によって、クライアントトラフィックの中断を回避できます。 必要に応じて、
VIF をホストしているファイルサービングノードはバックアップサーバーにフェイルオーバー
できるので、クライアントはバックアップサーバーを介して引き続きファイルシステムにアク
セスすることができます。
IBRIX システムは、クラスターおよびユーザーネットワークでの VLAN タギングの使用もサポー
トしています。 「VLAN タギングの設定」 (39 ページ) に例を示します。
ネットワークと VIF に関するガイドライン
高可用性を実現するには、クライアントアクセスに使用するユーザーインターフェイスを、ボ
ンディングされた仮想インターフェイス (VIF) として構成する必要があります。 次のことに留
意してください。
•
ファイルシステムの提供またはフェイルオーバーのために通信する必要のあるノードは、
同じネットワークインターフェイスに存在している必要があります。 また、フェイルオー
バーのペアとして設定されているノードは、同じネットワークインターフェイスに接続さ
れている必要があります。
•
ユーザーネットワークには Gigabit Ethernet ポート (またはそれ以上) を使用してください。
•
NFS、SMB、FTP、HTTP クライアントは、同じユーザー VIF を使用できます。 VIF を提供
するサーバーはバックアップペア内に構成する必要があり、これらのサーバー上にはフェ
イルオーバー用に NIC を構成する必要もあります。 この構成を GUI から実行する方法に
ついては、管理者ガイドの「クラスターの高可用性の構成」を参照してください。
•
Linux および Windows 9000 クライアントの場合、VIF をホストするサーバーをバックアッ
プペア内に構成する必要があります。 ただし、9000 クライアントはバックアップ NIC
をサポートしていません。 したがって、9000 クライアントは代わりに VIF の親ボンド、
または別の VIF に接続します。
親ボンド (たとえば、bond0) にルートが定義されていることを確認します。
1. コマンドプロンプトから次のコマンドを入力して、HP IBRIX 9000 のインストール時
に定義された親インターフェイス/ボンドのそれぞれのデフォルト Linux OS ルート/
ゲートウェイをチェックします。
•
# route
このコマンドの出力が次のように表示されます。
36
クライアントアクセス用の仮想インターフェイスの構成
デフォルトのターゲットは、Linux のデフォルトゲートウェイ/ルートです。 HP IBRIX
9000 のインストール時に定義されたデフォルトのターゲットでは、オペレーティン
グシステムでデフォルトゲートウェイが定義されていますが、IBRIX については定義
されていません。
コマンドプロンプトから次のように入力して、IBRIX が制御しているネットワークイ
ンターフェイスを表示します。
2.
# ibrix_nic -l
IFNAME に [ROUTE] 列のデータが表示されていないかどうかに注目します。
3.
親クラスターボンドのデフォルトルートと SMB/NFS で使用する FSN に割り当てら
れたユーザー VIFS に IFNAME を割り当てるには、コマンドプロンプトから次の
ibrix_nic コマンドを入力します。
# ibrix_nic -r -n IFNAME -h HOSTNAME-A -R <ROUTE_IP>
4.
「バックアップサーバーの構成」 (37 ページ) の説明に従って、バックアップ監視を
構成します。
ボンディングされた VIF の作成
注記: この章の例では、統一されたネットワークを使用し、bond0 上にボンディングされた
VIF を作成しています。 クラスターが別のネットワークレイアウトを使用する場合は、bond1
のようなユーザーネットワークボンド上にボンディングされた VIF を作成してください。
次の手順を使用して、ボンディングされた VIF (この例では bond0:1) を作成します。
1. サーバー上で高可用性 (自動フェイルオーバー) が構成されている場合、これを無効にしま
す。 Fusion Manager で次のコマンドを実行します。
# ibrix_server –m -U
2.
bond0:1 VIF を識別します。
# ibrix_nic –a -n bond0:1 –h node1,node2,node3,node4
3.
各ノード上の bond0:1 VIF に IP アドレスを割り当てます。 このコマンドでは、-I は IP
アドレスを指定し、-M はネットマスクを指定し、-B はブロードキャストアドレスを指定
しています。
#
#
#
#
ibrix_nic
ibrix_nic
ibrix_nic
ibrix_nic
–c
–c
–c
–c
–n
–n
–n
–n
bond0:1
bond0:1
bond0:1
bond0:1
–h
–h
–h
–h
node1
node2
node3
node4
–I
–I
–I
–I
16.123.200.201
16.123.200.202
16.123.200.203
16.123.200.204
–M
–M
–M
–M
255.255.255.0
255.255.255.0
255.255.255.0
255.255.255.0
-B
-B
-B
-B
16.123.200.255
16.123.200.255
16.123.200.255
16.123.200.255
バックアップサーバーの構成
クラスター内のサーバーはバックアップペア内で構成されます。 クラスターをインストールし
た時点でこの手順が実行されていない場合は、bond0:1 インターフェイスに対するバックアッ
プサーバーを割り当てます。 たとえば、以下の手順では、node1 は node2 のバックアップ、
node2 は node1 のバックアップになります。同様に、node3 は node4 のバックアップ、node4
は node3 のバックアップになります。
ボンディングされた VIF の作成
37
1.
VIF を追加します。
# ibrix_nic –a -n bond0:2 –h node1,node2,node3,node4
2.
各 VIF にバックアップサーバーを設定します。
#
#
#
#
ibrix_nic
ibrix_nic
ibrix_nic
ibrix_nic
–b
–b
–b
–b
–H
–H
–H
–H
node1/bond0:1,node2/bond0:2
node2/bond0:1,node1/bond0:2
node3/bond0:1,node4/bond0:2
node4/bond0:1,node3/bond0:2
NIC フェイルオーバーの構成
NFS、SMB、FTP、または HTTP によって使用される VIF 上で、NIC 監視を構成する必要があり
ます。
重要: NIC 監視の構成時には、スタンバイサーバーの構成時に使用したのと同じバックアッ
プペアを使用します。
例を次に示します。
#
#
#
#
ibric_nic
ibric_nic
ibric_nic
ibric_nic
–m
–m
–m
–m
-h
-h
-h
-h
node1
node2
node3
node4
-A
-A
-A
-A
node2/bond0:1
node1/bond0:1
node4/bond0:1
node3/bond0:1
自動フェイルオーバーの構成
ファイルサービングノードで自動フェイルオーバーを有効にするには、次のコマンドを実行し
ます。
ibrix_server —m [-h SERVERNAME]
構成例
この例では、ib50-81 と ib50-82 という 2 つのノードを使用しています。この 2 つのノー
ドは、お互いをバックアップするバックアップペアを形成しています。
[root@ib50-80 ~]# ibrix_server -l
Segment Servers
===============
SERVER_NAME BACKUP
STATE
----------- ------- -----------ib50-81
ib50-82 Up
ib50-82
ib50-81 Up
HA
ID
GROUP
--- ------------------------------------ ----on 132cf61a-d25b-40f8-890e-e97363ae0d0b servers
on 7d258451-4455-484d-bf80-75c94d17121d servers
ib50-81 のすべての VIF は、ib50-82 にバックアップ (スタンバイ) VIF を持っています。同
様に、ib50-82 のすべての VIF は、ib50-81 にバックアップ (スタンバイ) VIF を持っていま
す。NFS、SMB、FTP、HTTP クライアントは、どちらのホストの bond0:1 にも接続できます。
必要に応じて、選択したサーバーは反対側のホストの bond0:2 にフェイルオーバーされます。
これらのクライアントがサポートされていなかったり、NIC フェイルオーバーが必要な場合
は、9000 クライアントがどちらかのホストの bond1 に接続できます。 次の出力例には、関
連するフィールドのみが表示されています。
38
クライアントアクセス用の仮想インターフェイスの構成
クライアント構成における VIF の指定
クライアントを構成する場合、クライアントアクセスに使用する VIF を指定しなければならな
いことがあります。
NFS/SMB: サーバーの VIF IP アドレスを指定して (たとえば、bond0:1)、接続を確立します。
または、DNS ラウンドロビンを構成して、NFS または SMB のクライアントからサーバーへの
配信を確保することもできます。 どちらの場合でも、NFS/SMB クライアントは、それぞれの
共有に接続するときに使用した最初の IP を、通常は次の再起動までキャッシュします。
FTP: [Add FTP Shares] ダイアログボックスまたは ibrix_ftpshare コマンドで FTP 共有を追
加する場合、クライアントがその共有にアクセスするために使用する IP アドレスとして、VIF
を指定します。
HTTP: [Create Vhost] ダイアログボックスまたは ibrix_httpvhost コマンドで仮想ホストを
作成する場合、Vhost に関連付けられた共有にクライアントがアクセスするために使用する IP
アドレスとして、VIF を指定します。
9000 クライアント: 次のコマンドを使用して、適切なユーザーネットワークを優先指定しま
す。 指定したインターフェイス経由でクライアントが接続するターゲットホストのそれぞれに
ついて、このコマンドを 1 回ずつ実行します。
ibrix_client -n -h SRCHOST -A DESTNOST/IFNAME
例を次に示します。
ibrix_client -n -h client12.mycompany.com -A ib50-81.mycompany.com/bond1
注記: バックアップ NIC は 9000 クライアントの優先ネットワークインターフェイスとして
使用できないため、HA (高可用性) とクライアント通信が相互に機能するように、ユーザーネッ
トワークインターフェイスを 1 つ以上追加してください。
VLAN タギングの設定
VLAN 機能は、同じ物理ネットワークハードウェア上で複数の論理ネットワークを実行するた
めのハードウェアサポートを提供します。 異なる VLAN に複数のパケットを許可して、同じ
物理インターフェイスを行き来できるようにするには、各パケットに、VLAN タグが含まれる
フィールドが追加されている必要があります。 このタグは小さな整数で、これによりパケット
が属する VLAN を識別します。 中継するスイッチは、「タグ付けされた」パケットを受信す
ると、タグの値に基づき、適切な転送方法を判断できます。
IBRIX システムは、正しくセットアップされていれば、ファイルサービングノードのネットワー
クインターフェイスへと転送される VLAN タグをサポートします。 ファイルサービングノー
ドが VLAN タグをこのような方法でネイティブに処理できることで、ノードが単一のボンディ
ングされたインターフェイス経由で複数の VLAN 接続を同時にサポートできるようになりま
す。
Linux の ifconfig などのネットワーキングツールでは、デバイスラベルを使用して、
bond#.<VLAN_id> という形式で、ネットワークインターフェイスとそれに関連付けられた
VLAN タグが表示されます。 たとえば、IBRIX によって作成された最初のボンドに 30 の VLAN
タグが付いていると、bond0.30 というラベルが付けられます。
VLAN タグが関連付けられているインターフェイスの上位に VIF を追加することもできます。
この場合、インターフェイスのデバイスラベルは、bond#.<VLAN_id>.<VVIF_label> とい
クライアント構成における VIF の指定
39
う形式になります。 たとえば、ラベルが 2 の VIF が bond0.30 インターフェイスに追加され
ると、新しいインターフェイスデバイスラベルは bond0.30:2 になります。
次のコマンドは、10.10.x.y サブネットを使用して統一されたネットワークトポロジーのボ
ンディングされた VIF とバックアップノードの構成を表示します。 VLAN タギングが、51 サ
ブネットのホスト ib142–129 と ib142–131 に構成されています。
VLAN タグ付きの bond0.51 インターフェイスを追加します。
# ibrix_nic -a -n bond0.51 -h ib142-129
# ibrix_nic -a -n bond0.51 -h ib142-131
各ノード上の bond0:51 VIF に IP アドレスを割り当てます。
# ibrix_nic -c -n bond0.51 -h ib142-129 -I 15.226.51.101 -M 255.255.255.0
# ibrix_nic -c -n bond0.51 -h ib142-131 -I 15.226.51.102 -M 255.255.255.0
インターフェイスの上位に bond0.51:2 VIF を追加します。
# ibrix_nic -a -n bond0.51:2 -h ib142-131
# ibrix_nic -a -n bond0.51:2 -h ib142-129
バックアップノードを設定します。
# ibrix_nic -b -H ib142-129/bond0.51,ib142-131/bond0.51:2
# ibrix_nic -b -H ib142-131/bond0.51,ib142-129/bond0.51:2
ユーザー FM VIF を作成します。
ibrix_fm -c 15.226.51.125 -d bond0.51:1 -n 255.255.255.0 -v user
VLAG タギングの詳細については、『HP IBRIX Storage Network Best Practices Guide』を参照し
てください。
リンク状態監視のサポート
SMB または NFS 用に使用されるユーザーネットワークインターフェイスまたは VIF のリンク
状態監視は構成しないでください。 リンク状態監視は、9300 Gateway システムと共に提供さ
れるような、iSCSI ストレージネットワークインターフェイスで使用する場合のみサポートさ
れます。
40
クライアントアクセス用の仮想インターフェイスの構成
4 フェイルオーバーの構成
この章では、アジャイル管理コンソール、ファイルサービングノード、ネットワークインター
フェイス、および HBA に対してフェイルオーバーを構成する方法について説明します。
アジャイル管理コンソール
アジャイル Fusion Manager ではクラスター構成が維持され、クラスターの管理および監視の
ためのグラフィカルインターフェイス (GUI) とコマンドラインインターフェイス (CLI) が用意
されています。 アジャイル Fusion Manager は、クラスターのインストール時にすべてのファ
イルサービングノードにインストールされます。 Fusion Manager は 1 つのノード上でアク
ティブになり、それ以外のノード上ではパッシブになります。 これはアジャイル Fusion Manager
構成と呼ばれます。
アジャイル Fusion Manager モード
アジャイル Fusion Manager は、次のいずれかのモードになります。
•
active: このモードでは、Fusion Manager がコンソール操作を制御します。 すべてのクラ
スター管理および構成コマンドは、アクティブな Fusion Manager から実行する必要があ
ります。
•
passive: このモードでは、Fusion Manager はアクティブな Fusion Manager の動作状況を
監視します。 アクティブな Fusion Manager に障害が発生した場合、パッシブな Fusion
Manager が選択されてアクティブなコンソールになります。
•
nofmfailover: このモードでは、Fusion Manager はコンソール操作に参加しません。 この
モードは、アクティブな Fusion Manager の手動フェイルオーバー、IBRIX ソフトウェアの
アップグレード、サーバーブレードの交換などの操作に使用します。
モードの変更
Fusion Manager を passive モードまたは nofmfailover モードに移行するには、次のコマンドを
使用します。
ibrix_fm -m passive | nofmfailover [-A | -h <FMLIST>]
Fusion Manager がアクティブコンソールから変更された場合、IBRIX ソフトウェアは新しいア
クティブコンソールを選択します。 現在 active モードである Fusion Manager は、passive モー
ドまたは nofmfailover モードのいずれかに移行できます。 nofmfailover モードの Fusion Manager
は passive モードにしか移行できません。
アクティブな Fusion Manager を実行しているローカルノードを除き、-A オプションによっ
て、Fusion Manager のすべてのインスタンスが指定したモードに移行します。 -h オプション
では、<FMLIST> 内にある Fusion Manager インスタンスが指定したモードに移行します。
アジャイル Fusion Manager とフェイルオーバー
アジャイル Fusion Manager 構成を使用すると、Fusion Manager サービスの高可用性が実現し
ます。 アクティブな Fusion Manager に障害が発生すると、クラスターの仮想インターフェイ
スがダウンします。 クラスターの仮想インターフェイスがダウンしたことをパッシブな Fusion
Manager が検出すると、その Fusion Manager がアクティブコンソールになります。 この
Fusion Manager がクラスターの仮想インターフェイスを再構築し、Fusion Manager サービス
をローカルで起動して、active モードに移行させ、Fusion Manager の操作を引き継ぎます。
アクティブな Fusion Manager のフェイルオーバーは、次の機能に影響します。
•
ユーザーネットワーク: クライアントの使用している仮想インターフェイスもフェイルオー
バーされます。 新しいアクティブな Fusion Manager が仮想インターフェイスの管理を引
き継いでいるときに、ユーザーがわずかな時間の再接続に気付く場合もあります。
•
GUI: フェイルオーバーのあと、Fusion Manager の VIF に再接続する必要があります。
アジャイル管理コンソール
41
Fusion Manager の手動フェイルオーバー
アクティブな Fusion Manager を手動でフェイルオーバーするには、コンソールを nofmfailover
モードにします。 コンソールをホストしているノードで、次のコマンドを入力します。
ibrix_fm -m nofmfailover
コマンドはただちに有効になります。
フェイルオーバーした Fusion Manager は、次のコマンドを使用して passive モードに移行す
るまで、nofmfailover モードのままです。
ibrix_fm -m passive
注記:
ん。
Fusion Manager を nofmfailover モードから active モードに移行することはできませ
Fusion Manager についての情報の表示
モード情報を表示するには、次のコマンドを使用します。
ibrix_fm –i
注記: Fusion Manager がアジャイル構成でインストールされていない場合、次のように出力
されます。
nl
FusionServer: fusion manager name not set! (active, quorum is not
configured).
Fusion Manager は、インストール時に、Fusion Manager 構成情報に登録されます。 登録され
ているすべての管理コンソールのリストを表示するには、次のコマンドを使用します。
ibrix_fm –l
クラスターの高可用性の構成
IBRIX の高可用性は、サーバー、NIC、および HBA の監視を提供します。
サーバー HA。 サーバーはバックアップペアで構成され、ペアの各サーバーが他方のサーバー
のバックアップとして動作します。 バックアップペア内のサーバーが同じストレージを認識で
きる必要があります。 サーバーがフェイルオーバーすると、そのサーバーのセグメントと
Fusion Manager サービス (サーバーがアクティブ FM をホスティングしている場合) のオーナー
シップがバックアップサーバーに移動します。
NIC HA。サーバー HA が有効であると、NIC HA によって追加のトリガーが提供され、サー
バーがバックアップサーバーへとフェイルオーバーします。 たとえば、bond0:2 などのユー
ザー VIF を作成してサーバーの SMB 要求を処理するようにし、bond0:2 のスタンバイ NIC
としてバックアップサーバーを任命します。サーバーの bond0:2 で問題が発生すると、その
サーバーとそのセグメントのオーナーシップおよび FM サービスがバックアップサーバーに
フェイルオーバーし、そのサーバーが bond0:2 経由の SMB 要求を処理するようになります。
NIC のみをバックアップサーバーのスタンバイ NIC にフェイルオーバーすることもできます。
HBA 監視。 この方法では、HBA 経由でストレージへのサーバーアクセスが保護されます。 多
くのサーバーがコントローラーが 2 つ付属する HBA を装備しているため、設計によって冗長
性が提供されます。 このようなサーバーでは、IBRIX HBA 監視のセットアップは一般的には使
用されません。 ただし、1 つの HBA しか装備していないサーバーで HBA の監視を必要とす
る場合は、その 1 つの HBA がオフラインになったり障害が発生したりしたためにサーバーが
ストレージを認識できなくなると、サーバーとそのセグメントがフェイルオーバーします。
自動サーバーフェイルオーバーをセットアップできますが、必要があれば手動フェイルオー
バーを実行できます。 サーバーがフェイルオーバーした場合は、サーバーを手動でフェイル
バックする必要があります。
42
フェイルオーバーの構成
自動 HA が有効化されている場合は、サーバーから 1 分間隔でブロードキャストされるハート
ビートメッセージを Fusion Manager がリスンします。 Fusion Manager は、ハートビートの受
信が 5 回続けて失敗すると、サーバーフェイルオーバーを開始します。 NIC HA も有効化され
ている場合は、フェイルオーバー条件がさらに迅速に検出されます。Fusion Manager が監視対
象の NIC がダウンしていることを示すハートビートメッセージを受信し、Fusion Manager が
NIC に到達できないと、サーバーフェイルオーバーが開始します。 HBA 監視が有効化されて
いる場合は、Fusion Manager は、ハートビートメッセージが監視対象の HBA または HBA の
ペアで障害が発生したことを示していると、サーバーをフェイルオーバーします。
フェイルオーバー中に発生するイベント
サーバーがバックアップにフェイルオーバーすると、次のアクションが発生します。
1. バックアップサーバーの電源がオンになっており、アクセス可能であることを Fusion
Manager が確認します。
2. Fusion Manager がサーバーのセグメントのオーナーシップをバックアップへ移行し、その
移行をすべてのサーバーと 9000 クライアントに通知します。 これは、持続的な変更で
す。 サーバーがアクティブな FM をホスティングしている場合、別のサーバーへ移行しま
す。
3. NIC 監視が構成されている場合、Fusion Manager は、スタンバイ NIC をアクティブ化し、
IP アドレス (または VIF) をその NIC に転送します。
フェイルオーバーしたサーバーにマウントされていたクライアントでは、サーバーのフェイル
オーバーの実行時に短時間、サービスが中断することがあります。 使用しているプロトコルに
よって、フェイルオーバー後もクライアントが操作を実行できる場合と、同じ VIF を使用して
ファイルシステムを再マウントする必要がある場合があります。 いずれの場合にも、異なる
サーバーのファイルシステムにアクセスするようになったことをクライアントが意識すること
はありません。
フェイルオーバーの進行状況を確認するには、GUI の [Status] タブを表示するか、または
ibrix_server -l コマンドを実行します。 Fusion Manager がセグメントのオーナーシップ
を移行している間のノードの稼働ステータスは、フェイルオーバー開始時にノードの電源がオ
ンになっていたなら Up-InFailover、オフになっていたなら Down-InFailover になりま
す。 フェイルオーバーが完了すると、プライマリの稼働ステータスは Up-FailedOver また
は Down-FailedOver に変化します。 稼働状態の詳細については、「ファイルサービング
ノードの状態の監視」 (90 ページ) を参照してください。
自動フェイルオーバーと手動フェイルオーバーのどちらで発生したイベントも、GUI 上で報告
されます。
自動フェイルオーバーは、HA ウィザード、またはコマンドラインから構成できます。
HA ウィザードによる自動フェイルオーバーの構成
HA ウィザードは、バックアップサーバーペアを構成し、オプションで、ペアの各サーバーの
スタンバイ NIC を構成します。 さらに、各サーバーの iLO などの電源も構成します。 Fusion
Manager は、電源を使用して、フェイルオーバー時にサーバーの電源をオフにします。
GUI のナビゲーターで [Servers] を選択します。
クラスターの高可用性の構成
43
[High Availability] をクリックし、ウィザードを開始します。 一般的に、システムのインストー
ル時にバックアップサーバーが構成されてサーバー HA が有効になり、[Server HA Pair] ダイ
アログボックスには、[Servers] で選択したサーバーのバックアップペア構成が表示されます。
必要があれば、サーバーのバックアップペアを構成できます。 このウィザードでは、選択され
たサーバーと同じストレージを認識できる、クラスター内のサーバーを識別します。 該当する
サーバーをリストから選択します。
このウィザードはさらに、各サーバーの iLO の IP アドレスも検出しようとします。 ウィザー
ドが IP アドレスを検出できない場合は、IP アドレスをダイアログボックスに入力する必要が
あります。 情報の入力が完了したら、[Enable HA Monitoring and Auto-Failover for both servers]
をクリックします。
[NIC HA Setup] ダイアログボックスを使用して、SMB や NFS などのデータサービスに使用す
る NIC を設定します。 サーバーとそのバックアップの NIC HA ペアを指名し、それらの NIC
の監視を有効にすることもできます。
44
フェイルオーバーの構成
たとえば、サーバー ib69s1 が処理する SMB シェアへのアクセスにクライアントが使用する
ユーザー VIF を作成できます。 ユーザー VIF は、そのサーバーのアクティブな物理ネットワー
クに基づきます。 そのためには、ダイアログボックスの ib69s1 のセクションの [Add NIC] を
クリックします。
[Add NIC] ダイアログボックスに NIC の名前を入力します。 下記の例では、クラスターは統
一されたネットワークを使用し、アクティブなクラスター FM/IP である bond0 のみが存在し
ます。 bond0:0 は管理 IP/VIF であり、使用できません。 bond0 をベースとして使用して、
VIF bond0:1 を作成することにします。 [OK] をクリックすると、ユーザー VIF が作成されま
す。
クラスターの高可用性の構成
45
新しいアクティブなユーザー NIC が [NIC HA Setup] ダイアログボックスに表示されます。
次に、VIF の NIC 監視を有効にします。 新しいユーザー NIC を選択し、[NIC HA] をクリック
します。 [NIC HA Config] ダイアログボックスで、[Enable NIC Monitoring] のチェックをオン
にします。
46
フェイルオーバーの構成
[Standby NIC] フィールドで [New Standby NIC] を選択して、バックアップサーバー ib69s2 の
スタンバイを作成します。 利用可能で有効なものをスタンバイとして指定する必要がありま
す。 わかりやすくするために、bond0:1 を [Name] として指定しましたが、これは、サーバー
ib69s1 の NIC に割り当てた名前と一致しています。 [OK] をクリックすると、NIC HA 構成が
完了します。
必要があれば、ユーザー VIF をさらに作成し、スタンバイ NIC を割り当てることができます。
たとえば、ユーザー VIF をサーバー ib69s2 の別のシェアに追加し、サーバー ib69s1 のスタン
バイ NIC を割り当てる場合が考えられます。 eth4 などの物理インターフェイスを指定し、
それに対応するバックアップサーバーにスタンバイ NIC を作成することもできます。
GUI の [NICs] パネルには、選択したサーバーの NIC が表示されます。 次の例では、サーバー
ib69s1 に 4 つの NIC、すなわち、 bond0 というアクティブなクラスター FM/IP、bond0:0
という管理 IP/VIF (このサーバーはアクティブ FM をホストしています)、bond0:1 というこの
クラスターの高可用性の構成
47
例で作成された NIC、および bond0:2 というサーバー ib69s2 上のアクティブ NIC に対する
スタンバイ NIC が存在します。
ib69s2 というバックアップサーバーの [NICs] パネルには、bond0:1 が非アクティブのスタン
バイ NIC で、bond0:2 がアクティブの NIC であることが示されています。
HA 構成の変更
NIC の構成を変更するには、[Servers] パネルでサーバーを選択し、下のナビゲーターから [NICs]
を選択します。 [NICs] パネルで、[Modify] をクリックします。 [Modify NIC Properties] ダイア
ログボックスの [General] タブで、IP アドレスや NIC のそれ以外のプロパティを変更できま
す。 [NIC HA] タブでは、HA 監視や NIC のフェイルオーバーを有効または無効にしたり、ス
タンバイ NIC を変更または削除したりできます。クラスターでサポートしていれば、リンク
状態監視も有効にできます。 「リンク状態監視のサポート」 (40 ページ) を参照してくださ
い。
サーバーの電源を表示するには、[Servers] パネルでサーバーを選択し、下のナビゲーターから
[Power] を選択します。 [Power Source] パネルには、HA の構成時にサーバーに構成された電
源が表示されます。 サーバーの電源の追加や削除、サーバーの電源のオンまたはオフ、サー
バーのリセットが可能です。
48
フェイルオーバーの構成
自動フェイルオーバーの手動での構成
自動フェイルオーバーを手動で構成するには、次の手順を実行します。
1. ファイルサービングノードをバックアップペアとして構成します。
2. バックアップペアのサーバーの電源を指定します。
3. NIC 監視を構成します。
4. 自動フェイルオーバーを有効にします。
1. サーバーバックアップペアの構成
ファイルサービングノードはバックアップペアとして構成します。ペアとなる各サーバーは、
もう一方のサーバーのバックアップとなります。 この手順は通常、クラスターのインストール
時に実行されます。 以下の制限が適用されます。
•
ペア内の両方のサーバーで同じファイルシステムがマウントされている必要があり、両方
のサーバーが同じストレージを認識できる必要があります。
•
SAN 環境では、セグメントの物理ボリューム (マルチポート RAID アレイなど) へのアクセ
スが可能になるように、サーバーとそのバックアップが同じストレージインフラストラク
チャを使用する必要があります。
統一されたネットワーク構成を使用しているクラスターでは、bond0:1 インターフェイスに
対するバックアップノードを割り当てます。 たとえば、以下の手順では、node1 は node2 の
バックアップ、node2 は node1 のバックアップになります。同様に、node3 は node4 のバッ
クアップ、node4 は node3 のバックアップになります。
1. VIF を追加します。
ibrix_nic –a -n bond0:2 –h node1,node2,node3,node4
2.
各 VIF にスタンバイサーバーを設定します。
# ibrix_nic –b –H node1/bond0:1,node2/bond0:2
ibrix_nic –b –H node2/bond0:1,node1/bond0:2
ibrix_nic –b –H node3/bond0:1,node4/bond0:2
ibrix_nic –b –H node4/bond0:1,node3/bond0:2
nl
nl
nl
2. 電源の指定
自動フェイルオーバーを実装するか、強制手動フェイルオーバーを実行するか、またはファイ
ルサービングノードの電源のオン/オフをリモートで切り替える場合は、ノードおよびバック
アップに対してプログラマブル電源を設定する必要があります。 プログラマブル電源を使用す
ると、自動フェイルオーバーの場合は障害が発生したサーバーの電源を Fusion Manager から
一元的に切断でき、強制手動フェイルオーバーの場合は手動で電源を切断できるため、障害が
発生したファイルサービングノードとバックアップの間で、いわゆる「スプリットブレイン」
(クラスターの分離) が発生するのを防止できます。
IBRIX ソフトウェアは、iLO、IPMI、OpenIPMI、OpenIPMI2 の各種統合電源に対応しています。
クラスターの高可用性の構成
49
次のタイプの統合電源を設定する場合は、準備のための設定が必要となります。
•
自動フェイルオーバーの場合は、Fusion Manager から電源への LAN アクセスが可能であ
ることを確認します。
•
ベンダーのドキュメントで指定されているとおりに、環境および必要なドライバーとユー
ティリティをインストールします。 電源へのアクセスを保護する場合は、使用する UID
とパスワードを設定しておきます。
次のコマンドを使用して、電源を指定します。
ibrix_powersrc -a -t {ipmi|openipmi|openipmi2|ilo} -h HOSTNAME -I IPADDR
-u USERNAME -p PASSWORD
たとえば、ノード ss01 に対して、IP アドレス 192.168.3.170 の iLO 電源を登録するには、
次のように入力します。
ibrix_powersrc -a -t ilo -h ss01 -I 192.168.3.170 -u Administrator -p
password
3. NIC 監視の設定
NFS、SMB、FTP、または HTTP によって使用されるユーザー VIF 上で、NIC 監視を構成する必
要があります。
重要: NIC 監視の構成時には、バックアップサーバーの構成時に使用したのと同じバックアッ
プペアを使用します。
バックアップペア内のサーバーを、お互いの NIC モニターとして指定します。 双方向に監視
を宣言する必要があるため、ペア内のサーバーごとにコマンドを入力します。
ibrix_nic -m -h MONHOST -A DESTHOST/IFNAME
次の例では、bond0:1 による NIC の監視をセットアップします。
ibric_nic
ibric_nic
ibric_nic
ibric_nic
nl
nl
nl
–m
–m
–m
–m
-h
-h
-h
-h
node1
node2
node3
node4
-A
-A
-A
-A
node2/bond0:1
node1/bond0:1
node4/bond0:1
node3/bond0:1
nl
次の例では、サーバー s2.hp.com がサーバー s1.hp.com をユーザーネットワークインターフェ
イス eth1 経由で監視するようセットアップします。
ibrix_nic -m -h s2.hp.com -A s1.hp.com/eth1
4. 自動フェイルオーバーの有効化
自動フェイルオーバーは、デフォルトではオフになっています。 自動フェイルオーバーをオン
にすると、Fusion Manager がファイルサービングノードからのハートビートメッセージを監視
し始めます。 自動フェイルオーバーのオン/オフは、すべてのファイルサービングノードか、
または選択したノードに対して切り替えることができます。
自動フェイルオーバーをオンにします。
ibrix_server -m [-h SERVERNAME]
HA 構成の手動での変更
電源を更新する
電源の IP アドレスまたはパスワードを変更した場合は、その変更に合わせて構成情報データ
ベースを更新する必要があります。 ユーザー名とパスワードのオプションは、リモートで管理
される電源の場合のみ必要です。 Fusion Manager が BMC をスキップするように、-s オプ
ションを追加します。
ibrix_powersrc -m [-I IPADDR] [-u USERNAME] [-p PASSWORD] [-s] -h POWERSRCLIST
次のコマンドでは、電源 ps1 の IP アドレスを変更します。
50
フェイルオーバーの構成
ibrix_powersrc -m -I 192.168.3.153 -h ps1
電源からサーバーとの関連付けを解除する
ファイルサービングノードと電源の関連付けを解除するには、電源上のスロット 1 (デフォル
トで関連付けられるスロット) から関連付けを解除します。 次のコマンドを使用します。
ibrix_hostpower -d -s POWERSOURCE -h HOSTNAME
電源を削除する
ストレージ容量を節約するには、使用されなくなった電源を削除します。 複数の電源を削除す
る場合はカンマで区切ります。
ibrix_powersrc -d -h POWERSRCLIST
NIC 監視を削除する
NIC 監視を削除するには、次のコマンドを使用します。
ibrix_nic -m -h MONHOST -D DESTHOST/IFNAME
NIC スタンバイを削除する
NIC のスタンバイを削除するには、次のコマンドを使用します。
ibrix_nic -b -U HOSTNAME1/IFNAME1
たとえば、ファイルサービングノード s1.hp.com 上のインターフェイス eth2 に割り当てられ
ているスタンバイを削除するには、次のように入力します。
ibrix_nic -b -U s1.hp.com/eth2
自動フェイルオーバーをオフにする
ibrix_server -m -U [-h SERVERNAME]
単一のファイルサービングノードを指定するには、-h SERVERNAME オプションを含めます。
サーバーの手動フェイルオーバー
フェイルオーバーするサーバーは、バックアップペアに所属している必要があります。 この手
順は、サーバーの電源を切断してから実行することも、またサーバーを稼働させたまま実行す
ることもできます。 手動フェイルオーバーは、自動フェイルオーバーが有効かどうかに関係な
く、任意のタイミングで実行できます。 手動フェイルオーバーの場合は、プログラマブル電源
を使用する必要はありません。 ただし、サーバーに電源が指定されている場合は、フェイル
オーバーの前に電源を停止できます。
GUI または CLI を使用して、ファイルサービングノードのフェイルオーバーを行います。
•
GUI では、[Servers] パネルでノードを選択し、[Summary] パネルの [Failover] をクリック
します。
•
CLI では、ibrix_server -f を実行し、HOSTNAME としてフェイルオーバーするノード
を指定します。 必要な場合は、-p オプションを追加して、セグメントを移行する前にノー
ドの電源を切断します。
ibrix_server -f [-p] -h HOSTNAME
[Summary] パネルをチェックするか、次のコマンドを実行して、フェイルオーバーが成功した
かどうかを確認します。
ibrix_server -l
STATE フィールドの内容は、フェイルオーバーのステータスを示します。 このフィールドに表
示されるステータスが Down-InFailover または Up-InFailover から変化しない場合は、
フェイルオーバーが完了していません。その場合は、HP サポートにお問い合わせください。
STATE フィールドに表示される値の詳細については、「フェイルオーバー中に発生するイベン
ト」 (43 ページ) を参照してください。
クラスターの高可用性の構成
51
サーバーのフェイルバック
サーバーの自動または手動フェイルオーバーが行われた後、フェイルオーバーされたセグメン
トおよびネットワークインターフェイスのオーナーシップをプライマリサーバーに復元するに
は、サーバーを手動でフェイルバックする必要があります。 サーバーをフェイルバックする前
に、そのサーバーのすべてのストレージリソースおよびネットワークを認識できることを確認
します。 サーバーがストレージを認識できない場合は、サーバーが所有しているセグメントに
アクセスできません。
GUI からノードをフェイルバックするには、[Servers] パネルでノードを選択し、[Summary] パ
ネルの [Failback] をクリックします。
CLI では、次のコマンド (HOSTNAME はフェイルオーバーするノード) を実行します。
ibrix_server -f -U -h HOSTNAME
ノードをフェイルバックした後に、[Summary] パネルをチェックするか ibrix_server -l
コマンドを実行して、フェイルバックが完全に完了したかどうかを確認します。 フェイルバッ
クが完了していない場合は、HP サポートにお問い合わせください。
注記: フェイルオーバーを行ってからフェイルバックを行うまでの時間が短すぎて、プライ
マリサーバーが完全に復旧されていない場合は、フェイルバックが失敗する可能性がありま
す。 両方のサーバーが稼働していることを確認し、60 秒間待機してからフェイルバックを開
始することをお勧めします。 プライマリサーバーが稼働しているかどうかを確認するには、
ibrix_server -l コマンドを使用します。 フェイルバックを実行する前のステータスは、
Up-FailedOver でなくてはなりません。
HBA 監視の設定
高可用性機能は、HBA の障害検出時に自動フェイルオーバーを開始するように設定できます。
HBA 監視は、スタンバイ切り替え機能が搭載されたデュアルポート HBA と、シングルポート
HBA のどちらに対しても設定可能です。スタンドアロン構成のほか、ソフトウェアを介したス
タンバイ切り替え用のペア構成にも対応しています。 IBRIX ソフトウェアは、HBA のハード
ウェアに組み込まれている、またはソフトウェアで実装されている HBA フェイルオーバーに
は関与しません。そのようなフェイルオーバーの場合は、Fusion Manager が一切関与すること
なく、まだ機能しているポートにトラフィックが移されます。
HBA では、一部のパラメーター値に Worldwide 名を使用します。 これらは、Worldwide ノー
ド名 (WWNN) か Worldwide ポート名 (WWPN) のいずれかです。 WWPN は、HBA が SAN
ファブリックにログインするときに提示する名前です。 Worldwide 名は 16 桁で構成され、2
桁ずつペアになっています。 IBRIX ソフトウェアでは、Worldwide 名を
21.00.00.e0.8b.05.05.04 のようにドットで区切られたペアとして記述します。
HBA 監視を設定するには、HBA を最初に検出してから、ご使用の HBA ハードウェアに応じて
次のいずれかの手順を実施します。
52
•
スタンバイ切り替え機能が搭載されていないシングルポート HBA の場合: 障害の監視対象
となるすべてのポートに対して HBA 監視をオンにします。
•
スタンバイ切り替え機能が搭載されているデュアルポート HBA か、またはソフトウェア
操作でスタンバイペアとして設定されているシングルポート HBA の場合: ポートのスタン
バイペアを構成情報データベースに登録し、ペアになっているすべてのポートに対して
HBA 監視をオンにします。 スタンバイペアのうち 1 つのポートに対してのみ監視をオン
にした場合は、そのポートに障害が発生すると、HBA がトラフィックをまだ機能している
ポートに自動的に切り替えたとしても、Fusion Manager がサーバーをフェイルオーバーす
ることになります。 両方のポートに対して監視をオンにした場合は、ペアに含まれている
両方のポートに障害が発生したときにのみ Fusion Manager がフェイルオーバーを開始し
ます。
フェイルオーバーの構成
HBA 監視とファイルサービングノードの自動フェイルオーバーの両方が設定されている場合、
Fusion Manager は次の 2 通りの状況下でフェイルオーバーを行います。
•
監視対象のスタンバイペアに含まれる両方のポートに障害が発生した場合: すべてのスタ
ンバイペアを構成情報データベースに登録したので、Fusion Manager は両方のポートに障
害が発生したときにのみフェイルオーバーが必要と判断します。
•
監視対象のシングルポート HBA に障害が発生した場合: 障害が発生したポートのスタンバ
イが指定されていないため、Fusion Manager は即時にフェイルオーバーを開始します。
HBA の検出
HBA 監視を設定する前に、HBA を検出する必要があります。また、HBA を交換したときや、
クラスターに新しい HBA を追加したときにも、HBA の検出が必要になります。 検出によっ
て、ポートの WWPN が構成情報データベースに追加されます。
ibrix_hba -a [-h HOSTLIST]
スタンバイペアの HBA ポートの追加
スタンバイペアの HBA ポートを構成情報データベースに登録すると、それらに障害が発生し
たときに Fusion Manager が次のロジックを適用できるようになります。
•
1 つのポートだけに障害が発生した場合は、何も行いません。 HBA のハードウェア設定
またはソフトウェア設定に従って、まだ機能しているポートにトラフィックが自動的に切
り替えられます。
•
ペアに含まれている両方のポートに障害が発生した場合は、サーバーのセグメントをスタ
ンバイサーバーにフェイルオーバーします。
2 つの HBA ポートをスタンバイペアとして指定するには、次のコマンドを使用します。
bin/ibrix_hba -b -P WWPN1:WWPN2 -h HOSTNAME
WWPN は、2 桁ずつドットで区切られた 16 進数値として入力します。 次のコマンドでは、
ファイルサービングノード s1.hp.com 上の HBA のポート 42.00.12.34.56.78.9a.bc に対し、
ポート 20.00.12.34.56.78.9a.bc をスタンバイとして指定します。
ibrix_hba -b -P 20.00.12.34.56.78.9a.bc:42.00.12.34.56.78.9a.bc -h s1.hp.com
HBA 監視のオン/オフ
クラスターでシングルポート HBA を使用している場合は、すべてのポートに対して監視をオ
ンにすることにより、HBA 障害発生時の自動フェイルオーバーを設定します。 次のコマンド
を使用します。
ibrix_hba -m -h HOSTNAME -p PORT
たとえば、ノード s1.hp.com 上のポート 20.00.12.34.56.78.9a.bc に対して HBA 監視をオン
にするには、次のように入力します。
ibrix_hba -m -h s1.hp.com -p 20.00.12.34.56.78.9a.bc
1 つの HBA ポートに対して HBA 監視をオフにするには、-U オプションを含めます。
ibrix_hba -m -U -h HOSTNAME -p PORT
スタンバイポートのペアの削除
構成情報データベースからポートペアの情報を削除しても、スタンバイペアがポートから削除
されるわけではありません。 スタンバイペアは、HBA のハードウェアに組み込まれているか、
またはソフトウェアによって実装されています。
スタンバイペアの HBA ポートを構成情報データベースから削除するには、次のコマンドを入
力します。
ibrix_hba -b -U -P WWPN1:WWPN2 -h HOSTNAME
たとえば、ノード s1.hp.com 上のポートペア 20.00.12.34.56.78.9a.bc および
42.00.12.34.56.78.9a.bc を削除するには、次のように入力します。
クラスターの高可用性の構成
53
ibrix_hba -b -U -P 20.00.12.34.56.78.9a.bc:42.00.12.34.56.78.9a.bc
-h s1.hp.com
構成情報データベースからの HBA の削除
HBA を異なるマシンに切り替える場合は、事前に構成情報データベースから HBA を削除して
おきます。
ibrix_hba -d -h HOSTNAME -w WWNN
HBA 情報の表示
クラスター内の HBA に関する情報を表示するには、次のコマンドを使用します。 すべてのホ
ストに関する情報を表示するには、 -h HOSTLIST 引数を省略します。
ibrix_hba -l [-h HOSTLIST]
次のようなフィールドが出力されます。
フィールド
説明
Host
HBA がインストールされているサーバー。
Node WWN
この HBA の WWNN。
Port WWN
この HBA の WWPN。
Port State
ポートの稼働状態。
Backup Port WWN
このポートのスタンバイポートの WWPN (スタンバイペア HBA の場合のみ)。
Monitoring
このポートに対して HBA 監視が有効化されているかどうか。
高可用性機能の設定のチェック
高可用性機能が特定のファイルサービングノードに対して設定されているかどうかを判別する
には、ibrix_haconfig コマンドを使用します。 このコマンドでは、次の機能が設定されて
いるかどうかをチェックし、結果の概要レポートまたは詳細情報レポートを出力します。
•
プログラマブル電源
•
スタンバイサーバーまたはスタンバイセグメント
•
クラスターおよびユーザーネットワークインターフェイスモニター
•
各ユーザーネットワークインターフェイスのスタンバイネットワークインターフェイス
•
HBA ポート監視
•
自動フェイルオーバーのステータス (オン/オフ)
概要レポートでは、各高可用性機能のステータスをテスト対象のファイルサービングノードお
よび (オプションとして) スタンバイごとに返します。
•
Passed: 機能が設定されていることを意味します。
•
Warning: 機能が設定されていないことを意味します。ただし、明確な結果が得られたわ
けではありません。 たとえば、HBA を検出できなかった場合、HBA 監視機能が設定され
ていないか、またはテスト対象のサーバー上に HBA が物理的に存在していないことを意
味しますが、そのどちらであるかは不明確です。
•
Failed: 機能が設定されていないことを意味します。
詳細レポートには、すべてのテスト対象ファイルサービングノードに関する全体的な結果ス
テータスが示され、各高可用性機能に対して実行したチェックの詳細が記述されます。 デフォ
ルトでは、結果が Failed または Warned になったチェックに関する詳細情報だけがレポート
に示されます。 レポートを拡張して、結果が Passed になったチェックに関する詳細情報も報
告させることができます。
54
フェイルオーバーの構成
概要レポートの表示
すべてのファイルサービングノードの概要を表示するには、ibrix_haconfig -l コマンド
を使用します。 特定のファイルサービングノードをチェックするには、-h HOSTLIST 引数を
含めます。 スタンバイをチェックするには、-b 引数を含めます。 チェックで不合格となった
ファイルサービングノードの結果だけを表示するには、-f 引数を含めます。
ibrix_haconfig -l [-h HOSTLIST] [-f] [-b]
たとえば、ファイルサービングノード xs01.hp.com および xs02.hp.com の概要レポートを表
示するには、次のように入力します。
ibrix_haconfig -l -h xs01.hp.com,xs02.hp.com
Host
HA Configuration Power Sources Backup Servers Auto Failover
Nics Monitored Standby Nics HBAs Monitored
xs01.hp.com
FAILED
PASSED
PASSED
PASSED
FAILED
PASSED
FAILED
xs02.hp.com
FAILED
PASSED
FAILED
FAILED
FAILED
WARNED
WARNED
詳細情報レポートの表示
詳細情報レポートを表示するには、ibrix_haconfig -i コマンドを使用します。
ibrix_haconfig -i [-h HOSTLIST] [-f] [-b] [-s] [-v]
-h HOSTLIST オプションには、チェック対象のノードのリストを指定します。 スタンバイも
チェックするには、-b オプションを含めます。 チェックで不合格となったファイルサービン
グノードの結果だけを表示するには、-f 引数を含めます。 ファイルシステムとそれらのセグ
メントに関する情報をレポートに含めるには、-s オプションを指定します。 結果が Passed
になった構成チェックに関する詳細情報を表示するには、-v オプションを含めます。
たとえば、ファイルサービングノード xs01.hp.com の詳細情報レポートを表示するには、次の
ように入力します。
ibrix_haconfig -i -h xs01.hp.com
--------------- Overall HA Configuration Checker Results --------------FAILED
--------------- Overall Host Results --------------Host
HA Configuration Power Sources Backup Servers Auto Failover Nics Monitored
Standby Nics HBAs Monitored
xs01.hp.com FAILED
PASSED
PASSED
PASSED
FAILED
PASSED
FAILED
--------------- Server xs01.hp.com FAILED Report --------------Check Description
================================================
Power source(s) configured
Backup server or backups for segments configured
Automatic server failover configured
Result
======
PASSED
PASSED
PASSED
Cluster & User Nics monitored
Cluster nic xs01.hp.com/eth1 monitored
FAILED
User nics configured with a standby nic
PASSED
HBA ports monitored
Hba port 21.01.00.e0.8b.2a.0d.6d monitored
Hba port 21.00.00.e0.8b.0a.0d.6d monitored
FAILED
FAILED
Result Information
==================
Not monitored
Not monitored
Not monitored
障害の発生したノードからのコアダンプの取得
クラッシュキャプチャ機能は、Fusion Manager によるノードのフェイルオーバーの開始時に、
障害の発生したノードからコアダンプを収集します。 このコアダンプを、ノード障害の原因の
分析に使用できます。 機能が有効な場合、クラッシュキャプチャは自動と手動の両方のフェイ
ルオーバーに対応します。 フェイルバックは、この機能の影響を受けません。 デフォルトで
障害の発生したノードからのコアダンプの取得
55
は、クラッシュキャプチャは無効です。 このセクションでは、クラッシュキャプチャを有効に
するための前提条件と手順を説明します。
注記: クラッシュキャプチャを有効にすると、フェイルオーバーがクラッシュカーネルをロー
ドできるようにするために、遅延 (最大 240 秒) が追加されます。 このフェイルオーバープロ
セスにより、続行前にクラッシュカーネルがロードされることが保証されます。
クラッシュキャプチャが有効になっていると、ノード障害時に、システムが次のアクションを
実行します。
1. Fusion Manager が、フェイルオーバー開始時に障害の発生したノードのコアダンプを開始
し、ノードの状態を Up, InFailover へと変更します。
2. 障害の発生したノードは、クラッシュカーネルをブートします。 ノードの状態が Dumping,
InFailover へと変更されます。
3. 障害の発生したノードはフェイルオーバーを続行し、状態が Dumping, FailedOver へ
と変更されます。
4. コアダンプが作成された後に、障害の発生したノードがリブートし、状態が Up,
FailedOver へと変更されます。
クラッシュキャプチャをセットアップするための前提条件
障害状態のファイルサーバーノードでクラッシュを自動的にキャプチャするためには、
ROM-Based Setup Utility (RBSU) で、以下のパラメーターを設定する必要があります。
1. RBSU の開始 – サーバーをリブートしてから、F9 キーを押します。
2. メインメニューの [System Options] オプションを選択し、Enter キーを押します。 [Virtual
Serial Port] オプションを強調表示し (下図参照)、Enter キーを押します。 COM1 ポートを
強調表示し、Enter キーを押します。
3.
4.
56
メインメニューの [BIOS Serial Console & EMS] オプションを強調表示し、Enter キーを押
します。 メインメニューの [BIOS Serial Console Port] オプションを強調表示し、Enter キー
を押します。 COM1 ポートを強調表示し、Enter キーを押します。
メインメニューの BIOS Serial Console Baud Rate オプションを強調表示し、Enter キーを押
します。 115200 Serial Baud Rate を選択します。
フェイルオーバーの構成
5.
6.
メインメニューの [Server Availability] オプションを強調表示し、Enter キーを押します。
[ASR Timeout] オプションを強調表示し、Enter キーを押します。 30 Minutes を選択し、
Enter キーを押します。
RBSU を終了するには、メインメニューが表示されるまで Esc を押します。 次に、メイン
メニューで F10 を押します。 サーバーが自動的に再起動します。
ノードのクラッシュキャプチャのセットアップ
重要: このセクションの手順を開始する前に、「クラッシュキャプチャをセットアップする
ための前提条件」 (56 ページ) の手順を実行します。
ノードのクラッシュキャプチャをセットアップするには、次の手順を実行します。
1. クラッシュキャプチャを有効にするために、 次のコマンドを実行します。
ibrix_host_tune –S { -h HOSTLIST | -g GROUPLIST } -o
trigger_crash_on_failover=1
2.
Fusion Manager を調整して DUMPING ステータスタイムアウトを設定するために、次の
コマンドを入力します。
ibrix_fm_tune -S -o dumpingStatusTimeout=240
このコマンドは、クラッシュカーネルがロードされるまでフェイルオーバーを遅延するの
に必要です。このコマンドを実行しないと、Fusion Manager によって障害の発生したノー
ドが停止されます。
障害の発生したノードからのコアダンプの取得
57
5 クラスターイベント通知の構成
クラスターイベント
クラスターイベントは次の 3 つのカテゴリに分類されます。
アラート: ファイルシステムデータへのアクセスが失われる可能性のある中断イベント。
警告: ファイルシステムへのアクセスは失われないものの、中断を招く可能性のある状態。この状態に
対処しないでいると、アラート条件にまで悪化する可能性があります。
情報: クラスターに対する変更に伴って通常生じるイベント。
次の表は、各カテゴリに分類されるイベントの例を示しています。
イベントタイプ トリガーポイント
ALERT
名前
ユーザーが GUI へのログインに失敗した。
login.failure
ファイルシステムがアンマウントされている。
filesystem.unmounted
ファイルサービングノードがダウンまたは再起動し
ている。
server.status.down
ファイルサービングノードが予期せず終了した。
server.unreachable
WARN
ユーザーが GUI を使用してセグメントを移行した。 segment.migrated
INFO
ユーザーが正常に GUI にログインした。
login.success
ファイルシステムが作成された。
filesystem.cmd
ファイルサービングノードが削除された。
server.deregistered
GUI を使用して NIC が追加された。
nic.added
GUI を使用して NIC が削除された。
nic.removed
管理コンソールを使用して物理ストレージが検出お
よび追加された。
physicalvolume.added
管理コンソールを使用して物理ストレージが削除さ
れた。
physicalvolume.deleted
クラスターイベントは、電子メールまたは SNMP トラップによって通知することができます。
サポートされているイベントのリストを表示するには、ibrix_event –q コマンドを使用し
ます。
クラスターイベントの電子メール通知の設定
イベント通知は、イベントタイプ別に設定するか、1 つ以上の特定のイベントについて設定す
ることができます。 クラスターイベントの自動電子メール通知を設定するには、イベントを電
子メール受信者と関連付けた後、電子メール設定を構成して通知プロセスを開始します。
イベントと電子メールアドレスの関連付け
すべての Alert (アラート) イベント、すべての Warning (警告) イベント、またはすべての Info
(情報) イベントを電子メールアドレスに関連付けることができるほか、特定のタイプのすべて
58
クラスターイベント通知の構成
のイベントと別のタイプのサブセットの組み合わせや、すべてのタイプのサブセットなど、任
意の組み合わせのクラスターイベントを電子メールアドレスに関連付けることができます。
Alert イベントの通知しきい値は、容量の 90% です。 しきい値でトリガーされる通知は、監視
対象のシステムリソースがしきい値を超過すると送信され、リソース使用率がしきい値を 10%
下回るとリセットされます。 たとえば、使用率が最初に 90% 以上に達すると、通知が送信さ
れます。 次の通知が送信されるのは、使用率が 80% 以下に低下した場合 (イベントのリセッ
ト) か、その後、使用率が 90% 以上に上昇した場合だけです。
すべてのタイプのイベントを受信者に関連付けるには、-e 引数を省略して、次のコマンドを
実行します。
ibrix_event -c [-e ALERT|WARN|INFO|EVENTLIST] -m EMAILLIST
特定のタイプを関連付けるには ALERT、WARN、INFO の各キーワードを使用し、特定のイベ
ントを関連付けるには <replaceable>EVENTLIST</replaceable> を使用します。
次のコマンドでは、すべてのタイプのイベントを [email protected] に関連付けます。
ibrix_event -c -m [email protected]
次のコマンドでは、すべての ALERT イベントと 2 種の INFO イベントを [email protected] に関
連付けます。
ibrix_event -c -e ALERT,server.registered,filesystem.space.full
-m [email protected]
電子メール通知設定の構成
電子メール通知設定を構成するには、SMTP サーバーおよびヘッダー情報を指定し、通知プロ
セスのオン/オフを切り替えます。
ibrix_event -m on|off -s SMTP -f from [-r reply-to] [-t subject]
サーバーは電子メールの送受信が可能で、From アドレスおよび Reply-to アドレスを認識でき
るように設定されている必要があります。 必ず有効な電子メールアドレスを指定してくださ
い。SMTP サーバーのアドレスには特に注意してください。 アドレスが有効でないと、SMTP
サーバーが電子メールを受け付けません。
次のコマンドでは、mail.hp.com SMTP サーバーが使用され、通知がオンになるように電子メー
ル設定を構成します。
ibrix_event -m on -s mail.hp.com -f [email protected] -r [email protected] -t Cluster1 Notification
注記: GUI には、電子メール通知プロセスの状態に関係なく、クラスターイベントが表示さ
れます。
イベントと電子メールアドレスの関連付けの解除
イベントと電子メールアドレスの関連付けを解除するには、次のコマンドを使用します。
ibrix_event -d [-e ALERT|WARN|INFO|EVENTLIST] -m EMAILLIST
たとえば、[email protected] に対するイベント通知の関連付けを解除するには、次のように入力
します。
ibrix_event -d -m [email protected]
[email protected] に対する Alert 通知をすべてオフにするには、次のように入力します。
ibrix_event -d -e ALERT -m [email protected]
[email protected] および [email protected] に対して server.registered 通知および
filesystem.created 通知をオフにするには、次のように入力します。
ibrix_event -d -e server.registered,filesystem.created -m [email protected],[email protected]
電子メールアドレスのテスト
テストメッセージを使用して電子メールアドレスをテストするには、通知をオンにする必要が
あります。 アドレスが有効であれば、成功を示すメッセージがコマンドによって表示され、設
クラスターイベントの電子メール通知の設定
59
定を含む電子メールが受信者へ送信されます。 アドレスが有効でない場合、コマンドは
address failed 例外を返します。
ibrix_event -u -n EMAILADDRESS
電子メール通知設定の表示
ibrix_event -L コマンドを使用すると、電子メール設定および構成済みの通知に関する包
括的な情報を表示できます。
ibrix_event -L
Email Notification
SMTP Server
From
Reply To
:
:
:
:
Enabled
mail.hp.com
[email protected]
[email protected]
EVENT
------------------------------------asyncrep.completed
asyncrep.failed
LEVEL
----ALERT
ALERT
TYPE
----EMAIL
EMAIL
DESTINATION
[email protected]
[email protected]
SNMP 通知の設定
9000 ソフトウェアは、SNMP (Simple Network Management Protocol) v1、v2、および v3 をサ
ポートしています。
コミュニティパスワードストリングの使用によって SNMPV2 セキュリティが強制されていま
したが、V3 では、USM および VACM が導入されました。 本書では、これらのモデルの詳細
について触れません。 詳細については、RFC 3414 および 3415 (http://www.ietf.org ) を参照
してください。 次のことに留意してください。
•
SNMPV3 環境では、すべてのメッセージにユーザー名が含まれます。 USM は、ユーザー
を認証し、メッセージの暗号化と復号化を通じてメッセージのプライバシーを保護する役
割を担います。 認証、プライバシー、およびパスワードはオプションです。セキュリティ
に関する懸念があまりない場合は、デフォルト設定が使用されます。
•
ユーザーの妥当性が確認されると、それらのユーザーに対して、どのオブジェクトへのア
クセスを許可するかを VACM が決定します。 VACM には、管理対象オブジェクトへの
ユーザーアクセスを制御するアクセススキーム、アクセス可能なオブジェクトを定義する
ためのコンテキストマッチング、MIB ビューの各機能があります。MIB ビューは、IOD サ
ブツリーおよび関連付けられたビットマスクエントリー (特定のユーザーがアクセスでき
る MIB 内のオブジェクトを定義するエントリー) のサブセットによって定義されます。
SNMP の設定手順は次のとおりです。
•
エージェントの設定 (すべての SNMP バージョン)
•
trapsink の設定 (すべての SNMP バージョン)
•
trapsink とイベント通知の関連付け (すべての SNMP バージョン)
•
定義の表示 (V3 のみ)
•
グループおよびユーザーの設定 (V3 のみ)
IBRIX ソフトウェアでは、プライベート IBRIX ソフトウェア MIB をサポートする SNMP エー
ジェントが実装されています。 このエージェントはポーリングが可能で、設定済みの trapsink
に SNMP トラップを送信する機能を持ちます。
SNMP 通知は、電子メール通知と同様の手順で設定できます。 イベント発生時にエージェン
トがトラップを送信できるようにするために、イベントを trapsink に関連付けて、trapsink ご
とに SNMP 設定を構成する必要があります。
60
クラスターイベント通知の構成
注記: Phone Home が有効になっている場合、ibrix_snmpagent を使用して IBRIX SNMP
エージェントの設定を編集または変更することはできません。 ただし、ibrix_snmtrap に
よって trapsink IP を追加したり、ibrix_event によって trapsink IP とイベントを関連付けた
りすることはできます。
SNMP エージェントの設定
SNMP エージェントは、Fusion Manager のインストール時に自動的に作成されます。 このエー
ジェントは初期状態で SNMPv2 エージェントとして設定されますが、デフォルトではオフに
なっています。
一部の SNMP パラメーターおよびデフォルトの SNMP ポートは、どのバージョンの SNMP で
も同じです。 デフォルトのエージェントポートは 161 です。SYSCONTACT、SYSNAME、およ
び SYSLOCATION は、MIB-II エージェントのオプションパラメーターです。これらのパラメー
ターにはデフォルト値がありません。
注記: IBRIX 6.1 リリースでは、デフォルトの SNMP エージェントポートが 5061 から 161
に変更されました。 このポート番号を変更することはできません。
-c オプションおよび -s オプションは、すべてのバージョンの SNMP に共通です。 -c オプ
ションは、コミュニティ名とパスワードのオン/オフを切り替えます。 暗号化はデフォルトで
はオフになっています。 -s オプションは、エージェントのオン/オフを切り替えます。この
オプションでエージェントをオンにするときは、SNMP ポート上でリスナーが起動されます。
オフにするときは、リスナーが停止されます。 デフォルトの設定はオフです。
v1 および v2 の更新コマンドの形式は次のとおりです。
ibrix_snmpagent -u –v {1|2} [-p PORT] [-r READCOMMUNITY] [-w WRITECOMMUNITY]
[-t SYSCONTACT] [-n SYSNAME] [-o SYSLOCATION] [-c {yes|no}] [-s {on|off}]
SNMPv1 および v2 の更新コマンドは、オプションのコミュニティ名をとります。 読み取り
専用アクセスに使用され、エージェントに割り当てられるデフォルトの
<replaceable>READCOMMUNITY</replaceable> 名は、慣習上、public となります。 読み
取り/書き込みアクセスの場合、デフォルトの <replaceable>WRITECOMMUNITY</replaceable>
名は設定されません (private という名前がよく使われます)。
次のコマンドでは、v2 エージェントを更新して、書き込みコミュニティ名 private、エー
ジェントのシステム名、およびそのシステムの物理位置を反映させます。
ibrix_snmpagent -u –v 2 -w private -n agenthost.domain.com -o DevLab-B3-U6
SNMPv3 のコマンド形式には、エージェントのホスト名のデフォルト値を別のエンジン ID で
オーバーライドする engine id オプションが追加されています。 さらに、v3 エージェント
が管理ステーションからの v1/v2 の読み取り/書き込み要求を処理できるようにするかどうか
を指定する -y オプションおよび -z オプションも追加されています。 形式は次のとおりで
す。
ibrix_snmpagent -u –v 3 [-e engineId] [-p PORT] [-r READCOMMUNITY]
[-w WRITECOMMUNITY] [-t SYSCONTACT] [-n SYSNAME] [-o SYSLOCATION]
[-y {yes|no}] [-z {yes|no}] [-c {yes|no}] [-s {on|off}]
trapsink 設定の構成
エージェントは、トラップと呼ばれる非同期通知を管理ステーションに送信します。trapsink
とは、エージェントがこれらのトラップを送信するターゲットホストです。 trapsink は、名前
または IP アドレスで指定されます。 IBRIX ソフトウェアでは複数の trapsink をサポートしてい
るため、どのバージョンの SNMP についても任意の数の trapsink を定義できますが、バージョ
ンに関係なく 1 つのホストに対して定義できる trapsink は 1 つだけです。
SNMP 通知の設定
61
trapsink を設定するには、ターゲットホストと SNMP バージョンの指定が最低限必要です。
その他のすべてのパラメーターは省略可能であり、多くのパラメーターには省略時に適用され
るデフォルト値があります。
v1/v2 trapsink を作成するためのコマンド形式は次のとおりです。
ibrix_snmptrap -c -h HOSTNAME -v {1|2} [-p PORT] [-m COMMUNITY] [-s {on|off}]
ポートを指定しない場合は、デフォルトのポートとしてポート 162 が使用されます。コミュ
ニティを指定しない場合は、デフォルトのコミュニティ名として public が使用されます。
-s オプションでは、エージェントによるトラップ送信のオン/オフを切り替えます。 デフォ
ルトはオンです。 たとえば、v2 trapsink を新しいコミュニティ名で作成するには、次のよう
に入力します。
ibrix_snmptrap -c -h lab13-116 -v 2 -m private
v3 trapsink の場合は、追加のオプションでセキュリティ設定を定義します。 USERNAME には、
trapsink ホスト上で定義されている v3 ユーザーを指定します。この値は必須です。 トラップ
メッセージに関連付けられるセキュリティレベルは、認証パスワードが指定されているのか、
認証パスワードとプライバシーパスワードの両方が指定されているのか、それともパスワード
が指定されていないのかによって異なります。 トラップ受信側で管理対象オブジェクトのサブ
セットが定義されている場合は、CONTEXT_NAME が必須となります。 形式は次のとおりです。
ibrix_snmptrap -c -h HOSTNAME -v 3 [-p PORT] -n USERNAME [-j {MD5|SHA}]
[-k AUTHORIZATION_PASSWORD] [-y {DES|AES}] [-z PRIVACY_PASSWORD]
[-x CONTEXT_NAME] [-s {on|off}]
次のコマンドでは、ユーザー名を指定して v3 trapsink を作成し、デフォルトアルゴリズムに
適用するパスワードを指定します。 パスワードを指定する場合は、パスワードを少なくとも
8 文字以上の長さにする必要があります。
ibrix_snmptrap -c -h lab13-114 -v 3 -n trapsender -k auth-passwd -z priv-passwd
イベントと trapsink の関連付け
trapsink へのイベントの関連付けは電子メール受信者へのイベントの関連付けに似ていますが、
電子メールアドレスの代わりに trapsink のホスト名または IP アドレスを指定する必要がありま
す。
SNMP イベントを trapsink に関連付けるには、ibrix_event コマンドを使用します。 形式は
次のとおりです。
ibrix_event -c -y SNMP [-e ALERT|INFO|EVENTLIST]
-m TRAPSINK
たとえば、すべての Alert (アラート) イベントと 2 つの Info (情報) イベントを IP アドレス
192.168.2.32 の trapsink に関連付けるには、次のように入力します。
ibrix_event -c -y SNMP -e ALERT,server.registered,
filesystem.created -m 192.168.2.32
イベントと trapsink の関連付けを解除するには、ibrix_event -d コマンドを使用します。
ibrix_event -d -y SNMP [-e ALERT|INFO|EVENTLIST] -m TRAPSINK
ビューの定義
MIB ビューは、OID サブツリーと関連するビットマスクを対にしたコレクションです。ビット
マスクでは、MIB ビューを定義する上でどのサブ識別子が重要かを指定します。 ビットマスク
を使用することにより、個々の OID サブツリーをビューに含めるか、または除外することが
できます。
管理対象オブジェクトのインスタンスは、次の場合にビューに所属するとみなされます。
•
62
ビュー内の OID サブツリーと同数以上のサブ識別子がインスタンスの OID に含まれてい
る場合。
クラスターイベント通知の構成
•
対応するサブ識別子のビットマスクがゼロ以外のときにインスタンス内の各サブ識別子と
サブツリーが一致する場合。
Fusion Manager では、すべての OID へのアクセスをブロックする excludeAll ビューが自
動的に作成されます。 このビューは削除できません。ibrix_snmpgroup コマンドでグルー
プに対してビューを指定していない場合は、このビューがデフォルトの読み取り/書き込み
ビューとなります。 キャッチオール OID およびマスクは次のとおりです。
OID = .1
Mask = .1
次に例を示します。この例では、インスタンス.1.3.6.1.2.1.1 が一致し、インスタン
ス.1.3.6.1.4.1 も一致しますが、インスタンス.1.2.6.1.2.1 は一致しません。
OID = .1.3.6.1.4.1.18997
Mask = .1.1.1.1.1.1.1
OID = .1.3.6.1.2.1
Mask = .1.1.0.1.0.1
OID サブツリー値とマスク値のペアを新規または既存のビューに追加するには、次の形式を使
用します。
ibrix_snmpview -a -v VIEWNAME [-t {include|exclude}] -o OID_SUBTREE [-m MASK_BITS]
サブツリーは、指定したビューに追加されます。 たとえば、9000 ソフトウェアのプライベー
ト MIB を hp という名前のビューに追加するには、次のように入力します。
ibrix_snmpview -a -v hp -o .1.3.6.1.4.1.18997 -m .1.1.1.1.1.1.1
グループおよびユーザーの設定
グループでは、単一または複数のユーザーを対象として、管理対象オブジェクトのアクセス制
御ポリシーを定義します。 すべてのユーザーがグループに所属している必要があります。 ユー
ザーおよびグループの概念があるのは、SNMPv3 の場合だけです。 グループには、セキュリ
ティレベルと特定の読み取りビューおよび書き込みビューが割り当てられます。セキュリティ
レベルにより認証とプライバシーが適用され、読み取りビューおよび書き込みビューによりグ
ループメンバーが読み書きできる管理対象オブジェクトが定義されます。
グループを作成するコマンドでは、SNMPv3 セキュリティレベル、読み取りビューと書き込み
ビュー、およびコンテキスト名を割り当てます。 コンテキストとは、SNMP エンティティに
よるアクセスが可能な管理対象オブジェクトの集合です。 コンテキストマッチの方法は、関連
するオプション -m で指定します。 形式は次のとおりです。
ibrix_snmpgroup -c -g GROUPNAME [-s {noAuthNoPriv|authNoPriv|authPriv}]
[-r READVIEW] [-w WRITEVIEW]
たとえば、グループ group2 を作成し、認証が必須で、暗号化なし、hp ビューへのアクセス
が読み取りアクセスになるように設定するには、次のように入力します。
ibrix_snmpgroup -c -g group2 -s authNoPriv -r hp
ユーザーを作成してグループに追加するコマンドの形式は次のとおりです。
ibrix_snmpuser -c -n USERNAME -g GROUPNAME [-j {MD5|SHA}]
[-k AUTHORIZATION_PASSWORD] [-y {DES|AES}] [-z PRIVACY_PASSWORD]
認証およびプライバシーの設定はオプションです。 認証パスワードは、グループのセキュリ
ティレベルが authNoPriv または authPriv に設定されている場合に必須となります。 プライバ
シーパスワードは、グループのセキュリティレベルが authPriv の場合に必須となります。 省略
すると、MD5 が認証アルゴリズムとして使用され、DES がプライバシーアルゴリズムとして
使用されます。パスワードはなしになります。
たとえば、user3 を作成して group2 に追加し、認証用のパスワードを指定して、暗号化な
しに設定するには、次のように入力します。
SNMP 通知の設定
63
ibrix_snmpuser -c -n user3 -g group2 -k auth-passwd -s authNoPriv
SNMP 構成の要素の削除
削除操作用の構文はすべての SNMP コマンド間で共通しており、-d フラグに続けて削除対象
のオブジェクトを指定するようになっています。 次のコマンドでは、trapsink になったホスト
のリストを削除します。
ibrix_snmptrap -d -h lab15-12.domain.com,lab15-13.domain.com,lab15-14.domain.com
SNMP オブジェクトの削除に関しては、次の 2 つの制限があります。
•
グループから参照されているオブジェクトは削除できません。
•
ユーザーから参照されているグループは削除できません。
SNMP 構成情報の表示
情報を表示する場合の構文はすべての SNMP コマンド間で共通しており、-l フラグを使用し
ます。 例を次に示します。
ibrix_snmpgroup -l
このコマンドでは、すべての SNMP グループについて定義済みのグループ設定のリストを表
示します。 グループ名をオプションとして指定すると、そのグループについてのみ定義済みの
設定が表示されます。
64
クラスターイベント通知の構成
6 システムバックアップの構成
Fusion Manager 構成のバックアップ
Fusion Manager 構成は、クラスター構成が変更されるたびに自動的にバックアップされます。
バックアップは、アクティブな Fusion Manager をホストしているノードで実行されます。
バックアップファイルは、そのノード上の <ibrixhome>/tmp/fmbackup.zip に格納され
ます。
新しいバックアップファイルが使用可能になると、アクティブな Fusion Manager がパッシブ
な Fusion Manager に通知します。 パッシブな Fusion Manager は、自分がホストされている
ノード上の <ibrixhome>/tmp/fmbackup.zip に、そのファイルをコピーします。 Fusion
Manager が maintenance モードの場合は、新しいバックアップファイルが作成されたときに
も通知され、アクティブな Fusion Manager からこれを取得します。
バックアップファイルはいつでも追加のコピーを作成できます。 次のコマンドを実行すると、
fmbackup.zip ファイルが $IBRIXHOME/log ディレクトリに作成されます。
$IBRIXHOME/bin/db_backup.sh
1 日に一度、cron ジョブによって、$IBRIXHOME/log ディレクトリが $IBRIXHOME/log/
daily サブディレクトリに格納されます。 cron ジョブでは、$IBRIXHOME/tmp と
$IBRIXHOME/log の両方に、Fusion Manager 構成の新しいバックアップも作成されます。
バックアップを強制的に実行する必要がある場合は、次のコマンドを使用します。
ibrix_fm -B
重要: サーバーを障害から復旧するときや、不要な構成変更を取り消すときには、バックアッ
プファイルが必要となります。 クラスター構成の変更時には必ず、別のクラスターのノードな
どの安全で隔離された場所に、fmbackup.zip のコピーを保存するようにしてください。
NDMP バックアップアプリケーションの使用
NDMP バックアップ機能を使用して、IBRIX ソフトウェアのファイルシステム全体またはファ
イルシステムの一部を、バックアップしたり復旧したりすることができます。 サポートされて
いる任意の NDMP バックアップアプリケーションを使用して、バックアップおよびリカバリ
操作を実行できます (NDMP 用語では、バックアップアプリケーションとはデータ管理アプリ
ケーション (DMA) のことを指します)。 DMA は、クラスターとは別の管理ステーションで実
行され、構成可能なソケットポートを経由してクラスターのファイルサービングノードと通信
します。
NDMP バックアップ機能は以下をサポートしています。
•
NDMP プロトコル、バージョン 3 および 4
•
NDMP の双方向操作
•
2 つのネットワークストレージシステム間の、NDMP の双方向操作
各ファイルサービングノードは NDMP サーバーとして機能し、NDMP サーバーデーモン (ndmpd)
プロセスを実行します。 DMA でバックアップまたは復旧操作を開始するときに、操作に使用
するノードとテープデバイスを指定できます。
NDMP 機能を構成して使用するときの注意事項を次に示します。
•
NDMP 操作用にシステムを構成する場合は、テープデバイスを SAN に接続して、バック
アップ/リストア操作に使用するファイルサービングノードに適切なデバイスが表示され
ていることを確認します。
•
バックアップ操作の実行時には、ファイルシステムのスナップショットを取得し、そのス
ナップショットをバックアップします。
Fusion Manager 構成のバックアップ
65
•
ディレクトリツリークォータが有効な場合、ハードクォータ制限を超えると、元の場所へ
の NDMP リストアに失敗します。 NDMP リストア操作では、まず一時ファイルが作成さ
れ、次にその一時ファイルにファイルがリストアされます。 これが成功したら、既存の
ファイル (同じターゲットディレクトリに存在する場合) が一時ファイルによって上書きさ
れます。 ディレクトリツリーのハードクォータ制限を超えると、NDMP は一時ファイル
を作成できなくなり、リストア操作に失敗します。
クラスターの NDMP パラメーターの設定
クラスター内で DMA と NDMP サーバーとの間の通信を有効にするには、特定の NDMP パラ
メーターを設定する必要があります。 GUI でパラメーターを設定するには、ナビゲーターで
[Cluster Configuration] を選択し、次に [NDMP Backup] を選択します。 [NDMP Configuration
Summary] に、パラメーターのデフォルト値が表示されます。 [Modify] をクリックして、
[Configure NDMP] ダイアログボックスでクラスターのパラメーターを設定します。 各フィー
ルドの詳細については、オンラインヘルプを参照してください。
CLI を使用して NDMP パラメーターを設定するには、次のコマンドを使用します。
ibrix_ndmpconfig –c [-d IP1,IP2,IP3,...] [-m MINPORT] [-x MAXPORT] [-n LISTENPORT]
[-u USERNAME] [-p PASSWORD] [-e {0=disable,1=enable}] –v [{0=10}] [-w BYTES]
[-z NUMSESSIONS]
NDMP プロセス管理
通常、すべての NDMP 操作は DMA から制御します。 ただし、DMA で問題を解決できなかっ
たり、DMA が NDMP 環境について間違った情報を得ていると疑われる場合は、X9000 ソフ
トウェアで特定の操作を実行できます。
66
•
ファイルサービングノードで 1 つ以上の NDMP セッションをキャンセルします。 セッ
ションをキャンセルすると、すべての生成されたセッションプロセスが停止し、必要に応
じてそのリソースが解放されます。
•
1 つ以上のファイルサービングノードで、NDMP サーバーをリセットします。 このステッ
プによってすべての生成されたセッションプロセスが停止し、ndmpd とセッションモニ
システムバックアップの構成
ターデーモンが停止して、NDMP によって保管されるすべてのリソースが解放され、デー
モンが再起動します。
NDMP セッションの表示またはキャンセル
アクティブな NDMP セッションに関する情報を表示するには、ナビゲーターで [Cluster
Configuration] を選択し、[NDMP Backup] -> [Active Sessions] の順に選択します。 [Active NDMP
Sessions] パネルに、セッションごとに、そのセッションで使用されるホスト、バックアップア
プリケーションによって生成される識別子、セッションのステータス (データバックアップ中、
データ復元中、アイドル状態)、開始時間、DMA によって使用される IP アドレスが表示されま
す。
セッションをキャンセルするには、セッションを選択して、[Cancel Session] をクリックしま
す。 セッションをキャンセルすると、すべての生成されたセッションプロセスが停止し、必要
に応じてそのリソースが解放されます。
完了したセッションについて同様の情報を表示するには、[NDMP Backup] -> [Session History]
の順に選択します。
CLI を使用してアクティブなセッションを表示:
ibrix_ndmpsession –l
完了したセッションを表示:
ibrix_ndmpsession –l -s [-t YYYY-MM-DD]
-t オプションは、指定した日付、またはその日付より前に発生したセッションに履歴を制限
します。
特定のファイルサービングノードのセッションをキャンセル:
ibrix_ndmpsession –c SESSION1,SESSION2,SESSION3,... –h HOST
NDMP サーバーの起動、停止、または再起動
ファイルサービングノードの起動時に、NDMP サーバーも自動的に起動します。 必要に応じ
て次のコマンドを使用し、1 つ以上のファイルサービングノードの NDMP サーバーを起動、
停止、または再起動することができます。
ibrix_server –s –t ndmp –c { start | stop | restart} [-h SERVERNAMES]
テープおよびメディアチェンジャーデバイスの表示または再スキャン
バックアップ用に現在構成されているテープおよびメディアチェンジャーデバイスを表示する
には、ナビゲーターで [Cluster Configuration] を選択して、[NDMP Backup] -> [Tape Devices] の
順に選択します。
NDMP バックアップアプリケーションの使用
67
テープまたはメディアチェンジャーデバイスを SAN に追加した場合は、[Rescan Device] をク
リックしてリストを更新します。 デバイスを削除して、それをリストから削除する場合は、そ
のデバイスが接続しているすべてのサーバーを再起動します。
CLI を使用してテープおよびメディアチェンジャーデバイスを表示するには、次のコマンドを
使用します。
ibrix_tape –l
デバイスを再スキャンするには、次のコマンドを使用します。
ibrix_tape –r
NDMP イベント
NDMP サーバーは、INFO、WARN、ALERT という 3 つのタイプのイベントを生成できます。
これらのイベントは GUI に表示され、ibrix_event コマンドによって表示できます。
INFO イベント: 主要な NDMP 操作の開始および終了を特定し、進行状況も報告します。 例を
次に示します。
7012:Level 3 backup of /mnt/ibfs7 finished at Sat Nov 7 21:20:58 PST 2011
7013:Total Bytes = 38274665923, Average throughput = 236600391 bytes/sec.
WARN イベント: NDMP アクセス、環境、または NDMP 操作による問題を示します。 これら
のイベントは必ず確認して、必要な修正処理を実行してください。 例を次に示します。
0000:Unauthorized NDMP Client 16.39.40.201 trying to connect
4002:User [joe] md5 mode login failed.
ALERT イベント: NDMP 操作が失敗したことを示します。 例を次に示します。
1102: Cannot start the session_monitor daemon, ndmpd exiting.
7009:Level 6 backup of /mnt/shares/accounts1 failed (writing eod header error).
8001:Restore Failed to read data stream signature.
これらのタイプのイベントの発生時に電子メールまたは SNMP の通知を送信するように、シ
ステムを構成することができます。
68
システムバックアップの構成
7 9000 クライアントのホストグループの作成
ホストグループは、9000 クライアントの名前付きセットです。 ホストグループは、クライア
ントの一元管理に役立ちます。 ホストグループには、異なるクライアントセットを含めること
ができます。グループのすべてのメンバーに対して次の操作を実行できます。
•
マウントポイントの作成と削除
•
ファイルシステムのマウント
•
ネットワークインターフェイスの優先設定
•
ホストパラメーターのチューニング
•
割り当てポリシーの設定
ホストグループを使用するかどうかは任意です。 ホストグループを設定していない場合、クラ
イアントへのファイルシステムのマウント、ホスト設定値のチューニング、および割り当てポ
リシーの適用は個々のクライアントに対して実行できます。
ホストグループの仕組み
CLI または GUI を使用してデフォルトの clients ホストグループに対してコマンドを実行す
ると、許可されている操作をすべての 9000 クライアントに対して実行できます。これがホス
トグループ機能の最もシンプルな使い方です。 clients ホストグループには、クラスター内
で構成されているすべての 9000 クライアントが含まれます。
注記: 実行したコマンドは、クライアントが次回、Fusion Manager に接続するまでの間、
Fusion Manager に保存されます。 (クライアントを強制的に Fusion Manager に接続させるに
は、クライアント上で IBRIX ソフトウェアサービスをいったん停止してから再開するか、クラ
イアントを再起動するか、もしくは ibrix_lwmount -a または ibrix_lwhost --a を実
行します)。 クライアントが Fusion Manager に接続すると、クライアントの所属先のホストグ
ループに対して実行されたコマンドに関する情報が Fusion Manager からクライアントに渡さ
れます。 クライアントは渡された情報に基づいて、操作を実行します。
ホストグループを使用して、クライアントのセットごとに異なる操作を実行することもできま
す。 これを行うには、必要なホストグループを含むホストグループツリーを作成します。 ホ
ストグループへのクライアントの割り当ては手動で実行できるほか、IBRIX 9000 クライアント
の登録時にクライアントのクラスターサブネットに基づいて自動で実行することもできます。
自動割り当て機能を使用するには、ホストグループに対応するクラスターサブネットを指定す
るドメインルールを作成します。
ホストグループツリーの作成
clients ホストグループがホストグループツリーの root 要素となります。 ツリー内の各ホス
トグループの親は 1 つだけですが、親には複数の子を持たせることができます。 ホストグルー
プツリーでは、下位レベルのノードに対して実行した操作が、上位レベルのノードに対して実
行した操作より優先されます。 したがって、グローバルなクライアント設定を指定した後で、
個々のクライアントについては、必要に応じてそれらの設定をオーバーライドすることが可能
です。
たとえば、ファイルシステム ifs1 のマウントをすべてのクライアントに対して許可し、Tuning
1 という名前のホストチューニングセットを適用した後、これらのグローバル設定を特定のホ
ストグループでオーバーライドできます。 これを行うには、ifs1 を clients ホストグルー
プにマウントし、ifs2 をホストグループ A に、ifs3 をホストグループ C、ifs4 をホスト
グループ D にそれぞれマウントします (マウントの順序は任意です)。 次に、clients ホスト
グループに対して Tuning 1 を設定し、ホストグループ B に対して Tuning 2 を設定します。 こ
れにより、ホストグループ B のすべてのクライアントで ifs1 のマウントが可能になり、Tuning
2 が適用されます。ホストグループ A のクライアントでは ifs2 のマウントが可能になり、
ホストグループの仕組み
69
Tuning 1 が適用されます。ホストグループ C および D のクライアントでは、それぞれ ifs3
と ifs4 のマウントが可能になり、Tuning 1 が適用されます。次の図は、ホストグループツ
リー内のこれらの設定例を示しています。
root の下層に 1 レベルのホストグループを作成するには、新しいホストグループを作成するだ
けです。 root ノードが親であることを宣言する必要はありません。 それより下位のレベルの
ホストグループを作成するには、ホストグループの親要素を宣言する必要があります。 ホスト
名をグループ名として使用しないでください。
CLI を使用してホストグループツリーを作成するには、次の手順を実行します。
1. 最初のレベルのツリーを作成します。
ibrix_hostgroup -c -g GROUPNAME
2.
グループの親を指定することで、ほかのすべてのレベルを作成します。
ibrix_hostgroup -c -g GROUPNAME [-p PARENT]
ホストグループへの 9000 クライアントの追加
ホストグループには 9000 クライアントを追加できます。クライアントを異なるホストグルー
プに移動することもできます。 すべてのクライアントはデフォルトの clients ホストグルー
プに所属しています。
ホストをホストグループに追加または移動するには、ibrix_hostgroup コマンドを次のよう
に使用します。
ibrix_hostgroup -m -g GROUP -h MEMBER
たとえば、指定したホストを finance グループに追加するには、次のように入力します。
ibrix_hostgroup -m -g finance -h cl01.hp.com
ホストグループへのドメインルールの追加
自動でのホストグループ割り当てを設定するには、ホストグループのドメインルールを定義し
ます。 ドメインルールは、ホストグループのメンバーシップを特定のクラスターサブネット上
のクライアントに限定します。 Fusion Manager では、クライアントの作成時にユーザーが指
定したクライアントの IP アドレスを使用して、サブネットのマッチングを行い、クライアント
をドメインルールに応じたホストグループにソートします。
このようにホストグループに対してドメインルールを設定しておくと、異なるクライアントサ
ブネット上のマウントポリシー、チューニングポリシー、割り当てポリシー、および優先ネッ
トワークの一元管理に役立ちます。 ドメインルールは、クライアントネットワークに対応する
サブネット IP アドレスです。 ホストグループにドメインルールを追加すると、指定したサブ
ネット上の 9000 クライアントだけがホストグループのメンバーになるように限定されます。
ドメインルールは任意のタイミングで追加できます。
ドメインルールをホストグループに追加するには、ibrix_hostgroup コマンドを次のように
使用します。
ibrix_hostgroup -a -g GROUPNAME -D DOMAIN
70
9000 クライアントのホストグループの作成
たとえば、ドメインルール 192.168 を finance グループに追加するには、次のように入力
します。
ibrix_hostgroup -a -g finance -D 192.168
ホストグループの表示
すべてのホストグループまたは特定のホストグループを表示するには、次のコマンドを使用し
ます。
ibrix_hostgroup -l [-g GROUP]
ホストグループの削除
ホストグループを削除すると、そのホストグループのメンバーがそのホストグループの親に再
割り当てされます。
この場合、移動先のホストグループで設定されているマウント、チューニング、ネットワーク
インターフェイスの優先設定、および割り当てポリシーを IBRIX クライアントに強制的に適用
するには、クライアント上で 9000 ソフトウェアサービスをいったん停止して再開するか、次
のコマンドをローカルで実行します。
•
ibrix_lwmount -a: マウントまたは割り当てポリシーをクライアントに強制的に適用
•
ibrix_lwhost --a: ホストチューニングをクライアントに強制的に適用
CLI を使用してホストグループを削除するには、次のように入力します。
ibrix_hostgroup -d -g GROUPNAME
その他のホストグループ操作
ホストグループに対しては、さらに次の各操作が可能です。詳細についてはリンク先を参照し
てください。
•
マウントポイントの作成または削除、ファイルシステムのマウントまたはアンマウント
(『HP IBRIX 9000 Storage File System ユーザーガイド』 の「ファイルシステムの作成とマ
ウント」を参照)
•
ホストチューニングパラメーターの変更 (「ファイルサービングノードおよび 9000 クラ
イアントのチューニング」 (108 ページ) を参照)
•
優先するネットワークインターフェイスの設定 (「ネットワークインターフェイスの優先
設定」 (120 ページ) を参照)
•
割り当てポリシーの設定 (『HP IBRIX 9000 Storage File System ユーザーガイド』 の「ファ
イル割り当ての使用」を参照)
ホストグループの表示
71
8 クラスター操作の監視
9720/9730 ハードウェアの監視
GUI は、9720 および 9730 システムに含まれるサーバー、シャーシおよびシステムストレー
ジのステータス、ファームウェアバージョン、デバイス情報を表示します。 管理コンソールに
は、シャーシ、サーバー、およびストレージのハードウェアコンポーネントの最上位レベルス
テータスが表示されます。 任意のシャーシ、サーバー、およびストレージのコンポーネントを
展開し、サブコンポーネントのステータスを表示することもできます。
サーバーの監視
システムに含まれるサーバーおよびシャーシに関する情報を表示するには、次の手順を実行し
ます。
1. ナビゲーターツリーから [Servers] を選択します。
Servers パネルは各シャーシに含まれるサーバーを一覧表示します。
2.
詳細を表示するサーバーを選択します。
シャーシ内のサーバーに関する情報が右のペインに表示されます。
選択したサーバーのサマリー情報を表示するには、下部のナビゲーターツリー内の [Summary]
ノードを選択します。
72
クラスター操作の監視
下部のナビゲーターから、[NICs] などの確認したいサーバーコンポーネントを選択します。
9720/9730 ハードウェアの監視
73
サーバーに関するトップレベルのオプションを以下に記載します。
注記: [Hardware] ノードに関する情報については、「ハードウェアコンポーネントの監視」
(75 ページ) に記載されています。
•
•
74
[HBAs]。 HBAs パネルには、以下の情報が表示されます。
◦
Node WWN (ノード WWN)
◦
Port WWN (ポート WWN)
◦
Backup (バックアップ)
◦
Monitoring (監視)
◦
State (状態)
[NICs]。 NICs パネルは、オフラインのものも含め、そのサーバーのすべての NIC を表示
します。 NICs パネルには、以下の情報が表示されます。
◦
Name (名前)
◦
IP
◦
Type (種類)
◦
State (状態)
クラスター操作の監視
•
•
•
◦
Route (ルート)
◦
Standby Server (スタンバイサーバー)
◦
Standby Interface (スタンバイインターフェイス)
[Mountpoints]。 Mountpoints パネルには、以下の情報が表示されます。
◦
Mountpoint (マウントポイント)
◦
Filesystem (ファイルシステム)
◦
Access (アクセス)
[NFS]。 NFS パネルには、以下の情報が表示されます。
◦
Host (ホスト)
◦
Path (パス)
◦
Options (オプション)
[CIFS]。 CIFS パネルには、以下の情報が表示されます。
注記: GUI では、CIFS から SMB へ名称が変更されていません。 CIFS は単純に、SMB
の異なる名前です。
•
•
•
◦
Name (名前)
◦
Value (値)
[Power]。 Power パネルには、以下の情報が表示されます。
◦
Host (ホスト)
◦
Name (名前)
◦
Type (種類)
◦
IP Address (IP アドレス)
◦
Slot ID (スロット ID)
[Events]。 Events パネルには、以下の情報が表示されます。
◦
Level (レベル)
◦
Time (時間)
◦
Event (イベント)
[Hardware]。 Hardware パネルには、以下の情報が表示されます。
◦
ハードウェアコンポーネントの名前
◦
そのハードウェアコンポーネントに関する収集された情報。
Hardware パネルに関する詳細については、「ハードウェアコンポーネントの監視」
(75 ページ) を参照してください。
ハードウェアコンポーネントの監視
シャーシの前面にはサーバーベイがあり、背面にはファンや電源、Onboard Administrator モ
ジュール、相互接続モジュール (VC モジュールや SAS スイッチ) などのコンポーネントがあり
9720/9730 ハードウェアの監視
75
ます。 次の Onboard Administrator の図は、IBRIX 9730 システムのシャーシエンクロージャー
です。
GUI からこれらのコンポーネントを監視するには、次の手順を実行します。
1. 上部のナビゲーターツリーで [Servers] をクリックします。
2. 下部のナビゲーターツリーで [Hardware] をクリックすると、[Servers] パネルで選択した
サーバーが含まれるシャーシに関する情報が、次のように表示されます。
ブレードエンクロージャーの監視
シャーシ内のブレードエンクロージャーの要約情報を表示するには、次の手順に従います。
1. [Hardware] ノードを展開します。
2. [Hardware] ノードの下にある [Blade Enclosure] ノードを選択します。
ブレードエンクロージャーに関する以下の要約情報が表示されます。
•
Status (ステータス)
•
Type (種類)
•
Name (名前)
•
UUID
•
Serial Number (シリアル番号)
[Blade Enclosure] ノードをクリックし、いずれかのサブノードをクリックすると、ブレードエ
ンクロージャーのハードウェアコンポーネントの詳細情報が表示されます。
76
クラスター操作の監視
[Blade Enclosure] ノードの下にあるいずれかのサブノードを選択すると、追加情報が提示され
ます。 たとえば、[Fan] ノードを選択すると、ブレードエンクロージャーのファンに関する追
加情報が、[Fan] パネルに表示されます。
[Blade Enclosure] ノードの下にあるサブノードは、ブレードエンクロージャー内の各ハードウェ
アコンポーネントに関する情報を提供します。
9720/9730 ハードウェアの監視
77
表 1 ブレードエンクロージャーの詳細情報の取得
パネル名
提供される情報
[Bay]
• Status (ステータス)
• Type (種類)
• Name (名前)
• UUID
• Serial Number (シリアル番号)
• Model (モデル)
• Properties (プロパティ)
[Temperature Sensor]: [Temperature Sensor] パネルには、 • Status (ステータス)
ベイ、OA モジュール、またはブレードエンクロージャー
• Type (種類)
の情報が表示されます。
• UUID
• Properties (プロパティ)
[Fan]: [Fan] パネルにはブレードエンクロージャーの情報 • Status (ステータス)
が表示されます。
• Type (種類)
• Name (名前)
• UUID
• Location (場所)
• Properties (プロパティ)
[OA Module]
• Status (ステータス)
• Type (種類)
• Name (名前)
• UUID
• Serial Number (シリアル番号)
• Model (モデル)
• Firmware Version (ファームウェアバージョン)
• Location (場所)
• Properties (プロパティ)
[Power Supply]
• Status (ステータス)
• Type (種類)
• Name (名前)
• UUID
• Serial Number (シリアル番号)
• Location (場所)
[Shared Interconnect]
• Status (ステータス)
• Type (種類)
• Name (名前)
• UUID
• Serial Number (シリアル番号)
• Model (モデル)
• Firmware Version (ファームウェアバージョン)
• Location (場所)
• Properties (プロパティ)
78
クラスター操作の監視
サーバーの詳細の取得
管理コンソールには、シャーシ内の各サーバーの詳細情報が表示されます。 サーバーのサマ
リー情報を取得するには、[Hardware] ノードの下の [Server] ノードを選択します。
各サーバーの次の概要情報が表示されます。
•
Status (ステータス)
•
Type (種類)
•
Name (名前)
•
UUID
•
Serial Number (シリアル番号)
•
Model (モデル)
•
Firmware Version (ファームウェアバージョン)
•
Message (メッセージ)1
•
Diagnostic Message (診断メッセージ)1
1
状況に応じて動的にカラムが表示されます。
[Server] ノードの下のノードをクリックして、サーバー内のハードウェアコンポーネントの詳
細情報を取得します。
9720/9730 ハードウェアの監視
79
表 2 サーバーの詳細情報の取得
パネル名
提供される情報
[CPU]
• Status (ステータス)
• Type (種類)
• Name (名前)
• UUID
• Model (モデル)
• Location (場所)
[ILO Module (ILO モジュール)]
• Status (ステータス)
• Type (種類)
• Name (名前)
• UUID
• Serial Number (シリアル番号)
• Model (モデル)
• Firmware Version (ファームウェアバージョン)
• Properties (プロパティ)
[Memory DiMM (メモリ DiMM)]
• Status (ステータス)
• Type (種類)
• Name (名前)
• UUID
• Location (場所)
• Properties (プロパティ)
[NIC]
• Status (ステータス)
• Type (種類)
• Name (名前)
• UUID
• Properties (プロパティ)
[Power Management Controller (パワーマネジメントコン • Status (ステータス)
トローラー)]
• Type (種類)
• Name (名前)
• UUID
• Firmware Version (ファームウェアバージョン)
[Storage Cluster (ストレージクラスター)]
• Status (ステータス)
• Type (種類)
• Name (名前)
• UUID
[Drive]: ストレージクラスター内の各ドライブに関する
情報が表示されます。
• Status (ステータス)
• Type (種類)
• Name (名前)
• UUID
• Serial Number (シリアル番号)
• Model (モデル)
Firmware Version (ファームウェアバージョン)
80
クラスター操作の監視
表 2 サーバーの詳細情報の取得 (続き)
パネル名
提供される情報
•
• Location (場所)
• Properties (プロパティ)
[Storage Controller] (サーバーに対して表示)
• Status (ステータス)
• Type (種類)
• Name (名前)
• UUID
• Serial Number (シリアル番号)
• Model (モデル)
• Firmware Version (ファームウェアバージョン)
• Location (場所)
• Message (メッセージ)
• Diagnostic Message (診断メッセージ)
[Volume]: 各サーバーのボリューム情報が表示されます。 • Status (ステータス)
• Type (種類)
• Name (名前)
• UUID
• Properties (プロパティ)
[Storage Controller] (ストレージクラスターに対して表示) • Status (ステータス)
• Type (種類)
• UUID
• Serial Number (シリアル番号)
• Model (モデル)
• Firmware Version (ファームウェアバージョン)
• Message (メッセージ)
• Diagnostic Message (診断メッセージ)
[Battery] (各ストレージコントローラーに対して表示)
• Status (ステータス)
• Type (種類)
• UUID
• Properties (プロパティ)
[IO Cache Module] (ストレージコントローラーに対して • Status (ステータス)
表示)
• Type (種類)
• UUID
• Properties (プロパティ)
[Temperature Sensor]: 各温度センサーの情報が表示され • Status (ステータス)
ます。
• Type (種類)
• Name (名前)
• UUID
• Locations (場所)
• Properties (プロパティ)
9720/9730 ハードウェアの監視
81
ストレージとストレージコンポーネントの監視
ナビゲーターツリーから [Vendor Storage] を選び、お使いのシステムのストレージおよびスト
レージコンポーネントに関するステータスやデバイス情報を表示してください。
[Summary] パネルには、選択したベンダーストレージの詳細が次のように表示されます。
管理コンソールには、次の図に示すように、ベンダーストレージに関する幅広い情報が表示さ
れます。
82
クラスター操作の監視
下部のナビゲーターツリーで以下のコンポーネントへとドリルダウンすると、さらに詳細な情
報が表示されます。
•
[Servers]。 [Servers] パネルには、接続されているストレージのホスト名のリストが表示さ
れます。
•
[Storage Cluster]。 [Storage Cluster] パネルには、ストレージクラスターに関する詳細情報
が表示されます。 詳細については、「ストレージクラスターの監視」 (83 ページ) を参照
してください。
•
[Storage Switch]。 [Storage Switch] パネルには、ストレージスイッチに関する詳細情報が
表示されます。 詳細については、「ストレージクラスター内のストレージスイッチの監
視」 (89 ページ) を参照してください。
•
[LUNs]。 [LUNs] パネルには、ストレージクラスター内の LUN に関する情報が表示されま
す。 詳細については、「ストレージクラスター内の LUN の管理」 (89 ページ) を参照し
てください。
ストレージクラスターの監視
管理コンソールには、各ストレージクラスターの詳細情報が表示されます。 [Storage Clusters]
ノードの下に表示されるサブノードのいずれかをクリックすると、追加情報が得られます。
•
[Drive Enclosure]。 [Drive Enclosure] パネルには、ドライブエンクロージャーに関する詳細
情報が表示されます。 [Drive Enclosure] ノードを展開すると、電源とサブエンクロージャー
に関する情報が表示されます。 詳細については、「ストレージクラスターのドライブエン
クロージャーの監視」 (84 ページ) を参照してください。
•
[Pool]。 [Pool] パネルには、ストレージクラスター内のプールに関する情報が表示されま
す。 [Pool] ノードを展開すると、プール内のボリュームに関する情報が表示されます。
詳細については、「ストレージクラスターのプールの監視」 (86 ページ) を参照してくだ
さい。
•
[Storage Controller]。 [Storage Controller] パネルには、ストレージコントローラーに関す
る詳細情報が表示されます。 [Storage Controller] ノードを展開すると、ストレージコント
ローラーのバッテリーおよび I/O キャッシュモジュールに関する情報が表示されます。
詳細については、「ストレージクラスターのストレージコントローラーの監視」 (88 ペー
ジ) を参照してください。
9720/9730 ハードウェアの監視
83
ストレージクラスターのドライブエンクロージャーの監視
各 9730 CX はシングルドライブエンクロージャーです。 このエンクロージャーには 2 つのサ
ブエンクロージャーがあり、[Drive Enclosure] ノードの下に表示されます。 [Sub Enclosure] ノー
ドのいずれかをクリックすると、そのサブエンクロージャーの情報が表示されます。
[Drive Enclosure] ノードを展開すると、電源とサブエンクロージャーに関する追加情報が提供
されます。
表 3 ドライブエンクロージャーに関して提供される詳細情報
ノード
参照する項
Power Supply
「ストレージクラスターの電源の監視」 (84 ページ)
Sub Enclosure
「サブエンクロージャーの監視」 (85 ページ)
ストレージクラスターの電源の監視
各ドライブエンクロージャーは電源も備えています。 [Power Supply] ノードを選択すると、ド
ライブエンクロージャー内の各電源に関する、以下の情報が表示されます。
•
84
Status (ステータス)
クラスター操作の監視
•
Type (種類)
•
Name (名前)
•
UUID
次の図に示す [Power Supply] パネルには、エンクロージャー内の 4 つの電源に関する情報が
提供されます。
サブエンクロージャーの監視
[Sub Enclosure] ノードを展開すると、各サブエンクロージャーの以下のコンポーネントに関す
る情報が得られます。
•
•
[Drive]: [Drive] パネルは、サブエンクロージャー内のドライブに関する以下の情報を提供
します。
◦
Status (ステータス)
◦
Volume Name (ボリューム名)
◦
Type (種類)
◦
UUID
◦
Serial Number (シリアル番号)
◦
Model (モデル)
◦
Firmware Version (ファームウェアバージョン)
◦
Location (場所)。 この列には、ドライブの所在情報が表示されます。 たとえば、リス
ト内のいずれかのドライブの位置を Port: 52 Box 1 Bay: 7 とします。このドラ
イブを見つけるには、ベイ 7 を調べます。ポート番号は、スイッチ番号とスイッチ
ポートを示しています。 ポート 52 の場合、ドライブはスイッチ 5 のポート 2 に接
続されています。Port: 72 Box 1, Bay 6 の場合、ドライブはベイ 6 にあるス
イッチ 7 上のポート 2 に接続されています。
◦
Properties (プロパティ)
[Fan]。 [Fan] パネルは、サブエンクロージャー内のファンに関する以下の情報を提供しま
す。
◦
Status (ステータス)
◦
Type (種類)
◦
Name (名前)
◦
UUID
◦
Properties (プロパティ)
9720/9730 ハードウェアの監視
85
•
•
[SEP]。 [SEP] パネルは、サブエンクロージャー内のプロセッサーに関する以下の情報を提
供します。
◦
Status (ステータス)
◦
Type (種類)
◦
Name (名前)
◦
UUID
◦
Serial Number (シリアル番号)
◦
Model (モデル)
◦
Firmware Version (ファームウェアバージョン)
[Temperature Sensor]。 [Temperature Sensor] パネルは、サブエンクロージャー内の温度セ
ンサーに関する以下の情報を提供します。
◦
Status (ステータス)
◦
Type (種類)
◦
Name (名前)
◦
UUID
◦
Properties (プロパティ)
ストレージクラスターのプールの監視
管理コンソールには、ストレージクラスター内の各プールを表す [Pool] ノードが一覧されま
す。 [Pool] ノードのいずれかを選択すると、プールに関する情報が表示されます。
86
クラスター操作の監視
[Pool] ノードを選択すると、以下の情報が [Pool] パネルに表示されます。
•
Status (ステータス)
•
Type (種類)
•
Name (名前)
•
UUID
•
Properties (プロパティ)
プール内のボリュームの詳細情報を得るには、[Pool] ノードを展開し、[Volume] ノードを選択
します。 プール内のボリュームに関する以下の情報が表示されてます。
•
Status (ステータス)
•
Type (種類)
•
Name (名前)
•
UUID
•
Properties (プロパティ)
次の図の [Volume] パネルには、2 つのボリューム、LUN_15 および LUN_16 の情報が表示さ
れています。
9720/9730 ハードウェアの監視
87
ストレージクラスターのストレージコントローラーの監視
管理コンソールに、ストレージクラスター内の各ストレージコントローラーを表す [Storage
Controller] ノードが表示されます。 [Storage Controller] ノードを選択すると、選択したスト
レージコントローラーに関する以下の情報が表示されます。
•
Status (ステータス)
•
Type (種類)
•
UUID
•
Serial Number (シリアル番号)
•
Model (モデル)
•
Firmware Version (ファームウェアバージョン)
•
Location (場所)
•
Message (メッセージ)
•
Diagnostic Message (診断メッセージ)
[Storage Controller] ノードを展開すると、そのストレージコントローラーのバッテリーおよび
I/O キャッシュモジュールに関する情報が得られます。
ストレージコントローラーのバッテリーの監視
[Battery] パネルには、以下の情報が表示されます。
•
Status (ステータス)
•
Type (種類)
•
UUID
•
Properties (プロパティ)。 バッテリーの残量と充電ステータスに関する情報を提示します。
次の図の [Battery] パネルは、残量 100% のバッテリーに関する情報を表示しています。
ストレージコントローラーの IO キャッシュモジュールの監視
[IO Cache Module] パネルには、ストレージコントローラーの I/O キャッシュモジュールに関
する、以下の情報が表示されます。
•
Status (ステータス)
•
Type (種類)
•
UUID
•
Properties (プロパティ)。 読み取り、書き込み、およびキャッシュサイズのプロパティに
関する情報を提供します。
次の図の [IO Cache Module] パネルは、読み取り/書き込みプロパティを有効にした I/O キャッ
シュモジュールを示しています。
88
クラスター操作の監視
ストレージクラスター内のストレージスイッチの監視
[Storage Switch] パネルには、ストレージスイッチに関する以下の情報が表示されます。
•
Status (ステータス)
•
Type (種類)
•
Name (名前)
•
UUID
•
Serial Number (シリアル番号)
•
Model (モデル)
•
Firmware Version (ファームウェアバージョン)
•
Location (場所)
ストレージスイッチのプロセッサー (SEP) に関する情報を表示するには、[Storage Switch] ノー
ドを展開し、[SEP] ノードを選択します。 SEP に関する以下の情報が表示されます。
•
Status (ステータス)
•
Type (種類)
•
UUID
•
Model (モデル)
•
Firmware Version (ファームウェアバージョン)
次の図の [SEP] パネルには、ストレージクラスターの SEP プロセッサーが表示されています。
ストレージクラスター内の LUN の管理
[LUNs] パネルには、ストレージクラスター内の LUN に関する情報が表示されます。 以下の情
報が [LUNs] パネルに表示されます。
•
Volume Name (ボリューム名)
•
LUN ID
•
RAID Group UUID (RAID グループ UUID)
•
Logical Volume Name (論理ボリューム名)
•
Physical Volume Name (物理ボリューム名)
•
Physical Volume UUID (物理ボリューム UUID)
以下の [LUNs] パネルには、ストレージクラスターの LUN が表示されています。
9720/9730 ハードウェアの監視
89
ファイルサービングノードの状態の監視
GUI のダッシュボードには、ファイルサービングノードの稼働ステータスに関する情報が表示
されます。これには、CPU、I/O、およびネットワークパフォーマンス情報が含まれます。
CLI を使用してこの情報を表示するには、次のサンプル出力に示すように、ibrix_server
-l コマンドを使用します。
ibrix_server -l
SERVER_NAME
----------node1
node2
STATE
-----------Up, HBAsDown
Up, HBAsDown
CPU(%)
-----0
0
NET_IO(MB/s)
-----------0.00
0.00
DISK_IO(MB/s)
------------0.00
0.00
BACKUP
------
HA
-off
off
ファイルサービングノードの稼働状態は、Normal、Alert、Error のいずれかです。 この状態は
さらに、ノードのフェイルオーバーステータスと監視対象の NIC および HBA のステータスを
示すカテゴリに分類されます。
状態
説明
Normal
Up: 稼働中。
Alert
Up-Alert: ログの記録対象となる状況がサーバーに発生したことを意味します。 イベントは GUI の
[Status] タブに表示されます。また、該当する場合は、電子メール通知が送信されます。
Up-InFailover: サーバーの電源がオンで、サーバーが Fusion Manager から認識できる状態になって
おり、Fusion Manager がサーバーのセグメントをスタンバイサーバーに現在フェイルオーバーして
いることを意味します。
Up-FailedOver: サーバーの電源がオンで、サーバーが Fusion Manager から認識できる状態になっ
ており、フェイルオーバーが完了していることを意味します。
Error
Down-InFailover: サーバーの電源がオフで、サーバーが Fusion Manager からアクセスできない状態
になっており、Fusion Manager がサーバーのセグメントをスタンバイサーバーに現在フェイルオー
バーしていることを意味します。
Down-FailedOver: サーバーの電源がオフで、サーバーが Fusion Manager からアクセスできない状
態になっており、フェイルオーバーが完了していることを意味します。
Down: サーバーの電源がオフで、サーバーが Fusion Manager からアクセスできない状態になって
おり、サーバーのセグメントへのアクセスを提供するスタンバイサーバーが存在しないことを意味
します。
さらに、監視対象の NIC および HBA のステータスが STATE フィールドに報告されます。 HBA
および NIC が複数個あって、そのうちいくつかが動作を停止している場合、HBAsDown か
NicsDown のいずれかの状態が報告されます。
90
クラスター操作の監視
クラスターイベントの監視
IBRIX ソフトウェアのイベントは、重大度レベルに応じて、以下のカテゴリのいずれか 1 つに
割り当てられます。
•
アラート: ファイルシステムデータへのアクセスが失われる可能性のある中断イベント。
たとえば、セグメントが使用不能になった場合や、サーバーが到達不能になった場合な
ど。
•
警告: ファイルシステムへのアクセスは失われないものの、中断を招く可能性のある状
態。この状態に対処しないでいると、アラート条件にまで悪化する可能性があります。 た
とえば、CPU の使用率が非常に高い場合や、クォータ制限値に近づいている場合など。
•
情報: クラスターに対する変更 (セグメントの作成やファイルシステムのマウント) に伴っ
て通常生じるか、または脅威のないイベント。
発生したイベントは、構成情報データベースのイベントテーブルに書き込まれます。 ファイル
のサイズが適切に維持されるように、古いイベントを定期的に削除することをお勧めします。
「データベースのイベントテーブルからのイベントの削除」 (92 ページ) を参照してください。
電子メールによるイベント通知 (「クラスターイベントの電子メール通知の設定」 (58 ページ)
を参照) か、または SNMP トラップによるイベント通知 (「SNMP 通知の設定」 (60 ページ)
を参照) を設定できます。
イベントの表示
GUI のダッシュボードには、過去 24 時間以内に発生したイベントの数が示されます。 GUI ナ
ビゲーターの [Events] をクリックすると、イベントのレポートが表示されます。 特定のファイ
ルシステムまたはサーバーに関して報告されたイベントを表示することもできます。
CLI では、ibrix_event コマンドを使用して、クラスターイベントに関する情報を表示しま
す。
アラートタイプごとにイベントを表示するには、次のコマンドを使用します。
ibrix_event -q [-e ALERT|WARN|INFO]
ibrix_event -l コマンドでは、短形式でイベントが表示されるので、イベントの説明が 1
行の長さに合わせて切り捨てられます。 –n オプションでは、表示するイベントの数を指定し
ます。 デフォルトは 100 です。
$ ibrix_event -l -n 3
EVENT ID TIMESTAMP
-------- --------------1983 Feb 14 15:08:15
1982 Feb 14 15:08:15
1981 Feb 14 15:08:15
LEVEL
----INFO
INFO
INFO
TEXT
---File system ifs1 created
Nic eth0[99.224.24.03] on host ix24–03.ad.hp.com up
Ibrix kernel file system is up on ix24-03.ad.hp.com
ibrix_event -i コマンドでは、長形式でイベントが表示され、イベントの説明も完全に表
示されます。
$ ibrix_event -i -n 2
Event:
=======
EVENT ID
: 1981
TIMESTAMP
: Feb 14 15:08:15
LEVEL
: INFO
TEXT
: Ibrix kernel file system is up on ix24–03.ad.hp.com
FILESYSTEM
:
HOST
: ix24–03.ad.hp.com
USER NAME
:
OPERATION
:
SEGMENT NUMBER :
PV NUMBER
:
NIC
:
HBA
:
RELATED EVENT
: 0
Event:
クラスターイベントの監視
91
=======
EVENT ID
: 1980
TIMESTAMP
: Feb 14 15:08:14
LEVEL
: ALERT
TEXT
: category:CHASSIS, name: 9730_ch1, overallStatus:DEGRADED,
component:OAmodule, uuid:09USE038187WOAModule2, status:MISSING, Message: The Onboard
Administrator module is missing or has failed., Diagnostic message: Reseat the Onboard
Administrator module. If reseating the module does not resolve the issue, replace the Onboard
Administrator module., eventId:000D0004, location:OAmodule in chassis S/N:USE123456W,
level:ALERT
FILESYSTEM
:
HOST
: ix24–03.ad.hp.com
USER NAME
:
OPERATION
:
SEGMENT NUMBER :
PV NUMBER
:
NIC
:
HBA
:
RELATED EVENT
: 0
ibrix_event -l および -i コマンドには、特定のファイルシステム、サーバー、アラート
レベル、開始または終了時間に関連付けられたレコードを返すためのフィルターとして機能す
るオプションを含めることができます。 詳細については、『HP IBRIX 9000 Network Storage
System CLI リファレンスガイド』 を参照してください。
データベースのイベントテーブルからのイベントの削除
ibrix_event -p コマンドを使用して、イベントテーブルのイベントを、古いイベントから
削除します。 デフォルトでは、最初の 7 日間のメッセージが削除されます。 日数を変更する
には、-o DAYS_COUNT オプションを含めます。
ibrix_event -p [-o DAYS_COUNT]
クラスターの稼働状態の監視
ファイルサービングノードおよび 9000 クライアントの稼働状態を監視するには、
ibrix_health コマンドを実行します。 このコマンドでは、ホストのパフォーマンスをいく
つかの機能項目についてチェックし、結果の概要情報レポートまたは詳細情報レポートを出力
します。
ヘルスチェック
ibrix_health コマンドでは、次のヘルスチェックをファイルサービングノードに対して実
行します。
•
テストホストとネットワークを共有しているリモートファイルサービングノードに対して
ping を送信します。 リモートサーバーが ping に応答する場合は、Linux または IBRIX ソフ
トウェアに問題が生じたためにリモートサーバーがテストホストに接続されていない可能
性があります。 リモートサーバーが ping に応答しない場合は、リモートサーバーがダウ
ンしているか、ネットワークに問題が生じている可能性があります。
•
テストホストがネットワークインターフェイスモニターとして割り当てられている場合
は、監視対象インターフェイスに ping を送信して接続の稼働状態を確認します (ネット
ワークインターフェイスの監視の詳細については、「構成データベースにネットワークイ
ンターフェイスオプションを設定する」 (119 ページ) を参照してください)。
•
指定したホストが物理ボリュームを読み取ることができるかどうかをチェックします。
ibrix_health コマンドでは、次のヘルスチェックをファイルサービングノードと 9000 ク
ライアントの両方に対して実施します。
•
テストホスト上の情報マップと構成情報データベースの整合性を確認します。
-b オプションを含めると、スタンバイサーバーの稼働状態もチェックされます (スタンバイが
構成されている場合)。
92
クラスター操作の監視
ヘルスチェックのレポート
概要レポートでは、テストしたすべてのファイルサービングノードおよび 9000 クライアント
の全体的なヘルスチェック結果が表示され、その後ろに個々の結果が表示されます。 -b オプ
ションを指定すると、テストしたすべてのファイルサービングノードのスタンバイサーバーを
含めた全体的な結果が表示されます。 結果は次のいずれかとなります。
•
Passed: すべてのテスト対象ホストおよびスタンバイサーバーがいずれのヘルスチェック
にも合格したことを意味します。
•
Failed: テスト対象のホストのうち、1 つ以上のホストがヘルスチェックで不合格になっ
たことを意味します。 この結果の計算は、スタンバイサーバーのヘルスステータスを考慮
せずに行われます。
•
Warning: 注意が必要となる可能性のある非最適条件が 1 つ以上のテスト対象ホストまた
はスタンバイサーバーに見つかったことを意味します。
詳細情報レポートには、概要レポートと同じ情報に加え、次の追加データが含まれます。
•
テスト結果の概要
•
稼働状態、パフォーマンスデータ、バージョンデータなどのホスト情報
•
デフォルトと異なるホストチューニング
•
ヘルスチェックの結果
デフォルトでは、結果が Failed または Warned になったヘルスチェックに関するデータだけ
が、詳細情報レポートの Result Information フィールドに表示されます。 オプションとして、
結果が Passed になったチェックに関するデータや、ファイルシステムおよびセグメントに関
する詳細情報も報告されるように詳細情報レポートを拡張できます。
概要ヘルスレポートの表示
概要ヘルスレポートを表示するには、ibrix_health -l コマンドを使用します。
ibrix_health -l [-h HOSTLIST] [-f] [-b]
このコマンドでは、デフォルトですべてのホストのレポートを出力します。 特定のホストを表
示するには、-h HOSTLIST 引数を含めます。 チェックで不合格となったホストの結果だけを
表示するには、-f 引数を含めます。 スタンバイサーバーをヘルスチェックの対象に含めるに
は、-b 引数を含めます。
ibrix_health -l コマンドの出力例を以下に示します。
[root@bv18-03 ~]# ibrix_health -l
Overall Health Checker Results - PASSED
=======================================
Host Summary Results
====================
Host
Result Type
State Network
------- ------ ------ ----- ---------bv18-03 PASSED Server Up
10.10.18.3
bv18-04 PASSED Server Up
10.10.18.4
Last Update
----------Thu Oct 25 14:23:12 MDT 2012
Thu Oct 25 14:23:22 MDT 2012
詳細ヘルスレポートの表示
詳細ヘルスレポートを表示するには、ibrix_health -i コマンドを使用します。
ibrix_health -i -h HOSTLIST [-f] [-s] [-v]
-f オプションでは、チェックで不合格になったホストの結果だけが表示されます。 ファイル
システムとそれらのセグメントに関する情報をレポートに含めるには、-s オプションを指定
します。 -v オプションでは、結果が Passed または Warning になったチェックに関する詳細
情報だけがレポートに示されます。
たとえば、ファイルサービングノード bv18-04 の詳細ヘルスレポートを表示するには、次の
ように入力します。
クラスターの稼働状態の監視
93
[root@bv18-04 ~]# ibrix_health -i -h bv18-04
Overall Health Checker Results - PASSED
=======================================
Host Summary Results
====================
Host
Result Type
State Network
Last Update
------- ------ ------ ----- ---------- ----------bv18-04 PASSED Server Up
10.10.18.4 Thu Oct 25 13:59:40 MDT 2012
Report
======
Overall Result
==============
Result Type
State Module Up time
Last Update
Network
Thread Protocol
------ ------ ----- ------ --------- ---------------------------- ---------- ------ -------PASSED Server Up
Loaded 1699630.0 Thu Oct 25 13:59:40 MDT 2012 10.10.18.4 64
true
CPU Information
===============
Cpu(System,User,Util,Nice) Load(1,3,15 min) Network(Bps) Disk(Bps)
-------------------------- ---------------- ------------ --------0, 0, 0, 0
0.09, 0.05, 0.01
1295
1024
Memory Information
==================
Mem Total Mem Free Buffers(KB) Cached(KB) Swap Total(KB) Swap Free(KB)
--------- -------- ----------- ---------- -------------- ------------8045992
4190584
243312
2858364
14352376
14352376
Version/OS Information
======================
Fs Version
IAD Version OS
OS Version
Kernel Version Architecture Processor
---------- ----------- ------------ ------—------—------—------—------—------—------—------—-------- ------------ --------6.2.338(internal rev 130683 in SVN) 6.2.338
GNU/Linux Red Hat Enterprise Linux Server release 5.5
(Tikanga)
2.6.18-194.
el5 x86_64
x86_64
Remote Hosts
============
Host
Type
Network
Protocol Connection State
------- ------ ---------- -------- ---------------bv18-03 Server 10.10.18.3 true
S_SET S_READY S_SENDHB
bv18-04 Server 10.10.18.4 true
S_NEW
Check Results
=============
Check : bv18-04 can ping remote segment server hosts
====================================================
Check Description
Result Result Information
------------------------------ ------ -----------------Remote server bv18-03 pingable PASSED
Check : Iad's monitored nics are pingable
=========================================
Check Description
Result Result Information
--------------------------------------------------- ------ -----------------User nic bv18-04/bond1:2 pingable from host bv18-03 PASSED
Check : Physical volumes are readable
=====================================
Check Description
Result Result Information
--------------------------------------------------------------- ------ -----------------Physical volume 0wndzX-STuL-wSIi-wc7w-12hv-JZ2g-Lj2JTf readable PASSED /dev/mpath/mpath2
Physical volume aoA402-I1ek-G9B2-HHyR-H5Y8-eexU-P6knhd readable PASSED /dev/mpath/mpath1
Physical volume h7krR6-2pxA-M8bD-dkdf-3PK7-iwFE-L17jcD readable PASSED /dev/mpath/mpath0
Physical volume voXTso-a2KQ-MWCN-tGcu-1OBs-ejWG-YrKLEe readable PASSED /dev/mpath/mpath3
Check : Iad and Fusion Manager consistent
=========================================
Check Description
Result Result Information
------------ ------ -----------------bv18-03 engine uuid matches on Iad and Fusion Manager
PASSED
bv18-03 IP address matches on Iad and Fusion Manager
PASSED
bv18-03 network protocol matches on Iad and Fusion Manager
PASSED
bv18-03 engine connection state on Iad is up
PASSED
bv18-04 engine uuid matches on Iad and Fusion Manager
PASSED
bv18-04 IP address matches on Iad and Fusion Manager
PASSED
bv18-04 network protocol matches on Iad and Fusion Manager
PASSED
bv18-04 engine connection state on Iad is up
PASSED
ibrixFS file system uuid matches on Iad and Fusion Manager
PASSED
ibrixFS file system generation matches on Iad and Fusion Manager
PASSED
ibrixFS file system number segments matches on Iad and Fusion Manager
PASSED
ibrixFS file system mounted state matches on Iad and Fusion Manager
PASSED
Superblock owner for segment 4 of filesystem ibrixFS on bv18-04 matches
nl
on Iad and Fusion Manager
Superblock owner for segment 3 of filesystem ibrixFS on bv18-04 matches
PASSED
on Iad and Fusion Manager
Superblock owner for segment 2 of filesystem ibrixFS on bv18-04 matches
PASSED
on Iad and Fusion Manager
Superblock owner for segment 1 of filesystem ibrixFS on bv18-04 matches
PASSED
on Iad and Fusion Manager
PASSED
nl
nl
nl
94
クラスター操作の監視
ログの表示
Fusion Manager、ファイルサービングノード、および 9000 クライアントのそれぞれについて
ログが用意されています。 ログファイルの内容の意味については、HP サポートにお問い合わ
せください。 HP サポートでは、ログを tar 形式で圧縮し、電子メールに添付して HP に送信
するようにお願いすることがあります。
インテグレーテッドマネジメントログ (IML) の表示および消去
IML は、サーバーブレードに発生したハードウェアエラーを記録します。 hpasmcli(4) コマ
ンドを使うと、イベントを表示または消去できます。
ファイルサービングノードの稼働状況に関する統計情報の表示
ファイルサービングノードは、定期的に、次のような統計情報を Fusion Manager に報告しま
す。
•
Summary: CPU 使用率、ディスクスループット、ネットワークスループット、稼働状態な
ど、稼働状況に関する一般的な統計情報。 稼働状態の詳細については、「ファイルサービ
ングノードの状態の監視」 (90 ページ) を参照してください。
•
IO: 読み取りおよび書き込みに関する総統計値。
•
Network: ネットワークの入出力に関する総統計値。
•
Memory: メモリの使用可能容量、空き容量、およびスワップメモリに関する統計情報。
•
CPU: プロセッサーおよび CPU アクティビティに関する統計情報。
•
NFS: NFS クライアントおよびサーバーアクティビティに関する統計情報。
GUI では、これらの統計情報のほとんどがダッシュボードに表示されます。 詳細については、
「GUI の使用」 (17 ページ) を参照してください。
CLI を通じて統計情報を表示するには、次のコマンドを使用します。
ibrix_stats -l [-s] [-c] [-m] [-i] [-n] [-f] [-h HOSTLIST]
特定の統計情報のみを表示したり、特定のファイルサービングノードに関する統計情報のみを
表示するには、次のオプションを使用します。
-s 統計情報の概要
-c CPU の統計情報
-m メモリの統計情報
-i I/O の統計情報
-n ネットワークの統計情報
-f NFS の統計情報
-h レポートに含めるファイルサービングノード
出力の例を次に示します。
---------Summary-----------HOST
Status CPU Disk(MB/s) Net(MB/s)
lab12-10.hp.com
Up
0
22528
616
---------IO-----------HOST Read(MB/s)
Read(IO/s) Read(ms/op) Write(MB/s) Write(IO/s) Write(ms/op)
lab12-10.hp.com
22528
2
5
0
0.00
---------Net-----------HOST
In(MB/s) In(IO/s) Out(MB/s) Out(IO/s)
lab12-10.hp.com
261
3
355
2
---------Mem-----------HOST
MemTotal(MB) MemFree(MB) SwapTotal(MB) SwapFree(MB)
lab12-10.hp.com
1034616
703672
2031608
2031360
---------CPU----------HOST
User System Nice Idle IoWait Irq SoftIrq
lab12-10.hp.com
0
0
0
0
97
1
0
---------NFS v3-------ログの表示
95
HOST
lab12-10.hp.com
96
Null Getattr Setattr Lookup Access Readlink Read Write
0
0
0
0
0
0
0
0
HOST
lab12-10.hp.com
Create Mkdir Symlink Mknod Remove Rmdir Rename
0
0
0
0
0
0
0
HOST
lab12-10.hp.com
Link Readdir Readdirplus Fsstat Fsinfo Pathconf Commit
0
0
0
0
0
0
0
クラスター操作の監視
9 Statistics ツールの使用
Statistics ツールでは、クラスターや個別のファイルサービングノードのパフォーマンス履歴
データが報告されます。 ネットワーク、オペレーティングシステム、および、NFS、メモリ、
およびブロックデバイスを含むファイルシステムのデータを表示できます。 Statistic データは
各ファイルサービングノードから Fusion Manager に送信され、Fusion Manager が処理やレ
ポート生成を制御します。
Statistics ツールのインストールと設定
Statistics ツールには 2 つの主要なプロセスがあります。
•
Manager プロセス: このプロセスはアクティブな Fusion Manager で実行されます。 Agent
プロセスを実行しているファイルサービングノードからクラスター全体の統計情報を収集
および集約し、ローカルの統計情報も収集します。 Manager は、集約した統計情報に基
づくレポートを生成し、すべてのファイルサービングノードからレポートを収集します。
さらに、Agent プロセスの開始と停止も制御します。
•
Agent プロセス: このプロセスはファイルサービングノードで実行されます。 ローカルシ
ステムの統計情報を収集および集約し、これらの統計情報からレポートを生成します。
重要: Statistics ツールはリモートファイルコピー (rsync) を使用して、統計情報データをファ
イルサービングノードから Fusion Manager に移動します。Fusion Manager でデータが処理さ
れ、レポートが生成され、表示されます。 すべてのファイルサービングノードからアクティブ
な Fusion Manager に対して、SSH キーが自動的に設定されます。
Statistics ツールのインストール
Statistics ツールは、IBRIX ソフトウェアをファイルサービングノードにインストールするとき
に、自動的にインストールされます。 Statistics ツールを手動でインストールまたは再インス
トールするには、次のコマンドを使用します。
ibrixinit –tt
次のことに留意してください。
•
インストールのログは /tmp/stats-install.log にあります。
•
デフォルトでは、Statistics ツールをインストールしても Statistics ツールのプロセスは開始
されません。 プロセスの開始および停止方法については、「Statistics ツールプロセスの制
御」 (102 ページ) を参照してください。
•
インストール時に Fusion Manager デーモンが実行されていない場合、Statstool はパッシ
ブとしてインストールされます。 Fusion Manager がアクティブまたはパッシブ状態になっ
たら、Statstool 管理コンソールは Fusion Manager の状態に合わせて自動的に変更されま
す。
収集と同期の有効化
収集と同期を有効にするには、ノード間の同期化を構成します。 アクティブな Fusion Manager
ノードで、すべてのファイルサービングノードのノード名を指定して、次のコマンドを実行し
ます。
/usr/local/ibrix/stats/bin/stmanage setrsync <node1_name> ...
<nodeN_name>
例を次に示します。
# stmanage setrsync ibr-3-31-1 ibr-3-31-2 ibr-3-31-3
Statistics ツールのインストールと設定
97
注記: 個別のノードに対してこのコマンドを実行しないでください。 同じコマンド内にすべ
てのノードを指定する必要があります。どのような順序で指定しても構いません。 必ずノード
名を使用します。IP アドレスを使用しないでください。
rsync のメカニズムをテストする場合は、「アクセステスト」 (102 ページ) を参照してくださ
い。
Statistics ツールの IBRIX ソフトウェア 6.0 からのアップグレード
バージョン 6.1 以降にアップグレードしても、統計情報の履歴は保管されます。
ibrix_upgrade および auto_ibrixupgrade スクリプトを使用して IBRIX ソフトウェアを
アップグレードすると、Statstool ソフトウェアがアップグレードされます。
次のことに留意してください。
•
アップグレードの開始前に統計プロセスを実行していた場合、アップグレードが正常に完
了した後で、これらのプロセスは自動的に再開されます。 アップグレードの開始前に統計
プロセスを実行していなかった場合は、アップグレードの完了後に手動で開始する必要が
あります。
•
Statistics ツールが以前にインストールされていなかった場合、IBRIX ソフトウェアアップ
グレードによってツールはインストールされますが、Statistics プロセスは開始されませ
ん。 プロセスの開始方法については、「Statistics ツールプロセスの制御」 (102 ページ) を
参照してください。
•
アップグレード前に /etc/ibrix/stats.conf ファイルに設定された構成可能パラメー
ター (age.retain.files=24h など) は、アップグレード後に保管されません。
•
アップグレード後、履歴データとレポートは /var/lib/ibrix/histstats フォルダー
から /local/statstool/histstats フォルダーに移動します。
•
アップグレードでは Statistics ツールのデータベースは保管されますが、レポートは保管さ
れません。 日付範囲を指定することで、アップグレード前に格納されたデータのレポート
を再生成することができます。 「レポートの生成」 (99 ページ) を参照してください。
履歴レポート GUI の使用
GUI を使用して、クラスター全体のレポートや、特定のファイルサービングノードのレポート
を、表示または生成することができます。 GUI を開くには、GUI ダッシュボードの [Historical
Reports] を選択します。
注記: デフォルトでは、Statistics ツールをインストールしても Statistics ツールのプロセスは
開始されません。 アクティブな Fusion Manager でプロセスが実行されていない場合、GUI に
はメッセージが表示されます (アクティブな Fusion Manager でプロセスがすでに実行されてい
る場合や、パッシブな管理コンソールでプロセスがまったく実行されていない場合、メッセー
ジは表示されません)。 プロセスの開始方法については、「Statistics ツールプロセスの制御」
(102 ページ) を参照してください。
統計のホームページでは、レポートを一覧表示するための 3 つのビュー (フォーマット) が提
供されています。 次の例は Simple ビューで、タイプ (時間別、日次、週次、詳細) ごとにレ
ポートがソートされています。
98
Statistics ツールの使用
Time ビューではレポートが時系列に表示され、Table ビューではクラスターまたはサーバー別
にレポートが一覧表示されます。 クリックするとそのレポートが表示されます。
レポートの生成
新しいレポートを生成するには、IBRIX 管理コンソールの履歴レポート GUI で [Request New
Report] をクリックします。
履歴レポート GUI の使用
99
レポートを生成するには、必要な仕様を入力して、[Submit] をクリックします。 統計のホーム
ページのレポートのリストに、完成したレポートが表示されます。
レポートの生成時には、次の点に注意する必要があります。
•
レポートは、収集済みの統計情報からのみ生成できます。 たとえば、ツールを午前 9:40
に開始し、午前 9:00~ 午前 9:30 の間のレポートを要求しても、レポートは生成できませ
ん。その間のデータは収集されていないからです。
•
レポートは時間単位で生成されます。 レポートが生成され表示可能になるまでには、最大
1 時間かかる場合があります。
注記: システムがレポートを生成中であるのに同時に新しいレポートをリクエストすると、
GUI にエラーが表示されます。 しばらく待ったあとで、もう一度レポートをリクエストしてく
ださい。
レポートの削除
レポートを削除するには、各ノードにログインして、/local/statstool/histstats/
reports/ディレクトリからレポートを削除します。
Statistics ツールの維持
スペース要件
Statistics ツールでは、2 ノードクラスターの場合、毎時約 4MB が必要になります。 スペース
を管理するには、次の手順を実行します。
•
/usr/local/statstool/histstats ディレクトリ内にデータ収集に十分なスペース
(4GB~8GB) を維持します。
•
/local/statstool/histstats/reports/ディレクトリ内のスペースを監視します。
デフォルト値については、「Statistics ツール構成の変更」 (101 ページ) を参照してくださ
い。
100 Statistics ツールの使用
Statistics ツール構成の更新
Statistics ツールを最初に構成するときに、構成情報には、クラスター上で構成されるすべての
ファイルシステムに関する情報が含まれます。 クラスターに新しいノードまたは新しいファイ
ルシステムを追加したり、その他の追加を行ったりした場合、Statistics ツールの構成を更新す
る必要があります。 次の手順を実行します。
1. クラスターに新しいファイルサービングノードを追加する場合は、ノードの同期化を有効
にします。 詳細については、「収集と同期の有効化」 (97 ページ) を参照してください。
2. Statistics ツールにファイルシステムを追加します。 アクティブな Fusion Manager をホス
トしているノードで、次のコマンドを実行します。
/usr/local/ibrix/stats/bin/stmanage loadfm
クラスター内のほかのノードでは、新しい構成が自動的に更新されます。 収集プロセスを
再起動する必要はありません。収集は自動的に続行されます。
Statistics ツール構成の変更
構成を変更できるのは、管理ノード上のみです。 構成を変更するには、現在アクティブなノー
ド上の /etc/ibrix/stats.conf ファイルに、構成パラメーターとその値を追加します。
/etc/ibrix/statstool.conf ファイルと /etc/ibrix/statstool.local.conf ファ
イルを直接変更することはできません。
次のパラメーターを設定して、保管されるレポートの数を指定することができます。
パラメーター
保管されるレポートタイプ
デフォルトの保管期間
age.report.hourly
時間別レポート
1日
age.report.daily
日次レポート
7日
age.report.weekly
週次レポート
14 日
age.report.other
ユーザー生成レポート
7日
たとえば、日次レポートの場合、デフォルトの 7 日間で 7 つのレポートが保存されます。 日
次レポートを 3 日分だけ保存する場合は、age.report.daily パラメーターを 3 日に設定し
ます。
age.report.daily=3d
注記: 構成の変更後にプロセスを再起動する必要はありません。 更新された構成は自動的に
収集されます。
Fusion Manager のフェイルオーバーと Statistics ツールの構成
高可用性環境では、Fusion Manager がフェイルオーバーされると、Statistics ツールも自動的に
フェイルオーバーされます。 フェイルオーバーを実行するために何か手順を実行する必要はあ
りません。 Fusion Manager の構成の変更に合わせて、統計の構成も自動的に変更されます。
フェイルオーバーが正常に行われたら、次の操作が発生します。
•
フェイルオーバーの前に Statstool プロセスが実行されていた場合は、そのプロセスが再開
されます。 プロセスが実行されていなかった場合は、再開されません。
•
Statstool のパッシブな管理コンソールが、IBRIX Fusion Manager に maintenance モードで
インストールされます。
•
現在アクティブな Fusion Manager から、すべてのクラスターノード上で Setrsync が自
動的に実行されます。
•
Loadfm が自動的に実行され、クラスター内のすべてのファイルシステムデータが、アク
ティブな Fusion Manager に提示されます。
Statistics ツールの維持
101
•
Fusion Manager のフェイルオーバーの前に生成された格納済みのクラスターレベルのデー
タベースが、現在アクティブな Fusion Manager に移動するため、以前に生成されたレポー
トが時間別、日次、週次というカテゴリで使用できない場合に、特定の範囲のレポートを
リクエストできるようになります。 「レポートの生成」 (99 ページ) を参照してくださ
い。
注記: 古いアクティブな Fusion Manager が 3 日以上使用できない (ping に応答しない)
場合、履歴の統計情報データベースは現在アクティブな Fusion Manager に転送されませ
ん。
•
フェイルオーバーの前に構成可能パラメーターを設定していた場合、そのパラメーターは
フェイルオーバー後も保管されます。
エラーが表示された場合は、/usr/local/ibrix/log/statstool/stats.log を確認して
ください。
注記: フェイルオーバーの前に生成されたレポートは、現在アクティブな Fusion Manager で
は使用できません。
Statistics ツールプロセスのステータスの確認
Statistics ツールプロセスのステータスを確認するには、次のコマンドを実行します。
#/etc/init.d/ibrix_statsmanager status
ibrix_statsmanager (pid 25322) is running...
この出力で、pid は、「マスター」プロセスのプロセス ID を示しています。
Statistics ツールプロセスの制御
アクティブな Fusion Manager に接続されたすべてのファイルサービングノード上の Statistics
ツールプロセスは、アクティブな Fusion Manager からリモート制御できます。
ibrix_statscontrol ツールを使用して、接続されたすべてのファイルサービングノードの
プロセスや、指定したホスト名のみのプロセスを、開始または停止することができます。
•
Fusion Manager を含むすべてのファイルサービングノードのプロセスを停止する場合:
# /usr/local/ibrix/stats/bin/ibrix_statscontrol stopall
•
Fusion Manager を含むすべてのファイルサービングノードのプロセスを開始する場合:
# /usr/local/ibrix/stats/bin/ibrix_statscontrol startall
•
特定のファイルサービングノードのプロセスを停止する場合:
# /usr/local/ibrix/stats/bin/ibrix_statscontrol stop <hostname1>
<hostname2> ..
•
特定のファイルサービングノードのプロセスを開始する場合:
# /usr/local/ibrix/stats/bin/ibrix_statscontrol start <hostname1>
<hostname2> ..
Statistics ツールのトラブルシューティング
アクセステスト
ssh 認証が有効で、パスワード入力なしでノードからデータを取得できることを確認するに
は、次のコマンドを実行します。
# /usr/local/ibrix/stats/bin/stmanage testpull
102 Statistics ツールの使用
その他の状況
•
データが収集されない。 Statistics Manager の共通ディレクトリ (デフォルトでは /usr/
local/statstool/histstats/) にデータが収集されない場合は、すべてのノードの
Statistics ツールプロセスを再起動します。 「Statistics ツールプロセスの制御」 (102 ペー
ジ) を参照してください。
•
インストールに関する問題。 /tmp/stats-install.log をチェックして問題を解決す
るか、HP サポートに /tmp/stats-install.log を送信してください。
•
ファイルサービングノードのレポートが表示されない。 Stats ツールの Web ページにレ
ポートが表示されない場合は、次のことを確認してみてください。
◦
特定のファイルサービングノードに対して収集が可能かどうか確認してみます。 収集
できない場合は、「収集と同期の有効化」 (97 ページ) を参照してください。
◦
時刻同期をチェックします。 収集を正しく行い、レポートを表示するには、クラス
ター内のすべてのサーバーが同じ日時とタイムゾーンに設定されている必要がありま
す。
ログファイル
Statistics ツールの詳細なログについては、/usr/local/ibrix/log/statstool/stats.log
を参照してください (この情報には、詳細な例外やトレースバックメッセージが含まれていま
す)。 ログは毎日真夜中に書き換えられ、統計ログが 7 日分だけ保管されます。
デフォルトの /var/log/messages ログファイルには、Statistics ツールに関するログも記録
されていますが、メッセージは短縮されています。
Statistics ツールのアンインストール
IBRIX ソフトウェアがアンインストールされたら、Statistics ツールもアンインストールされま
す。
Statistics ツールを手動でアンインストールするには、次のいずれかのコマンドを使用します。
•
Statistics ツールと依存関係の rpm を含め、Statistics ツールをアンインストールする場合:
# ibrixinit –tt -u
•
Statistics ツールと依存関係の rpm は残した状態で、Statistics ツールをアンインストールす
る場合:
# ibrixinit –tt -U
ログファイル 103
10 システムのメンテナンス
システムのシャットダウン
システムを完全にシャットダウンするには、初めに IBRIX ソフトウェアをシャットダウンし、
次にハードウェアの電源を切断します。
IBRIX ソフトウェアのシャットダウン
IBRIX ソフトウェアをシャットダウンするには、以下の手順に従ってください。 特に指定がな
い場合、コマンドはアクティブな Fusion Manager をホストしているノードから実行してくだ
さい。
1. アクティブなリモート複製タスク、データ階層化タスクまたは再バランスタスクがあれ
ば、それらをすべて停止します。 次のコマンドを実行してアクティブなタスクのリストを
表示し、それぞれのタスク ID をメモします。
# ibrix_task -l
次のコマンドを実行して、タスク ID を指定し、アクティブな各タスクを停止します。
# ibrix_task -k -n TASKID
2.
すべてのクラスターノード上の高可用性機能を無効にします。
ibrix_server -m -U
3.
すべての passive な Fusion Manager インスタンスのモードを nofmfailover モードに移行
します。
ibrix_fm -m nofmfialover -A
4.
すべてのノード上の SMB、NFS および NDMP サービスを停止します。 以下のコマンドを
実行します。
ibrix_server -s -t cifs -c stop
ibrix_server -s -t nfs -c stop
ibrix_server -s -t ndmp -c stop
nl
nl
SMB を使用している場合、すべてのファイルサービングノード上で likewise サービスが停
止していることを確認します。
ps –ef | grep likewise
kill -9 を使用して、実行中のすべての likewise サービスを停止します。
NFS を使用している場合は、次のコマンドを実行して、すべての NFS プロセスが停止し
ていることを確認します。
ps –ef | grep nfs
プロセスが実行中の場合、影響を受けるノードで以下のコマンドを使用します。
# pdsh –a service nfslock stop | dshbak
# pdsh –a service nfs stop | dshbak
nl
必要に応じてすべてのノード上で次のコマンドを実行し、マウントされているファイルシ
ステムで開いているすべてのファイルハンドルを特定します。
lsof </mountpoint>
kill -9 を使用して、ファイルシステム上で開いているファイルハンドルを持つすべて
のプロセスを停止します。
5.
クラスター上にマウントされているファイルシステムを表示します。
# ibrix_fs –l
104 システムのメンテナンス
6.
9000 クライアントから、すべてのファイルシステムをアンマウントします。
•
Linux 9000 クライアントでは、次のコマンドを実行して各ファイルシステムをアンマ
ウントします。
ibrix_lwumount -f <fs_name>
•
7.
Windows 9000 クライアントでは、ファイルシステムにアクセスしているすべてのア
プリケーションを停止し、次にクライアントの GUI を使用してファイルシステム (例:
I: DRIVE) をアンマウントします。 次に、[Services] に移動して fusion サービスを停止
します。
クラスターノード上のすべてのファイルシステムをマウント解除します。
ibrix_umount -f <fs_name>
GUI を通じてファイルシステムをマウント解除するには、[Filesystems] > [unmount] を選択
します。
8.
すべてのファイルシステムがマウント解除されていることを確認します。
ibrix_fs -l
特定のノード上のファイルシステムをマウント解除できなかった場合、この手順を続行し
ます。 ファイルシステムは、ノードのシャットダウン時に強制的にマウント解除されま
す。
9.
すべての IBRIX Server サービスをシャットダウンして、動作を確認します。
# pdsh –a /etc/init.d/ibrix_server stop | dshbak
# pdsh –a /etc/init.d/ibrix_server status | dshbak
nl
10. Fusion Manager がすべてのファイルサービングノードが停止していることをレポートする
まで待機します。
# ibrix_server –l
11. アクティブな Fusion Manager をホストしているノード以外のすべてのノードをシャット
ダウンします。
# pdsh -w HOSTNAME shutdown -t now "now"
例を次に示します。
# pdsh -w x850s3 shutdown -t now "now"
# pdsh -w x850s2 shutdown -t now "now"
nl
12. アクティブであるアジャイル Fusion Manager をホストしているノードをシャットダウン
します。
shutdown -t now “now”
13. ping を使用して、ノードが停止していることを確認します。 例を次に示します。
# ping x850s2
PING x850s2.l3domain.l3lab.com (12.12.80.102) 56(84) bytes of data.
x850s1.l3domain.l3lab.com (12.12.82.101) icmp_seq=2 Destination Host
Unreachable
nl
nl
ノードを正常にシャットダウンできない場合は、次のコマンドを使用して、iLO インター
フェイスを使用してノードの電源を切断します。
# ibrix_server -P off -h HOSTNAME
14. Fusion Manager サービスをシャットダウンしてステータスを確認します。
# /etc/init.d/ibrix_fusionmanager stop
# /etc/init.d/ibrix_fusionmanager status
システムのシャットダウン 105
15. アクティブな Fusion Manager をホストしているノードをシャットダウンします。
# shutdown -t now “now”
Broadcast message from root (pts/4) (Mon Mar 12 17:10:13 2012):
The system is going down to maintenance mode NOW!
nl
nl
コマンドが終了すると、サーバーの電源はオフ (スタンバイ) になります。
システムハードウェアの電源切断
IBRIX ソフトウェアをシャットダウンしてから、次の手順でシステムハードウェアの電源を切
断します。
1. 9100c コントローラーの電源を切ります。
2. 9200cx ディスクキャパシティブロックの電源を切ります。
3. ファイルサービングノードの電源を切ります。
これでクラスターのシャットダウンは完了です。
システムの起動
IBRIX 9720 システムを起動するには、初めにハードウェアコンポーネントに電源を投入し、次
に 9000 ソフトウェアを起動します。
システムハードウェアの電源投入
システムハードウェアに電源を投入するには、次の手順を実行します。
1. 9100cx ディスクキャパシティブロックの電源を入れます。
2. 9100c コントローラーの電源を入れます。
3. すべてのコントローラーが 7 セグメントディスプレイに “on” と表示するまで待ちます。
4. ファイルサービングノードの電源を入れます。
停電後の電源投入
停電が起きた場合、電気が復旧すると、すべてのハードウェアの電源が一度に入ります。 スト
レージが利用可能になる前にファイルサービングノードが起動し、ファイルシステムのマウン
トを妨げます。 これを直すために、すべてのコントローラーが 7 セグメントディスプレイに
“on” と表示するまで待ってから、ファイルサービングノードを再起動します。 これによりファ
イルシステムは自動的にマウントされます。
IBRIX ソフトウェアの起動
IBRIX ソフトウェアを起動するには、次の手順を実行します。
1. アクティブな Fusion Manager をホストしているノードの電源を投入します。
2. ファイルサービングノードの電源を投入します (* ルートセグメント = セグメント 1、可
能な場合オーナーの電源を最初に投入)。
3. GUI でノードを監視し、すべてのノードで次のコマンドの出力が UP であることがレポー
トされるまで待機します。
ibrix_server -l
4.
ファイルシステムをマウントしてその内容を確認します。 アクティブな Fusion Manager
をホストしているファイルサービングノードで、次のコマンドを実行します。
ibrix_mount -f fs_name -m <mountpoint>
Linux 9000 クライアントで、次のコマンドを実行します。
ibrix_lwmount -f fsname -m <mountpoint>
106 システムのメンテナンス
5.
ファイルサービングノード上で高可用性機能を有効化します。 アクティブな Fusion Manager
をホストしているファイルサービングノードで、次のコマンドを実行します。
ibrix_server -m
6.
パッシブ状態のアジャイル Fusion Manager をホストしているノード上で、コンソールの
モードを passive に戻します。
ibrix_fm -m passive
これで、IBRIX ソフトウェアを使用できるようになり、ファイルシステムにアクセスできます。
ファイルサービングノードの電源オン/オフ
適切に構成された電源にファイルサービングノードが接続されている場合は、ノードの電源の
オン/オフまたはリセットをリモートで実行できます。 サービスの中断を防止するには、ノー
ドのスタンバイを設定しておき (「クラスターの高可用性の構成」 (42 ページ) を参照)、電源
を切断する前にノードを手動でフェイルオーバーします (「サーバーの手動フェイルオーバー」
(51 ページ) を参照)。 ファイルサービングノードの電源をリモートで切断しても、フェイル
オーバーはトリガーされません。
ファイルサービングノードの電源を投入するか、切断するか、またはノードをリセットするに
は、次のコマンドを使用します。
ibrix_server -P {on|reset|off} -h HOSTNAME
ローリングリブートの実行
ローリングリブート手順は、クラスターのオンライン状態を保管したまま、クラスター内にお
けるすべてのファイルサービングノードの再起動を可能にします。 手順を開始する前に、各
ファイルサービングノードにバックアップノードが存在していること、および IBRIX 高可用性
が有効であることを確認してください。 スタンバイバックアップペアの作成の詳細について
は、「クライアントアクセス用の仮想インターフェイスの構成」 (36 ページ) および「クラス
ターの高可用性の構成」 (42 ページ) を参照してください。ペアとなる各サーバーは、もう一
方のサーバーのスタンバイとなります。
次のいずれかのスキームを使用して再起動を行います。
•
ファイルサービングノードを 1 つずつ再起動する。
•
ファイルサービングノードを 2 つのグループに分割する。その際、1 番目のグループの
バックアップが 2 番目のグループに存在し、2 番目のグループのバックアップが 1 番目
のグループに存在するようにする。 これで、1 つのグループを同時に再起動できます。
ローリングリブートを実行するには、各ファイルサービングノードについて以下の手順に従い
ます。
1. Linux から直接ノードを再起動します (GUI の電源オフ機能は、ファイルサービングサービ
スのフェイルオーバーをトリガーしないため使用しません)。 ノードはそのバックアップ
にフェイルオーバーします。
2. 再起動したノードが稼働状態になったことが GUI でレポートされるまで待機します。
3. GUI を通じてノードをフェイルバックし、サービスをバックアップからこのノードに戻し
ます。 バックアップノードで次のコマンドを実行します。
ibrix_server -f -U -h HOSTNAME
HOSTNAME は、再起動を行ったノードの名前です。
プロセスの開始と停止
プロセスを、開始、停止、および再開することが可能です。また、IBRIX ソフトウェア内部の
機能を実行するプロセスのステータスを表示できます。 さらに、マシン上での PostgreSQL の
動作は、次のコマンドで制御できます。 PostgreSQL サービスは、/usr/local/ibrix/init/
に用意されています。
ファイルサービングノードの電源オン/オフ 107
Fusion Manager 上のプロセスを開始/停止するか、またはプロセスのステータスを表示するに
は、次のコマンドを使用します。
/etc/init.d/ibrix_fusionmanager [start | stop | restart | status]
ファイルサービングノード上のプロセスを開始/停止するか、またはプロセスのステータスを
表示するには、次のコマンドを使用します。 ファイルサービングノードを停止、開始、または
再開した後で、フォローアップアクションが必要になることがあります。
/etc/init.d/ibrix_server [start | stop | restart | status]
9000 クライアント上のプロセスを開始/停止するか、またはプロセスのステータスを表示する
には、次のコマンドを使用します。
/etc/init.d/ibrix_client [start | stop | restart | status]
ファイルサービングノードおよび 9000 クライアントのチューニング
通常、HP サポートがクラスターのインストール時にファイルサービングノードのチューニン
グパラメーターを設定します。これらを変更する必要があるのは、特別な状況だけです。
注意: ホストチューニングパラメーターのデフォルト値は、ほとんどのクラスター環境に適
したものになっています。 パラメーター値を変更すると、ファイルシステムのパフォーマンス
が変化することがあります。このため、パラメーター値を変更する前に十分に注意を払うか、
HP テクニカルサポートの指示の下でのみ変更を行うことをお勧めします。
ファイルサービングノード上では、ホストチューニングの変更が即時に実行されます。 9000
クライアントの場合、チューニングを変更するコマンドはいったん Fusion Manager に保存さ
れます。 クライアント上で IBRIX ソフトウェアサービスを開始するとき、クライアントは適用
する必要のあるホストチューニングを Fusion Manager に照会し、そのチューニングを適用し
ます。 IBRIX ソフトウェアサービスがクライアント上ですでに稼働している場合は、クライア
ント上で ibrix_client または ibrix_lwhost --a を実行するか、もしくはクライアント
を再起動すると、クライアントから Fusion Manager への照会を強制的に実行できます。
ibrix_lwhost コマンドを使用すると、9000 Linux クライアントに対して設定されているホ
ストチューニングをローカルにオーバーライドできます。
GUI でのファイルサービングノードのチューニング
Modify Server Wizard を使用すると、クラスター内の 1 つ以上のサーバーをチューニングでき
ます。 ウィザードを開くには、ナビゲーターから [Servers] を選択し、[Summary] パネルから
[Tuning Options] を選択します。
[General Tunings] ダイアログボックスでは、通信プロトコル (TCP または UDP) および管理ス
レッドとサーバースレッドの数を指定します。
108 システムのメンテナンス
[IAD Tunings] ダイアログボックスでは、IBRIX 管理デーモンを構成します。
[Module Tunings] ダイアログボックスでは、サーバーの処理に影響する高度なパラメーターを
調整します。
ファイルサービングノードおよび 9000 クライアントのチューニング 109
[Servers] ダイアログボックスで、チューニングを適用するサーバーを選択します。
CLI からのファイルサービングノードのチューニング
ホストチューニングに使用するすべての Fusion Manager コマンドには、1 つ以上のホストグ
ループを指定する-h HOSTLIST オプションがあります。 ホストチューニングをホストグルー
プに対して設定すると、複数のクライアントを一度にチューニングできるので便利です。 すべ
110
システムのメンテナンス
てのクライアントに対して同じホストチューニングを設定するには、デフォルトの clients
ホストグループを指定します。
注意: ホストチューニング設定を変更すると、ファイルシステムのパフォーマンスが変化し
ます。 ホストチューニング設定を変更する前に、HP サポートにお問い合わせください。
ホストチューニング設定を表示または変更するには、ibrix_host_tune コマンドを使用しま
す。
•
使用が許可されているすべてのホストチューニングについてデフォルト値と有効範囲のリ
ストを表示するには、次のように入力します。
ibrix_host_tune -L
•
ノードまたはホストグループに対してホストパラメーターをチューニングするには、次の
ように入力します。
ibrix_host_tune -S {-h HOSTLIST|-g GROUPLIST} -o OPTIONLIST
OPTIONLIST の値を取得するには、HP サポートにお問い合わせください。 オプション
は、オプション = 値ペアのカンマ区切りリストとして指定します。 すべてのクライアン
トに対してホストチューニングを設定するには、-g clients オプションを含めます。
•
ノードまたはホストグループに対してホストパラメーターをデフォルト値にリセットする
には、次のように入力します。
ibrix_host_tune -U {-h HOSTLIST|-g GROUPLIST} [-n OPTIONS]
すべてのファイルサービングノード、9000 クライアント、およびホストグループに対し
てすべてのオプションをリセットするには、-h HOSTLIST オプションおよび -n OPTIONS
オプションを省略します。 すべてのクライアントに対してホストチューニングをリセット
するには、-g clients オプションを含めます。
デフォルトにリセットされる値は、-h HOSTLIST 引数の指定内容によって異なります。
•
◦
ファイルサービングノード: ファイルサービングノードのデフォルトホストチューニ
ングが復元されます。
◦
9000 クライアント: デフォルトの clients ホストグループに適用されているホスト
チューニングが復元されます。
◦
ホストグループ: 指定したホストグループの親に適用されているホストチューニング
が復元されます。
ファイルサービングノードおよび 9000 クライアントのホストチューニング設定のリスト
を表示するには、次のコマンドを使用します。 すべてのホストのチューニングを表示する
には、-h 引数を省略します。 すべてチューニングを表示するには、-n 引数を省略しま
す。
ibrix_host_tune -l [-h HOSTLIST] [-n OPTIONS]
•
ノードおよびホストグループに対して通信プロトコルを設定するには、次のコマンドを使
用します。 すべての 9000 クライアントに対してプロトコルを設定するには、-g clients
オプションを使用します。
•
ibrix_host_tune -p {UDP|TCP} {-h HOSTLIST| -g GROUPLIST}
•
ファイルサービングノード、ホストグループ、および 9000 クライアントに対してサー
バースレッドを設定するには、次のように入力します。
ibrix_host_tune -t THREADCOUNT {-h HOSTLIST| -g GROUPLIST}
•
ファイルサービングノード、ホストグループ、および 9000 クライアントに対して管理ス
レッドを設定するには、次のように入力します。 すべての 9000 クライアントに対して
管理スレッドを設定するには、-g clients オプションを含めます。
ファイルサービングノードおよび 9000 クライアントのチューニング
111
ibrix_host_tune -a THREADCOUNT {-h HOSTLIST| -g GROUPLIST}
9000 クライアントのローカルチューニング
Linux クライアント: ホストパラメーターをチューニングするには、ibrix_lwhost コマンド
を使用します。 たとえば、通信プロトコルを設定するには、次のように入力します。
ibrix_lwhost --protocol -p {tcp|udp}
デフォルト値から変更されたホストチューニングパラメーターのリストを表示するには、次の
ように入力します。
ibrix_lwhost --list
上記以外にも使用可能なオプションがあります。詳細については、『HP IBRIX 9000 Storage
CLI リファレンスガイド』 に記載されている 「ibrix_lwhost」コマンドの項を参照してく
ださい。
Windows クライアント: Windows 9000 クライアント GUI 上で [Tune Host] タブをクリックし
ます。 優先する NIC (デフォルトではクラスターインターフェイス)、通信プロトコル (UDP ま
たは TCP)、使用するサーバースレッドの数などのパラメーターをチューニングできます。 必
要に応じてクライアントのオンラインヘルプを参照してください。
セグメントの管理
ファイルシステムが作成されると、そのファイルシステムにアクセスするサーバーに、ファイ
ルシステムに使用するストレージセグメントのオーナーシップが割り当てられます。 各サー
バーが、自分がオーナーシップを持つセグメントの管理を担当します。
クラスターが拡張されると、9000 ソフトウェアは次のような方法で、適切なロードバランス
と使用率を維持しようとします。
•
サーバーが追加されると、既存のセグメントのオーナーシップは、利用可能なサーバー間
で再配分されます。
•
ストレージが追加されると、新しいセグメントのオーナーシップは、利用可能なサーバー
間で配分されます。
セグメントを手動で管理する必要がある場合、下記の操作が使用できます。
•
セグメントの移行。 この操作では、セグメントのオーナーシップを他のサーバーに移行し
ます。 たとえば、あるサーバーが過負荷になったり利用できなくなったりした場合に、そ
のセグメントを、同じストレージを認識できる別のサーバーに移動できます。
•
セグメントを再バランス。 この操作では、ファイルがセグメント間に再配分されます。特
定のセグメントが満杯になってファイルシステムのパフォーマンスに影響する場合は、こ
の操作を使用できます。 詳細については、「ファイルシステムのメンテナンス」を参照し
てください。
•
セグメントの退避。 この操作は、セグメント内のデータを別のセグメントに移動します。
一般的には、ストレージをクラスターから削除する前に、この操作を使用します。
セグメントの移行
セグメントの移行で移動されるのはセグメントのオーナーシップだけであり、ストレージシス
テム内の物理位置からセグメントが移動されるわけではありません。 セグメントのオーナー
シップは物理セグメント自体に記録されています。オーナーシップデータは、Fusion Manager
からファイルサービングノードおよび 9000 クライアントに渡されるメタデータに含まれてい
ます。これにより、ノードおよびクライアントがセグメントを見つけることができます。
GUI でセグメントを移行するには、[Filesystems] パネルでファイルシステムを選択し、下部の
ナビゲーターから [Segments] を選択してから、[Segments] パネルの [Ownership/Migration] を
クリックして、Segment Ownership Migration Wizard を開きます。
112
システムのメンテナンス
[Change Ownership] ダイアログボックスに、クラスター内のサーバーのステータスが報告さ
れ、各サーバーが所有しているセグメントのリストが表示されます。 ダイアログボックスの
[Segment Properties] セクションで、オーナーシップを移動するセグメントを選択し、[Change
Owner] をクリックします。
セグメントの管理
113
セグメントの新しいオーナーは、元のオーナーと同じストレージを認識できなければなりませ
ん。 [Change Segment Owner] ダイアログボックスに、選択したセグメントを認識できるサー
バーのリストが表示されます。 新しいオーナーにするサーバーを、このリストから選択しま
す。
[Summary] ダイアログボックスには、指定したセグメントの移行が表示されます。 [Back] をク
リックして必要な変更を加えるか、[Finish] をクリックして操作を完了します。
CLI からセグメントのオーナーシップを移行するには、次のコマンドを使用します。
特定のセグメントのオーナーシップを移行する
ibrix_fs -m -f FSNAME -s LVLIST -h HOSTNAME [-M] [-F] [-N]
移行を強制的に実行するには、-M を含めます。 ソースホストを更新せずに移行するには、-F
を含めます。 サーバーのヘルスチェックを省略するには、-N を含めます。
次のコマンドは、ファイルシステム ifs1 内のセグメント ilv2 および ilv3 のオーナーシッ
プを server2 に移行します。
ibrix_fs -m -f ifs1 -s ilv2,ilv3 -h server2
特定のサーバーが所有するすべてのセグメントのオーナーシップを移行する
ibrix_fs -m -f FSNAME -H HOSTNAME1,HOSTNAME2 [-M] [-F] [-N]
たとえば、ファイルシステム ifs1 内のすべてのセグメントのオーナーシップを、server1
から server2 へと移行します。
ibrix_fs -m -f ifs1 -H server1,server2
セグメントの退避とクラスターからのストレージの削除
IBRIX ソフトウェアファイルシステムで使用されているストレージを削除する前に、ファイル
システムデータを格納しているセグメント (または論理ボリューム) を退避させる必要がありま
す。 この手順は、データをファイルシステム内の別のセグメントに移動しますが、ファイルシ
ステムにアクセスするユーザーまたはアプリケーションには透過的に行われます。 セグメント
を退避させる際には、次の制限事項を認識しておく必要があります。
114
•
退避タスクの実行中は、他のタスクをファイルシステム上で実行できません。 同様に、別
のタスクがファイルシステム上で実行中の場合は、先に実行しているタスクが完了するま
で退避タスクをスケジュールできません。
•
ファイルシステムは静止状態 (セグメントの退避中にアクティブな I/O が存在しない) で
ある必要があります。 ファイルシステムがアクティブである場合にこのユーティリティを
実行すると、データの整合性が失われるか、データが失われる可能性があります。
システムのメンテナンス
セグメントを退避させるには、次の手順を実行します。
1. 物理ボリューム上に存在する削除対象セグメントを特定します。 GUI ナビゲーターで
[Storage] を選択します。 影響を受ける物理ボリュームのファイルシステムおよびセグメ
ント番号をメモします。
2. 影響を受けるセグメントから退避したデータを収容可能な、ファイルシステム上の別のセ
グメントを特定します。 GUI でファイルシステムを選択して、下側のナビゲーターから
[Segments] を選択します。 十分なスペースを持つセグメントが存在しない場合は、ファイ
ルシステムにセグメントを追加します。
3.
セグメントを退避させます。 GUI でファイルシステムを選択し、下部のナビゲーターから
[Segments] を選択してから、[Segments] パネルの [Rebalance/Evacuate] をクリックしま
す。 Segment Rebalance and Evacuation Wizard が開いたら、[Evacuate] をモードとして
選択します。
[Evacuate Advanced] ダイアログボックスで退避するセグメントを指定し、[Source] をク
リックします。 次に、そのセグメントからのデータを受け取るセグメントを指定し、
[Destination] をクリックします。 ファイルシステムが階層化されている場合は、ソースセ
グメントと同じ階層のターゲットセグメントを選択してください。
セグメントの管理
115
[Summary] ダイアログボックスに、退避するソースセグメントとターゲットセグメントの
リストが表示されます。 [Back] をクリックして必要な変更を加えるか、[Finish] をクリッ
クして退避を開始します。
[Active Tasks] パネルに、退避タスクのステータスが表示されます。 タスクが完了すると、
[Inactive Tasks] パネルに追加されます。
4.
退避が完了したら、次のコマンドを実行して、ファイルシステムのセグメントの使用を中
止します。
ibrix_fs -B -f FSNAME -n BADSEGNUMLIST
ストレージに関連付けられているセグメント番号は再利用されません。 基盤となる LUN
またはボリュームは別のファイルシステムで再利用されるか、この手順の完了時にスト
レージソリューションから物理的に削除されます。
5.
ファイルシステム上でクォータが無効化されている場合は、ファイルシステムをマウント
解除してから次のコマンドを使用してクォータを再有効化します。
ibrix_fs -q -E -f FSNAME
次に、ファイルシステムを再マウントします。
CLI を使用してセグメントを退避させるには、ibrix_evacuate コマンドを使用します。この
コマンドの説明は、『HP IBRIX 9000 Storage CLI リファレンスガイド』 に記載されています。
セグメント退避のトラブルシューティング
116
•
セグメントの退避に失敗した場合、失敗したセグメント上で ibrix_fsck コマンドの
フェーズ 1 を corrective モードで実行することをお勧めします。 詳細については、『HP
IBRIX 9000 Storage File System ユーザーガイド』 の「ファイルシステムのチェックと修
復」を参照してください。
•
セグメントに、3.64TB より大きいチャンクファイルが含まれている場合、セグメントの
退避プロセスに失敗します。これらのチャンクファイルは手動で移動する必要がありま
す。 退避プロセスでは、ログが生成され、セグメント上の移動されなかったチャンクファ
イルをレポートします。 このログファイルは、管理コンソールログのディレクトリに保存
システムのメンテナンス
され (デフォルトは /usr/local/ibrix/log)、Rebalance_<jobID>-<FS-ID>.info
という名前が付けられます (例: Rebalance_29-ibfs1.info)。
inum2name コマンドを実行して、チャンクファイルのシンボリック名を特定します。
# ./inum2name --fsname=ibfs 500000017
ibfs:/sliced_dir/file3.bin
ファイルの名前を取得したら、cp などのコマンドを使用してファイルを手動で移動しま
す。 次に、セグメントの退避プロセスを再実行します。
アナライザーログに、セグメントに残されているチャンクのリストが表示されます。 この
ログの例を次に示します。
2012-03-13 11:57:35:0332834 | <INFO> | 1090169152 | segment 3 not migrated
chunks 462
2012-03-13 11:57:35:0332855 | <INFO> | 1090169152 | segment 3 not migrated
replicas 0
2012-03-13 11:57:35:0332864 | <INFO> | 1090169152 | segment 3 not migrated
files 0
2012-03-13 11:57:35:0332870 | <INFO> | 1090169152 | segment 3 not migrated
directories 0
2012-03-13 11:57:35:0332875 | <INFO> | 1090169152 | segment 3 not migrated root
0
2012-03-13 11:57:35:0332880 | <INFO> | 1090169152 | segment 3 orphan inodes 0
2012-03-13 11:57:35:0332886 | <INFO> | 1090169152 | segment 3 chunk: inode
3099CC002.8E2124C4, poid 3099CC002.8E2124C4, primary 807F5C010.36B5072B poid
807F5C010.36B5072B
2012-03-13 11:57:35:0332894 | <INFO> | 1090169152 | segment 3 chunk: inode
3099AC007.8E2125A1, poid 3099AC007.8E2125A1, primary 60A1D8024.42966361 poid
60A1D8024.42966361
2012-03-13 11:57:35:0332901 | <INFO> | 1090169152 | segment 3 chunk: inode
3015A4031.C34A99FA, poid 3015A4031.C34A99FA, primary 40830415E.7793564B poid
40830415E.7793564B
2012-03-13 11:57:35:0332908 | <INFO> | 1090169152 | segment 3 chunk: inode
3015A401B.C34A97F8, poid 3015A401B.C34A97F8, primary 4083040D9.77935458 poid
4083040D9.77935458
2012-03-13 11:57:35:0332915 | <INFO> | 1090169152 | segment 3 chunk: inode
3015A4021.C34A994C, poid 3015A4021.C34A994C, primary 4083040FF.7793558E poid
4083040FF.7793558E
inum2name ユーティリティを使用して、プライマリ inode ID をファイル名に変換しま
す。
クラスターからノードを削除する
クラスターからノードを削除するには、以下の手順に従ってください。
1. 削除するノードがパッシブな Fusion Manager をホストしている場合、手順 2 に進みま
す。ノードがアクティブな Fusion Manager をホストしている場合、Fusion Manager を
nofmfailover モードに移行します。
ibrix_fm -m nofmfailover
2.
アクティブな Fusion Manager をホストしているノードで、削除するノードの登録を解除
します。
ibrix_fm -u server_name
3.
ノードから IBRIX ソフトウェアをアンインストールします。
./ibrixinit -u
このコマンドは、ファイルサービングノードと Fusion Manager ソフトウェアの両方を削
除します。
これでノードがクラスターから完全に削除されます。
クラスターからノードを削除する
117
ネットワークのメンテナンス
クラスターインターフェイスとユーザーネットワークインターフェイス
IBRIX ソフトウェアは、次の論理ネットワークインターフェイスをサポートしています。
•
クラスターネットワークインターフェイス: Fusion Manager トラフィック、サービング
ノード間のトラフィック、およびサービングノードとクライアント間のトラフィックを転
送します。 1 つのクラスターで使用できるクラスターインターフェイスは 1 つだけです。
バックアップ用として、各ファイルサービングノードに 2 つのクラスター NIC を持たせ
ることができます。
•
ユーザーネットワークインターフェイス: ファイルサービングノードとクライアント間の
トラフィックを伝送します。 複数のユーザーネットワークインターフェイスを使用できま
す。
クラスターネットワークインターフェイスは、クラスターがインストールされると作成されま
す (クラスターネットワークインターフェイスには仮想インターフェイスが使用されます)。 サ
イトの要件に応じて、1 つ以上のユーザーネットワークインターフェイスが作成されている場
合があります。 必要に応じてユーザーネットワークインターフェイスを追加することもできま
す。
ユーザーネットワークインターフェイスの追加
クラスターネットワークはファイルサービングノードと NFS/SMB/HTTP/FTP クライアントま
たは 9000 クライアントのいずれかの間でトラフィックを転送できますが、このトラフィック
を転送するためにユーザーネットワークインターフェイスを作成する必要が生じる場合があり
ます。 クラスターが NFS/SMB/FTP/HTTP クライアントと 9000 クライアントの混在に対応す
る必要がある場合、またはクライアントトラフィックを異なるネットワークに分離する必要が
ある場合は、1 つ以上のユーザーネットワークが必要となります。 一般的には、ユーザーネッ
トワークをプロトコル (NFS/SMB/HTTP/FTP) トラフィックに割り当てることが推奨されます。
クラスターネットワークは、NFS/CIFS フェイルオーバーに必要な仮想インターフェイス (VIF)
をホストできないためです。 ユーザーネットワークには Gigabit Ethernet (またはより高速な)
ポートを使用することをお勧めします。
サービングノードにユーザーネットワークインターフェイスを作成する場合は、ファイルシス
テムの提供またはフェイルオーバーのために通信する必要のあるファイルサービングノード
は、同じネットワーク上に存在している必要がある点に留意してください。 また、フェイル
オーバーのペアとして設定されているノードは、同じネットワークインターフェイスに接続さ
れている必要があります。
高可用性クラスターを実現するために、プロトコルトラフィックにはユーザーネットワークを
使用し、そのネットワークに自動フェイルオーバーを設定することをお勧めします (「クラス
ターの高可用性の構成」 (42 ページ) を参照)。 この方法により、トラフィックの中断を防ぐこ
とができます。 NFS トラフィック用にクラスターインターフェイスを使用している場合、ファ
イルサービングノード上でこのインターフェイスに障害が発生すると、マウントされたファイ
ルシステムにこのインターフェイスを使用してアクセスするすべてのプロトコルクライアント
は、このファイルシステムへの接続が失われます。これらのプロトコルクライアントにはクラ
スターに関する情報がなく、要求をスタンバイノードに再ルーティングできないからです。
リンクアグリゲーションと仮想インターフェイス
ユーザーネットワークインターフェイスを作成する場合、リンクアグリゲーションを使用して
複数の物理的なリソースを単一の VIF に集結できます。 VIF では、サイズのより大きい物理リ
ソースの中に多数の名前付きパスを定義できます。次の図に示すように、これらのパスのそれ
ぞれについて個別に管理とルーティングを実施できます。 リンクアグリゲーションで求められ
るルールおよび制限については、ネットワークインターフェイスベンダーのマニュアルを参照
してください。
118
システムのメンテナンス
ファイルサービングノードのユーザーネットワークインターフェイスの指定
特定のファイルサービングノードのユーザーネットワークインターフェイスを登録するには、
ibrix_nic コマンドを使用します。 インターフェイス名 (IFNAME) には、eth1 のように英
数字とアンダースコアのみを使用できます。
ibrix_nic -a -n IFNAME -h HOSTLIST
VIF を登録する場合は、物理インターフェイス名の末尾に VIF サフィックス (:nnnn) を追加し
ます。 たとえば、次のコマンドでは、ファイルサービングノード s1.hp.com および
s2.hp.com 上の物理ネットワークインターフェイス eth1 に対応する仮想インターフェイス
eth1:1 を登録します。
ibrix_nic -a -n eth1:1 -h s1.hp.com,s2.hp.com
ファイルサービングノード用のユーザーネットワークインターフェイスを登録すると、Fusion
Manager がノードの IP アドレス、ネットマスク、および MAC アドレスを照会し、それらの
値を構成情報データベースにインポートします。 これらの値は、後から必要に応じて変更でき
ます。
VIF を登録する場合は、Fusion Manager はノードに対して自動的に照会を行いません。 VIF を
自動フェイルオーバー構成のスタンバイネットワークインターフェイスとしてのみ使用する場
合は、ネットワークがその VIF に最初にフェイルオーバーされたときに Fusion Manager がノー
ドへの照会を行います。 スタンバイ以外の目的で使用する場合は、VIF の IP アドレスとネット
マスクを構成情報データベースに手動で入力する必要があります (「構成データベースにネッ
トワークインターフェイスオプションを設定する」 (119 ページ) を参照)。 Fusion Manager は
VIF の MAC アドレスを必要としません。
ユーザーネットワークインターフェイスを 9000 クライアントトラフィック用に作成した場合
は、さらに、ネットワークを使用する 9000 クライアントでそのネットワークを優先する必要
があります (「ネットワークインターフェイスの優先設定」 (120 ページ) を参照)。
構成データベースにネットワークインターフェイスオプションを設定する
VIF を使用可能にするには、次のコマンドを実行して VIF の IP アドレスとネットマスクを指定
します。 このコマンドを使用して、ネットワークの特定の ifconfig オプションを変更する
こともできます。
ibrix_nic -c -n IFNAME -h HOSTNAME [-I IPADDR] [-M NETMASK]
[-B BCASTADDR] [-T MTU]
たとえば、ファイルサービングノード s4.hp.com のインターフェイス eth3 に対してネット
マスク 255.255.0.0 およびブロードキャストアドレス 10.0.0.4 を設定するには、次のように
入力します。
ibrix_nic -c -n eth3 -h s4.hp.com -M 255.255.0.0 -B 10.0.0.4
ネットワークのメンテナンス
119
ネットワークインターフェイスの優先設定
ファイルサービングノードまたは 9000 クライアントのユーザーネットワークインターフェイ
スを作成したら、これらのノードおよびクライアントのインターフェイスの優先設定を行う必
要があります (NFS クライアントおよび SMB クライアントでは、マウント時に正しいユーザー
ネットワークインターフェイスを選択できるようになっているため、ユーザーネットワークイ
ンターフェイスの優先設定が不要です)。
ファイルサービングノード上では、ネットワークインターフェイスの優先設定がただちに実行
されます。 9000 クライアントの場合、インターフェイスを優先設定するコマンドはいったん
Fusion Manager に保存されます。 IBRIX ソフトウェアサービスがクライアント上で開始される
と、クライアントは優先設定されているネットワークインターフェイスを Fusion Manager に
照会して、そのインターフェイスを使用します。 サービスが 9000 クライアント上ですでに
稼働しているときにネットワークを優先設定した場合は、クライアント上で ibrix_lwhost
--a を実行するか、またはクライアントを再起動すると、クライアントから Fusion Manager
への照会を強制的に実行できます。
ファイルサービングノードまたは Linux 9000 クライアントで優先するネットワークイ
ンターフェイスの設定
下の 1 番目のコマンドでは、ファイルサービングノードで優先するネットワークインターフェ
イスを設定します。2 番目のコマンドでは、クライアントで優先するネットワークインター
フェイスを設定します。
ibrix_server -n -h SRCHOST -A DESTHOST/IFNAME
ibrix_client -n -h SRCHOST -A DESTHOST/IFNAME
指定したネットワークインターフェイス (IFNAME) 経由でファイルサービングノードまたは
9000 クライアントが接続する先のターゲットホストのそれぞれについて、このコマンドを 1
回ずつ実行します。 たとえば、ファイルサービングノード s1.hp.com からファイルサービン
グノード s2.hp.com へのトラフィックでネットワークインターフェイス eth3 を優先する
には、次のように入力します。
ibrix_server -n -h s1.hp.com -A s2.hp.com/eth3
Windows 9000 クライアントで優先するネットワークインターフェイスの設定
クラスター上に複数のユーザーネットワークインターフェイスが設定されている場合、このク
ライアントの優先インターフェイスを選択する必要があります。 Windows 9000 クライアン
ト GUI の [Tune Host] タブで、次の例に示すようにインターフェイスを指定します。
120 システムのメンテナンス
ホストグループで優先するネットワークインターフェイスの設定
ホストグループを指定することで、複数の 9000 クライアントの優先インターフェイス設定を
同時に行えます。 あるユーザーネットワークインターフェイスをすべての 9000 クライアン
トで優先するには、clients ホストグループを使用します。 ホストグループで優先するネッ
トワークインターフェイスを設定した後、個々の 9000 クライアント上で ibrix_lwhost を
使用して、その優先設定をオーバーライドすることが可能です。
ホストグループで優先するネットワークインターフェイスを設定するには、次のコマンドを使
用します。
ibrix_hostgroup -n -g HOSTGROUP -A DESTHOST/IFNAME
ターゲットホスト (DESTHOST) としてホストグループを指定することはできません。 たとえ
ば、すべての 9000 クライアント (clients ホストグループ) からファイルサービングノード
s2.hp.com へのトラフィックでネットワークインターフェイス eth3 を優先するには、次の
ように入力します。
ibrix_hostgroup -n -g clients -A s2.hp.com/eth3
ネットワークインターフェイスの優先解除
ファイルサービングノードまたは 9000 クライアントをクラスターインターフェイスに戻すに
は、ネットワークインターフェイスの優先設定を解除します。 下の 1 番目のコマンドでは、
ファイルサービングノードに対してネットワークインターフェイスの優先設定を解除します。
2 番目のコマンドでは、クライアントに対してネットワークインターフェイスの優先設定を解
除します。
ibrix_server -n -h SRCHOST -D DESTHOST
ibrix_client -n -h SRCHOST -D DESTHOST
ホストグループに対してネットワークインターフェイスの優先設定を解除するには、次のコマ
ンドを使用します。
ibrix_client -n -g HOSTGROUP -A DESTHOST
ネットワークのメンテナンス
121
ネットワークの変更
この項では、IP アドレスの変更方法、クラスターインターフェイスの変更方法、ルーティング
テーブルエントリーの管理方法、およびネットワークインターフェイスの削除方法について説
明します。
Linux 9000 クライアントの IP アドレスの変更
Linux 9000 クライアントの IP アドレスを変更した場合は、Fusion Manager がクライアントと
通信できるようにするために、IBRIX ソフトウェアの設定を更新して新しい情報を反映させる
必要があります。 変更手順は次のとおりです。
1. ファイルシステムをクライアントからマウント解除します。
2. クライアントの IP アドレスを変更します。
3. クライアントを再起動するか、ネットワークインターフェイスカードをリセットします。
4. 次のコマンドを使用して、変更前の IP アドレスを構成情報データベースから削除します。
ibrix_client -d -h CLIENT
5.
次のコマンドを使用して、クライアントを Fusion Manager に再登録します。
register_client -p console_IPAddress -c clusterIF –n ClientName
6.
ファイルシステムをクライアントに再マウントします。
クラスターインターフェイスの変更
ネットワークの構成を変更した場合は、必要に応じてクラスターインターフェイスを変更しま
す。 新しいクラスターインターフェイスを選択するときは、以下のルールが適用されます。
•
Fusion Manager は、クラスターネットワークインターフェイスを使用するすべてのマシン
(スタンバイサーバーを含む) に接続されている必要があります。 各ファイルサービング
ノードおよび 9000 クライアントは、同じクラスターネットワークインターフェイスを通
じて、Fusion Manager に接続されている必要があります。 クラスターインターフェイス
には、Gigabit (またはより高速な) Ethernet ポートを使用する必要があります。
•
9000 クライアントは、クライアントのデータを管理するファイルサービングノードおよ
びそれらのサーバーのスタンバイにネットワーク接続されている必要があります。 このト
ラフィックでは、クラスターネットワークインターフェイスか、またはユーザーネット
ワークインターフェイスを使用できます。
新しい仮想クラスターインターフェイスを指定するには、次のコマンドを使用します。
ibrix_fm -c <VIF IP address> –d <VIF Device> -n <VIF Netmask>
-v cluster [–I <Local IP address_or_DNS hostname>]
ルーティングテーブルエントリーの管理
IBRIX Software では、システムルーティングテーブル内のネットワークインターフェイスのそ
れぞれにつき、ルーティングを 1 つサポートします。 あるインターフェイスに対して新しい
ルーティングを入力すると、そのインターフェイスに指定されている既存のルーティングテー
ブルエントリーが上書きされます。
ルーティングテーブルエントリーの追加
ルーティングテーブルエントリーを追加するには、次のコマンドを使用します。
ibrix_nic -r -n IFNAME -h HOSTNAME -A -R ROUTE
次のコマンドでは、ファイルサービングノード s2.hp.com 上の仮想インターフェイス
eth2:232 に対してルーティングを追加し、すべてのトラフィックをゲートウェイ gw.hp.com
経由で送信します。
122
システムのメンテナンス
ibrix_nic -r -n eth2:232 -h s2.hp.com -A -R gw.hp.com
ルーティングテーブルエントリーの削除
ルーティングテーブルエントリーを削除した場合に代わりに適用されるデフォルトのエント
リーはありません。 新しい代替のルーティングを手動で追加する必要があります。 ルーティ
ングを削除するには、次のコマンドを使用します。
ibrix_nic -r -n IFNAME -h HOSTNAME -D
次のコマンドでは、ファイルサービングノード s2.hp.com 上の仮想インターフェイス eth0:1
に関するルーティングテーブルエントリーをすべて削除します。
ibrix_nic -r -n eth0:1 -h s2.hp.com -D
ネットワークインターフェイスの削除
ファイルサービングノード上でクラスターインターフェイスとして使用しているインターフェ
イスを削除する場合は、事前に新しいインターフェイスをクラスターインターフェイスとして
割り当てておく必要があります。 「クラスターインターフェイスの変更」 (122 ページ) を参照
してください。
ネットワークインターフェイスを削除するには、次のコマンドを使用します。
ibrix_nic -d -n IFNAME -h HOSTLIST
次のコマンドでは、インターフェイス eth3 をファイルサービングノード s1.hp.com および
s2.hp.com から削除します。
ibrix_nic -d -n eth3 -h s1.hp.com,s2.hp.com
ネットワークインターフェイス情報の表示
ibrix_nic コマンドを引数なしで実行すると、すべてのファイルサービングノード上のすべ
てのインターフェイスのリストが表示されます。 特定のホスト上のインターフェイスだけを表
示するには、-h オプションを含めます。
ibrix_nic -l -h HOSTLIST
次の表は、出力フィールドについて説明しています。
フィールド
説明
BACKUP HOST
スタンバイネットワークインターフェイスに接続されているファイルサービングノー
ド。
BACKUP-IF
スタンバイネットワークインターフェイス。
HOST
ファイルサービングノード。
IFNAME
このファイルサービングノード上のネットワークインターフェイス。
IP_ADDRESS
この NIC の IP アドレス。
LINKMON
この NIC に対する監視が有効化されているかどうか。
MAC_ADDR
この NIC の MAC アドレス。
ROUTE
この NIC が使用するルーティングテーブル内の IP アドレス。
STATE
ネットワークインターフェイスの状態。
TYPE
ネットワークのタイプ (クラスターまたはユーザー)。
ibrix_nic を -i オプションとともに使用すると、インターフェイスに関する詳細情報が表
示されます。 対象を特定のホストに限定するには、-h オプションを使用します。 特定のイン
ターフェイスに関する情報だけを表示するには、-n オプションを使用します。
ibrix_nic -i [-h HOSTLIST] [-n NAME]
ネットワークのメンテナンス
123
11 アジャイル Fusion Manager 構成への移行
アジャイル Fusion Manager 構成では、1 つのアクティブな Fusion Manager と 1 つのパッシ
ブな Fusion Manager が、クラスター内の異なるファイルサービングノードにインストールさ
れています。 移行手順により、現在の管理サーバーブレードがアジャイル Fusion Manager の
ホストとして構成され、アジャイル Fusion Manager のもう一方のインスタンスがファイルサー
ビングノードにインストールされます。 アジャイル Fusion Manager 構成への移行完了後、オ
リジナルの管理サーバーブレードを次のように使用できます。
•
ブレードをアジャイル Fusion Manager のホストとしてのみ使用。
•
ブレードをファイルサービングノードに変換 (高可用性に対応するには、クラスターのファ
イルサービングノードは偶数である必要があります)。 ブレードはアジャイル Fusion
Manager のホストとして使用を続けられます。
移行を実行するためには、IBRIX インストールコードが必要です。 出荷時の設定では、このコー
ドは /tmp/X9720/ibrix に存在します。 このディレクトリが存在していない場合は、HP サ
ポート Web サイトでお使いのストレージに対応したインストールコードをダウンロードして
ください。
重要: この移行手順は、HP IBRIX ソフトウェア 5.4 以降を実行しているクラスターにのみ使
用できます。
設定のバックアップ
アジャイル Fusion Manager 構成への移行を開始する前に、次のコマンドを使用して管理コン
ソールの設定を手動でバックアップしてください。
ibrix_fm -B
バックアップアーカイブは、/usr/local/ibrix/tmp/fmbackup.zip に生成されます。
リカバリが必要な場合に備えて、このアーカイブを安全かつ離れた場所にコピーしてくださ
い。
移行の実行
現在 Fusion Manager をホストしているブレードについて、次の手順を実行します。
1. アジャイル Fusion Manager は、仮想インターフェイス (VIF) IP アドレスを使用してフェイ
ルオーバーを可能にし、ファイルサービングノードおよび IBRIX クライアントの中断を防
いでいます。 既存のクラスター NIC IP アドレスが、永続的な VIF IP アドレスとなります。
現在実行している管理コンソールのクラスター NIC IP アドレスとして使用する未使用の
IP アドレスを特定します。
2. サーバーの高可用性機能を無効化します。
ibrix_server –m -U
3.
可能な場合、ssh を使用して、ユーザーネットワーク上の管理コンソールに接続します。
•
/etc/sysconfig/network-scripts/ifcfg-bond0 ファイルを編集します。 IP
アドレスを、新規の未使用の IP アドレスに変更して、ONBOOT=Yes であることを確
認します。
•
bond1 ユーザーネットワークを介して IBRIX クライアントに接続するように優先設定
している場合、/etc/sysconfig/network-scripts/ifcfg-bond1 ファイルを
編集します。 IP アドレスを、別の未使用の予約済み IP アドレスに変更します。
次のいずれかのコマンドを実行します。
/etc/init.d/network restart
service network restart
124
アジャイル Fusion Manager 構成への移行
新しいローカル IP アドレスに Ping できることを確認します。
4.
アジャイル Fusion Manager を構成します。
ibrix_fm -c <cluster_VIF_addr> -d <cluster_VIF_device> –n <cluster_VIF_netmask> -v cluster -I
<local_cluster_IP_addr>
このコマンドの <cluster_VIF_addr> は、元の管理コンソールの古いクラスター IP ア
ドレス、 <local_cluster_IP_addr> は、確保した新しい IP アドレスです。
例を次に示します。
[root@x109s1 ~]# ibrix_fm -c 172.16.3.1 -d bond0:1 -n 255.255.248.0 -v cluster
-I 172.16.3.100
Command succeeded!
元のクラスター IP アドレスが、新しく作成されたクラスター VIF デバイス (bond0:1) に
設定されます。
5.
手順 3 でインターフェイス bond1:0 を作成した場合、手順 3 で使用したユーザー VIF IP
アドレスと VIF デバイスを指定して、ユーザーネットワーク VIF を設定します。
注記: この手順は、SMB/NFS クライアントには適用されません。 IBRIX クライアントを
使用していない場合は、この手順をスキップできます。
ユーザーネットワーク VIF を設定します。
ibrix_fm -c <user_VIF_IP> -d <user_VIF_device> -n <user_VIF_netmask> -v user
例を次に示します。
[root@x109s1 ~]# ibrix_fm -c 10.30.83.1 -d bond1:0 -n 255.255.0.0 -v user
Command succeeded
6.
アジャイル Fusion Manager (アジャイル FM) をクラスターに登録します。
ibrix_fm –R <FM hostname> -I <local_cluster_ipaddr>
注記: ローカルのアジャイル Fusion Manager 名が /etc/ibrix/fminstance.xml ファ
イル内に存在していることを確認してください。 次のコマンドを実行します。
grep –i current /etc/ibrix/fminstance.xml <property name="currentFmName" value="ib50-86"></property>
7.
アジャイル Fusion Manager から、定義が正しく設定されていることを確認します。
grep –i vif /etc/ibrix/fusion.xml
以下のような出力が得られます。
<property name="fusionManagerVifCheckInterval" value="60"></property>
<property name="vifDevice" value="bond0:0"></property>
<property name="vifNetMask" value="255.255.254.0"></property>
注記: 出力が空白の場合、手順 9 のように fusionmanager サービスを再起動して、再度
チェックを行います。
8.
fusionmanager サービスを再起動します。
/etc/init.d/ibrix_fusionmanager restart
注記: ifconfig 出力に gile_cluster_vif デバイスが表示され、アジャイル Fusion
Manager が最適な状態に戻るまで約 90 秒かかります。 このデバイスが出力に表示され
ていることを確認してください。
9.
アジャイル Fusion Manager がアクティブであることを確認します。
ibrix_fm –i
例を次に示します。
[root@x109s1 ~]# ibrix_fm -i
移行の実行
125
FusionServer: x109s1 (active, quorum is running)
================================================
Command succeeded!
10. このクラスター内に存在する Fusion Manager が 1 つのみであることを確認します。
ibrix_fm -f
例を次に示します。
[root@x109s1 ~]# ibrix_fm -f
NAME
IP ADDRESS
------ ---------X109s1 172.16.3.100
Command succeeded!
11. 2 つ目のファイルサービングノードに、パッシブ状態のアジャイル Fusion Manager をイ
ンストールします。 このコマンドの -F オプションは、IBRIX ソフトウェアと共にインス
トールされた new_lvm2_uuid ファイルの上書きを強制します。 ファイルサービングノー
ドで次のコマンドを実行します。
/ibrix/ibrixinit -tm -C <local_cluster_interface_device>
–v <agile_cluster_VIF_IP> -m <cluster_netmask> -d <cluster_VIF_device> -w 9009 –M passive -F
例を次に示します。
[root@x109s3 ibrix]# <install_code_directory>/ibrixinit -tm -C bond0 -v 172.16.3.1
-m 255.255.248.0 -d bond0:0 -V 10.30.83.1 -N 255.255.0.0 -D bond1:0 -w 9009 -M passive -F
注記: ローカルのアジャイル Fusion Manager 名が /etc/ibrix/fminstance.xml ファ
イル内に存在していることを確認してください。 次のコマンドを実行します。
grep –i current /etc/ibrix/fminstance.xml <property name="currentFmName" value="ib50-86"></property>
12. アクティブな Fusion Manager で、両方の管理コンソールがクラスター上に存在している
ことを確認します。
ibrix_fm -f
例を次に示します。
[root@x109s3 ibrix]# ibrix_fm -f
NAME
IP ADDRESS
------ ---------x109s1 172.16.3.100
x109s3 172.16.3.3
Command succeeded!
13. 新しくインストールした Fusion Manager が passive モードであることを確認します。
ibrix_fm –i
例を次に示します。
[root@x109s3 ibrix]# ibrix_fm -i
FusionServer: x109s3 (passive, quorum is running)
=============================
Command succeeded
14. アジャイル Fusion Manager をホストしているサーバーの高可用性機能を有効化します。
ibrix_server –m
126
アジャイル Fusion Manager 構成への移行
注記: 以前にサーバー上で iLO が構成されていなかった場合、次のエラーでコマンドが
失敗します。
com.ibrix.ias.model.BusinessException: x467s2 is not associated with any power sources
次のコマンドを使用して、IBRIX クラスターデータベース内で iLO パラメーターを定義し
ます。
ibrix_powersrc -a -t ilo -h HOSTNAME -I IPADDR [-u USERNAME -p PASSWORD]
iLO の設定方法の詳細は、『HP IBRIX 9000 Storage インストールガイド』 を参照してく
ださい。
アジャイル Fusion Manager のフェイルオーバーとフェイルバックのテ
スト
次の手順を実行します。
1. アクティブな Fusion Manager をホストしているノード上で、Fusion Manager を maintenance
モードにします。 この手順により、アクティブな Fusion Manager の役割が現在パッシブ
であるアジャイル Fusion Manager をホストしているノードにフェイルオーバーします。
<ibrixhome>/bin/ibrix_fm -m nofmfailover
2.
フェイルオーバーが完了するまで約 60 秒待機します。次に、パッシブであったアジャイ
ル Fusion Manager をホストしていたノード上で次のコマンドを実行します。
<ibrixhome>/bin/ibrix_fm -i
このコマンドで、アジャイル Fusion Manager が現在このノード上で Active (アクティ
ブ) であることがレポートされる必要があります。
3.
手順 1 でアクティブな Fusion Manager のフェイルオーバーを行ったノードで、Fusion
Manager のステータスを maintenance から passive に変更します。
<ibrixhome>/bin/ibrix_fm -m passive
4.
5.
Fusion Manager のデータベース /usr/local/ibrix/.db/は、アクティブおよびパッシ
ブ両方の Fusion Manager ノード上で変更されていないことを確認します。
手順 1~4 を繰り返して、以前にアクティブな Fusion Manager をホストしていたノード
を active モードに戻します。
オリジナルの管理コンソールノードを、アジャイル Fusion Manager を
ホストするファイルサービングノードに変換
オリジナルの管理コンソールノード (通常はノード 1) をファイルサービングノードに変換する
には、 次の手順を実行します。
1. ノードのアジャイル Fusion Manager を maintenance モードにします。
ibrix_fm -m nofmfailover
2.
Fusion Manager が maintenance モードになっていることを確認します。
ibrix_fm –i
例を次に示します。
[root@x109s1 ibrix]# ibrix_fm -i
FusionServer: x109s1 (maintenance, quorum not started)
==================================
Command succeeded!
3.
パッシブな Fusion Manager がアクティブな Fusion Manager になったことを確認します。
パッシブな Fusion Manager をホストしているファイルサービングノード上 (この例では
アジャイル Fusion Manager のフェイルオーバーとフェイルバックのテスト
127
x109s3) で、ibrix_fm -i コマンドを実行します。 パッシブな Fusion Manager がアク
ティブになるまで、最大で 2 分を要する場合があります。
[root@x109s3 ibrix]# ibrix_fm -i
FusionServer: x109s3 (active, quorum is running)
=============================
Command succeeded!
4.
そのノードに、ファイルサービングノードソフトウェアをインストールします。
./ibrixinit -ts -C <cluster_device> -i <cluster VIP> -F
5.
新しいファイルサービングノードがクラスターに加わったことを確認します。
ibrix_server -l
出力の中に新しいファイルサービングノードを探します。
6.
このファイルサービングノードのストレージを再検出します。
ibrix_pv -a
7.
128
ファイルサービングノードを設定し、クラスター内の他のノードと一致させます。 たとえ
ば、ユーザー NIC、ユーザーとクラスターの NIC 監視、NIC フェイルオーバーペア、電
源、バックアップサーバー、IBRIX クライアントに適した NIC などを設定します。
アジャイル Fusion Manager 構成への移行
12 IBRIX ソフトウェアの 6.2 リリースへのアップグレー
ド
この章では、6.2 IBRIX ソフトウェアリリースにアップグレードする方法について説明します。
重要:
次の表を印刷し、完了した各手順にチェックを付けてください。
表 4 すべてのアップグレードの前提条件チェックリスト
手順が完了し
たか
手順
説明
1
次のコマンドを入力して、クラスター全体が現在 IBRIX 6.0 以降で動作していることを
確認します。
ibrix_version -l
重要:
すべての IBRIX ノードが同じリリースである必要があります。
• IBRIX 6.0 よりも前のバージョンが動作している場合は、「段階的なアップグレー
ド」 (187 ページ) の説明に従って製品をアップグレードします。
• IBRIX 6.0 以降が動作している場合は、このセクションのアップグレード手順を続け
ます。
2
次のコマンドを使用して、/local パーティションにアップグレード用の 4GB 以上の
容量があることを確認します。
df -kh /local
3
9720 システムの場合、アップグレードを開始する前に、クラスターノード間でパスワー
ドを使用しないアクセスが可能であることを確認してください。
4
6.2 リリースでは、アジャイル Fusion Manager をホストしているノードがクラスター
ネットワークに登録されている必要があります。 次のコマンドを実行して、アジャイ
ル Fusion Manager をホストしているノードがクラスターネットワーク上の IP アドレス
を使用していることを確認します。
ibrix_fm -l
ノードがユーザーネットワーク上で構成されている場合は、対応策について「ノードが
クラスターネットワークに登録されていない 」 (141 ページ) を参照してください。
注記: Fusion Manager およびすべてのファイルサービングノードは、同時に新しいリ
リースにアップグレードする必要があります。 アップグレードの実行中は、Fusion
Manager のアクティブ/パッシブ構成を変更しないでください。
5
すべてのノード上で、/etc/grub.conf ファイルのデフォルトブートエントリーを次
の例のように変更し、crashkernel パラメーターを 256MB に設定します。
kernel /vmlinuz-2.6.18-194.el5 ro root=/dev/vg1/lv1
crashkernel=256M@16M
重要:
• /etc/grub.conf には、crashkernel パラメーターの複数のインスタンスが含まれ
る場合があります。 ファイルに出現する各インスタンスを必ず変更してください。
• この変更を有効にするには、各サーバーを再起動する必要があります。
6
クラスターに G6 サーバーが含まれている場合、iLO2 ファームウェアのバージョンを
確認してください。 この問題は、G7 サーバーには影響しません。 高可用性機能が正
しく動作するためには、ファームウェアのバージョンが 2.05 である必要があります。
サーバーで以前のバージョンの iLO2 ファームウェアを使用している場合は、次の手順
に示すように、CP014256.scexe スクリプトを実行します。
1. ISO イメージをマウントして、ディレクトリ構造全体を /local/ibrix ディレク
トリにコピーします。
次に、mount コマンドの例を示します。
mount -o loop
/local/pkg/ibrix-pkgfull-FS_6.2.374+IAS_6.2.374-x86_64.iso /mnt
129
表 4 すべてのアップグレードの前提条件チェックリスト (続き)
手順
説明
2. 次の場所にあるファームウェアバイナリを実行します。
/local/ibrix/distrib/firmware/CP014256.scexe
8
FSN ネットワークのボンディングされているインターフェイスが現在、モード 6 に構
成されている場合は、モード 4 のボンディング (LACP) で構成します。 ネットワーク管
理者に必ず、影響を受けるすべてのポートでネットワークスイッチに LACP サポートを
再構成するよう依頼してください。 モード 6 は ARP ストームの原因になることが判明
しています。ARP ストームは、HP IBRIX 9720/9730 プラットフォーム上のクラスター
間通信の信頼性を低下させます。 モード 4 がモード 6 よりもパフォーマンスでも優れ
ていることがわかったため、推奨モードがモード 6 からモード 4 へと変更されました。
9
次のコマンドを入力して、すべてのシステムノードが、そのファイルシステムノードが
オーナーまたはバックアップに設定されている各セグメントの論理ボリュームを「認
識」でき、「アクセス」できることを確認します。
1. すべてのセグメント、論理ボリューム名、およびオーナーを表示するには、次のコ
マンドを 1 行で入力します。
ibrix_fs -i | egrep -e OWNER -e MIXED|awk '{ print $1, $3, $6,
$2, $14, $5}' | tr " " "\t"
2. 現在のファイルシステムノードで正しいセグメントが認識できることを確認するた
めに、各ファイルシステムノードで、次のコマンドを入力します。
lvm lvs | awk '{print $1}'
10
アクティブなタスクが実行されていないことを確認します。 クラスター上で実行中の
アクティブなリモート複製タスク、データ階層化タスクまたは再バランスタスクがあれ
ば、それらをすべて停止します (ibrix_task -l を使用してアクティブなタスクをリ
スト表示します)。 アップグレードが完了したら、これらのタスクを再開できます。
タスクの停止方法に関する追加情報を参照するには、ibrix_task コマンドを入力し
てヘルプを表示します。
11
9720 システムの場合、次のコマンドを入力して既存のベンダーストレージを削除しま
す。
ibrix_vs -d -n EXDS
ベンダーストレージは、アップグレード後に自動的に登録されます。
12
次のコマンドを使用して、すべてのホストチューニング、FS チューニング、および FS
マウントのオプションを記録します。
1. ファイルシステムのチューニングを表示するには、次のコマンドを入力します。
ibrix_fs_tune -l >/local/ibrix_fs_tune-l.txt
2. デフォルトの IBRIX のチューニングと設定を表示するには、次のコマンドを入力しま
す。 ibrix_host_tune -L >/local/ibrix_host_tune-L.txt
3. デフォルト以外の構成のチューニングと設定を表示するには、次のコマンドを入力
します。 ibrix_host_tune -q >/local/ibrix_host_tune-q.txt
13
"ibrix"ローカルユーザーアカウントが存在し、クラスター内のすべてのサーバーが同じ
UID 番号であることを確認します。 同じ UID でない場合は、アカウントを作成し、必
要に応じて UID を変更して、すべてのサーバーで同じになるようにします。 同様
に、"ibrix-user"ローカルユーザーグループが存在し、すべてのサーバーで GID 番号が
同じであることを確認します。
各ノード上で次のコマンドを入力します。
grep ibrix /etc/passwd
grep ibrix-user /etc/group
14
すべてのノードが稼働していることを確認します。 クラスターノードのステータスを
確認するために、GUI のダッシュボードを使用するか、クラスター内の各ノードで
ibrix_health -S -i -h nodeX コマンドを入力して、各サーバーのヘルスステー
タスをチェックします。 出力の先頭にある「PASSED」を探します。
130 IBRIX ソフトウェアの 6.2 リリースへのアップグレード
手順が完了し
たか
9720 シャーシファームウェアのアップグレード
9720 システムを IBRIX ソフトウェア 6.2 にアップグレードする前に、9720 シャーシファー
ムウェアがバージョン 4.4.0-13 になっている必要があります。ファームウェアがこのレベル
でない場合は、IBRIX アップグレードに進む前に、ファームウェアをアップグレードしてくだ
さい。
ファームウェアをアップグレードするには、次の手順を実行します。
1. http://www.hp.com/go/StoreAll (英語) に移動します。
2. [HP IBRIX 9000 Storage] ページで、[Support] セクションから [HP Support & Drivers] を選
択します。
3. Business Support Center で [Download Drivers and Software] を選択し、さらに [HP 9720
Base Rack] > [Red Hat Enterprise Linux 5 Server (x86-64)] の順序で選択します。
4. [HP 9720 Storage Chassis Firmware] バージョン 4.0.0-13 をクリックします。
5. ファームウェアをダウンロードし、『HP 9720 Network Storage System 4.0.0-13 Release
Notes』の説明に従ってインストールします。
IBRIX ソフトウェアの 6.x から 6.2 へのオンラインアップグレード
オンラインアップグレードは、IBRIX 6.x リリース以降でのみサポートされます。 以前のリリー
スの IBRIX からのアップグレードは、適切なオフラインアップグレード手順を使用する必要が
あります。
オンラインアップグレードを実行する際は、以下の点に注意してください。
•
アップグレードの実行中は、ファイルシステムのマウントが維持され、クライアント I/O
が続行します。
•
ノードの数にかかわらず、アップグレードプロセスには約 45 分を要します。
•
I/O 中断の合計時間はノード IP ごとに 2 分のフェイルオーバー時間と 2 分のフェイルバッ
ク時間の合計 4 分です。
•
2 分以上のタイムアウトが設定されたクライアント I/O がサポートされます。
アップグレードの準備
アップグレードの準備をするには、以下の手順を実行します。次のコマンドを実行して、クラ
スター内の各ノードで高可用性が有効であることを確認します。
ibrix_haconfig -l
このコマンドで Overall HA Configuration Checker Results - PASSED ステータス
が表示されれば、クラスター内の各ノードで高可用性が有効です。 コマンドから Overall
HA Configuration Checker Results - FAILED が返された場合は、各コンポーネント
に対して返された結果に基づき、以下に記載する項目を実行します。
1. アップグレードチェックリスト (表 4 (129 ページ) ) のすべての手順が完了していることを
確認してください。
2. [HA Configuration] と [Auto Failover] のいずれかまたは両方の列に Failed と表示されて
いた場合は、ご使用になっているリリースの 管理者ガイド の「クラスターの高可用性の
構成」を参照してください。
3. [NIC] 列または [HBA Monitored] 列に Failed と表示されていた場合は、ご使用になって
いるリリースの CLI ガイド の ibrix_nic -m -h <host> -A node_2/node_interface
と ibrix_hba -m -h <host> -p <World_Wide_Name> のセクションを参照してく
ださい。
アップグレードの実行
オンラインアップグレードは、IBRIX 6.x~6.2 リリースのみでサポートされます。
重要:
表 4 (129 ページ) に記載されているすべての手順を完了します。
9720 シャーシファームウェアのアップグレード
131
次の手順を実行します。
1. 最新の HP IBRIX 6.2.1 (pkg-full.ISO) ISO イメージを入手するには、HP StoreAll Download
Drivers and Software の Web ページで登録し、ソフトウェアをダウンロードします。
2. ISO イメージをマウントして、ディレクトリ構造全体を OS を実行しているディスク上の
/local/ibrix ディレクトリにコピーします。
次に、mount コマンドの例を示します。
mount -o loop
/local/pkg/ibrix-pkgfull-FS_6.2.374+IAS_6.2.374-x86_64.iso /mnt
3.
4.
/local/ibrix ディレクトリに移動し、ディレクトリ構造全体に対して chmod -R 777
* を実行します。
アップグレードスクリプトを実行して、画面の指示に従います。
./auto_online_ibrixupgrade
5.
6.
Linux 9000 クライアントをアップグレードします。 「Linux 9000 クライアントのアップ
グレード」 (139 ページ) を参照してください。
HP から新しいライセンスが提供された場合、このガイドの「ライセンス」の章の説明に
従ってインストールします。
アップグレード後
次の手順を実施してください。
1. クラスターノードに 10Gb NIC が含まれている場合は、ノードを再起動して新しいドライ
バーをロードします。 この手順は、サーバーファームウェアをアップグレードする前に実
行する必要があり、この後の手順で実行するよう要求されます。
2. 「ファームウェアのアップグレード」 (144 ページ) の説明に従って、ファームウェアをアッ
プグレードします。
3. アップグレード前に停止したリモート複製タスク、再バランスタスクまたはデータ階層化
タスクがある場合は、これらのタスクを開始します。
4. バージョン 6 より前のファイルシステムを使用している場合は、スナップショットとデー
タ保管に関する次のような変更が必要になる場合があります。
5.
•
スナップショット。 スナップショットに使用するファイルを IBRIX ソフトウェア 6.0
以降で作成するか、またはファイルを含む 6.0 より前のファイルシステムをスナップ
ショット向けにアップグレードする必要があります。 ファイルシステムをアップグ
レードするには、upgrade60.sh ユーティリティを使用します。 詳細については、
「6.0 以前のファイルシステムのアップグレードによるソフトウェアスナップショッ
トのサポート」 (193 ページ) を参照してください。
•
データ保管。 データ保管に使用するファイル (WORM および自動コミットを含む) を
IBRIX ソフトウェア 6.1.1 以降で作成するか、またはファイルを含む 6.1.1 より前の
ファイルシステムをデータ保管機能向けにアップグレードする必要があります。 ファ
イルシステムをアップグレードするには、ibrix_reten_adm -u -f FSNAME コ
マンドを使用します。 ibrix_reten_adm -u -f FSNAME コマンドを実行する前
と後に、追加の手順が必要です。 詳細については、「6.0 以前のファイルシステムの
アップグレードによるソフトウェアスナップショットのサポート」 (193 ページ) を参
照してください。
各 IBRIX ノード (ファイルサービングノードと管理ノード) の /etc/hosts ファイルを見
直して、ホストファイルに次のような 2 行が含まれていることを確認します。
127.0.0.1 <hostname> localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6
この例では、 <hostname> は、hostname コマンドから返される IBRIX ノードの名前で
す。
132
IBRIX ソフトウェアの 6.2 リリースへのアップグレード
これら 2 行が存在しないか、すべての情報が含まれていない場合は、/etc/hosts ファ
イルを vi などのテキストエディターで開き、これら 2 行がこの手順に記載した形式で含
まれるように変更します。 たとえば、hostname コマンドから ss01 が返される場合は、
次のような行になります。
127.0.0.1 ss01 localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6
6.
アップグレード後に、IBRIX クラスター内の各サーバー上の Fusion Manager を手動で再起
動する必要があります。
1. すべての passive モードの Fusion Manager を再起動します。
a. 次のコマンドを入力して、Fusion Manager が passive モードであるかどうかを判
断します。
ibrix_fm -i
b.
コマンドから “passive” と返された場合は (フェイルオーバーが無効であるかどう
かに関わらず)、次のコマンドを入力して、Fusion Manager を再起動します。
service ibrix_fusionmanager restart
c.
2.
手順 a と b を、各 Fusion Manager に対して繰り返します。
アクティブ FM サーバーで次のコマンドを実行して、アクティブな Fusion Manager
を再起動します。
a. 次のコマンドを入力して、Fusion Manager のすべてのインスタンスを nofmfailover
モードに設定します。
ibrix_fm -m nofmfailover -A
b.
Fusion Manager を再起動するには、次のコマンドを入力します。
service ibrix_fusionmanager restart
c.
次のコマンドを入力して、Fusion Manager のすべてのインスタンスを passive
モードに設定します。
ibrix_fm -m passive -A
IBRIX ソフトウェアの 6.x から 6.2 への自動オフラインアップグレード
アップグレードの準備
アップグレードの準備を行うには、次の手順を実行します。
1. アップグレードチェックリスト (表 4 (129 ページ) ) のすべての手順が完了していることを
確認してください。
2. クラスターまたはファイルシステムへのすべてのクライアント I/O を停止します。 Linux
クライアント上で lsof </mountpoint> を使用して、アクティブなプロセスに属して
いる開いているファイルを表示します。
3. すべての IBRIX ファイルシステムをすべての FSN サーバーから正常にアンマウントできる
ことを確認します。
ibrix_umount -f fsname
アップグレードの実行
このアップグレード手法は、IBRIX ソフトウェア 6.x から 6.2 リリースへのアップグレードの
みでサポートされます。 次の手順を実行します。
1. 最新の HP IBRIX 6.2.1 (pkg-full.ISO) ISO イメージを入手するには、HP StoreAll Download
Drivers and Software の Web ページで登録し、ソフトウェアをダウンロードします。
ISO イメージをマウントして、ディレクトリ構造全体を OS を実行しているディスク上の
/local/ibrix ディレクトリにコピーします。
IBRIX ソフトウェアの 6.x から 6.2 への自動オフラインアップグレード
133
次に、mount コマンドの例を示します。
mount -o loop
/local/pkg/ibrix-pkgfull-FS_6.2.374+IAS_6.2.374-x86_64.iso /mnt
2.
3.
OS を実行しているディスク上で /local/ibrix ディレクトリに移動し、ディレクトリ
構造全体に対して chmod -R 777 * を実行します。
次のアップグレードスクリプトを実行します。
./auto_ibrixupgrade
このアップグレードスクリプトは、必要なサービスを自動的に停止して、アップグレード
の完了後に再開します。 このアップグレードスクリプトは、すべてのファイルサービング
ノード上に Fusion Manager をインストールします。 アップグレードを実行したノード上
では Fusion Manager が active モードになり、その他のファイルサービングノードでは
passive モードになります。 クラスター内に専用管理サーバーが存在する場合、このサー
バー上には Fusion Manager が passive モードでインストールされます。
4.
5.
Linux 9000 クライアントをアップグレードします。
HP から新しいライセンスが提供された場合、このガイドの「ライセンス」の章の説明に
従ってインストールします。
アップグレード後
次の手順を実行します。
1. クラスターノードに 10Gb NIC が含まれている場合は、ノードを再起動して新しいドライ
バーをロードします。 この手順は、サーバーファームウェアをアップグレードする前に実
行する必要があり、この後の手順で実行するよう要求されます。
2. 「ファームウェアのアップグレード」 (144 ページ) の説明に従って、ファームウェアをアッ
プグレードします。
3. Linux 9000 クライアント上にファイルシステムをマウントします。
4. バージョン 6 より前のファイルシステムを使用している場合は、スナップショットとデー
タ保管に関する次のような変更が必要になる場合があります。
5.
•
スナップショット。 スナップショットに使用するファイルを IBRIX ソフトウェア 6.0
以降で作成するか、またはファイルを含む 6.0 より前のファイルシステムをスナップ
ショット向けにアップグレードする必要があります。 ファイルシステムをアップグ
レードするには、upgrade60.sh ユーティリティを使用します。 詳細については、
「6.0 以前のファイルシステムのアップグレードによるソフトウェアスナップショッ
トのサポート」 (193 ページ) を参照してください。
•
データ保管。 データ保管に使用するファイル (WORM および自動コミットを含む) を
IBRIX ソフトウェア 6.1.1 以降で作成するか、またはファイルを含む 6.1.1 より前の
ファイルシステムをデータ保管機能向けにアップグレードする必要があります。 ファ
イルシステムをアップグレードするには、ibrix_reten_adm -u -f FSNAME コ
マンドを使用します。 ibrix_reten_adm -u -f FSNAME コマンドを実行する前
と後に、追加の手順が必要です。 詳細については、「6.0 以前のファイルシステムの
アップグレードによるソフトウェアスナップショットのサポート」 (193 ページ) を参
照してください。
各 IBRIX ノード (ファイルサービングノードと管理ノード) の /etc/hosts ファイルを見
直して、ホストファイルに次のような 2 行が含まれていることを確認します。
127.0.0.1 <hostname> localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6
この例では、 <hostname> は、hostname コマンドから返される IBRIX ノードの名前で
す。
これら 2 行が存在しないか、すべての情報が含まれていない場合は、/etc/hosts ファ
イルを vi などのテキストエディターで開き、これら 2 行がこの手順に記載した形式で含
134
IBRIX ソフトウェアの 6.2 リリースへのアップグレード
まれるように変更します。 たとえば、hostname コマンドから ss01 が返される場合は、
次のような行になります。
127.0.0.1 ss01 localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6
6.
アップグレード後に、IBRIX クラスター内の各サーバー上の Fusion Manager を手動で再起
動する必要があります。
1. すべての passive モードの Fusion Manager を再起動します。
a. 次のコマンドを入力して、Fusion Manager が passive モードであるかどうかを判
断します。
ibrix_fm -i
b.
コマンドから “passive” と返された場合は (フェイルオーバーが無効であるかどう
かに関わらず)、次のコマンドを入力して、Fusion Manager を再起動します。
service ibrix_fusionmanager restart
c.
2.
手順 a と b を、各 Fusion Manager に対して繰り返します。
アクティブ FM サーバーで次のコマンドを実行して、アクティブな Fusion Manager
を再起動します。
a. 次のコマンドを入力して、Fusion Manager のすべてのインスタンスを nofmfailover
モードに設定します。
ibrix_fm -m nofmfailover -A
b.
Fusion Manager を再起動するには、次のコマンドを入力します。
service ibrix_fusionmanager restart
c.
次のコマンドを入力して、Fusion Manager のすべてのインスタンスを passive
モードに設定します。
ibrix_fm -m passive -A
IBRIX ソフトウェアの 6.x から 6.2 への手動オフラインアップグレード
アップグレードの準備
アップグレードの準備を行うには、次の手順を実行します。
1. アップグレードチェックリスト (表 4 (129 ページ) ) のすべての手順が完了していることを
確認してください。
2. ssh 共有鍵が設定されていることを確認します。 これを行うには、アクティブなインス
タンスのアジャイル Fusion Manager をホストしているノード上で、次のコマンドを実行
します。
ssh <server_name>
クラスターの各ノードで、このコマンドを繰り返します。
3.
4.
df コマンドを入力して、すべてのファイルシステムノードサーバーに、以下のパーティ
ションにマウントされている別々のファイルシステムが存在することを確認します。
•
/
•
/local
•
/stage
•
/alt
df コマンドを使用して、すべての FSN サーバーの /local パーティションに 4GB 以上
の空き/利用可能ストレージがあることを確認します。
IBRIX ソフトウェアの 6.x から 6.2 への手動オフラインアップグレード
135
5.
6.
7.
8.
df コマンドを使用して、すべての FSN サーバーからどのパーティションも 100% 満杯と
して報告されていないこと (5% 以上の空き領域) を確認します。
ファイルシステムマウントオプションなど、カスタムチューニングパラメーターがあれ
ば、すべてメモします。 アップグレードの完了時に、これらのパラメーターを再適用でき
ます。
クラスターまたはファイルシステムへのすべてのクライアント I/O を停止します。 Linux
クライアント上で lsof </mountpoint> を使用して、アクティブなプロセスに属して
いる開いているファイルを表示します。
パッシブな Fusion Manager をホストしているすべてのノード上で、Fusion Manager を
maintenance モードにします。
<ibrixhome>/bin/ibrix_fm -m nofmfailover
9.
アクティブな Fusion Manager のノードで、すべてのファイルサービングノードへの自動
フェイルオーバーを無効にします。
<ibrixhome>/bin/ibrix_server -m -U
10. 次のコマンドを実行して、自動フェイルオーバーがオフになっていることを確認します。
出力の HA カラムは、off を表示している必要があります。
<ibrixhome>/bin/ibrix_server -l
11. Linux 9000 クライアント上のファイルシステムをアンマウントします。
ibrix_umount -f MOUNTPOINT
12. すべてのノード上の SMB、NFS および NDMP サービスを停止します。 アクティブな
Fusion Manager をホストしているノードで、次のコマンドを実行します。
ibrix_server -s -t cifs -c stop
ibrix_server -s -t nfs -c stop
ibrix_server -s -t ndmp -c stop
nl
nl
SMB を使用している場合、すべてのファイルサービングノード上で likewise サービスが停
止していることを確認します。
ps –ef | grep likewise
kill -9 を使用して、実行中のすべての likewise サービスを停止します。
NFS を使用している場合は、次のコマンドを実行して、すべての NFS プロセスが停止し
ていることを確認します。
ps –ef | grep nfs
必要に応じて、次のコマンドを使用して NFS サービスを停止します。
/etc/init.d/nfs stop
kill -9 を使用して、実行中のすべての NFS プロセスを停止します。
必要に応じてすべてのノード上で次のコマンドを実行し、マウントされているファイルシ
ステムで開いているすべてのファイルハンドルを特定します。
lsof </mountpoint>
kill -9 を使用して、ファイルシステム上で開いているファイルハンドルを持つすべて
のプロセスを停止します。
13. 各ファイルシステムを手動でマウント解除します。
ibrix_umount -f FSNAME
ファイルシステムがマウント解除されるまで、最長 15 分待機します。
アップグレードを続行する前に、ファイルシステムのマウント解除に関するすべての問題
のトラブルシューティングを行います。 「ファイルシステムのマウント解除の問題」
(142 ページ) を参照してください。
136
IBRIX ソフトウェアの 6.2 リリースへのアップグレード
アップグレードの手動での実行
このアップグレード手法は、IBRIX ソフトウェア 6.x から 6.2 リリースへのアップグレードの
みでサポートされます。 次の手順を実行します。
1. 最新の HP IBRIX 6.2.1 (pkg-full.ISO) ISO イメージを入手するには、HP StoreAll Download
Drivers and Software の Web ページで登録し、ソフトウェアをダウンロードします。
各ノードで ISO イメージをマウントして、ディレクトリ構造全体を OS を実行している
ディスク上の /root/ibrix ディレクトリにコピーします。
次に、mount コマンドの例を示します。
mount -o loop
/local/pkg/ibrix-pkgfull-FS_6.2.374+IAS_6.2.374-x86_64.iso /mnt
2.
3.
OS を実行しているディスク上で /local/ibrix ディレクトリに移動し、ディレクトリ
構造全体に対して chmod -R 777 * を実行します。
次のアップグレードスクリプトを実行します。
./ ibrixupgrade —f
このアップグレードスクリプトは、必要なサービスを自動的に停止して、アップグレード
の完了後に再開します。 このアップグレードスクリプトは、すべてのファイルサービング
ノード上に Fusion Manager をインストールします。 アップグレードを実行したノード上
では Fusion Manager が active モードになり、その他のファイルサービングノードでは
passive モードになります。 クラスター内に専用管理サーバーが存在する場合、このサー
バー上には Fusion Manager が passive モードでインストールされます。
4.
5.
Linux 9000 クライアントをアップグレードします。 「Linux 9000 クライアントのアップ
グレード」 (139 ページ) を参照してください。
HP から新しいライセンスが提供された場合、このガイドの「ライセンス」の章の説明に
従ってインストールします。
アップグレード後
次の手順を実行します。
1. クラスターノードに 10Gb NIC が含まれている場合は、ノードを再起動して新しいドライ
バーをロードします。 この手順は、サーバーファームウェアをアップグレードする前に実
行する必要があり、この後の手順で実行するよう要求されます。
2. 「ファームウェアのアップグレード」 (144 ページ) の説明に従って、ファームウェアをアッ
プグレードします。
3. 次のコマンドを実行して、物理ボリュームを再検出します。
ibrix_pv -a
4.
5.
マウントオプションなどのカスタムチューニングパラメーターがあれば、すべて適用しま
す。
すべてのファイルシステムを再マウントします。
ibrix_mount -f <fsname> -m </mountpoint>
6.
高可用性機能を使用していた場合は、再び有効化します。
ibrix_server -m
7.
8.
アップグレード前に停止したリモート複製タスク、再バランスタスクまたはデータ階層化
タスクがある場合は、これらのタスクを開始します。
SMB を使用している場合は、次のパラメーターを設定して、SMB ソフトウェアと Fusion
Manager データベースを同期します。
•
smb signing enabled
•
smb signing required
•
ignore_writethru
IBRIX ソフトウェアの 6.x から 6.2 への手動オフラインアップグレード
137
ibrix_cifsconfig を使用して、クラスターに適切な値を指定して (1= 有効、0= 無効)
パラメーターを設定します。 次の例では、パラメーターを 6.2 リリースのデフォルト値
に指定しています。
ibrix_cifsconfig -t -S "smb_signing_enabled=0,
smb_signing_required=0"
ibrix_cifsconfig -t -S "ignore_writethru=1"
SMB 署名機能は、クライアントが SMB 共有にアクセスするために SMB 署名をサポート
する必要があるかどうかを指定します。 この機能の詳細については、『HP IBRIX 9000
Storage File System ユーザーガイド』 を参照してください。 ignore_writethru が有効
な場合、IBRIX ソフトウェアはライトスルーバッファリングを無視して、これを要求する
一部のユーザーアプリケーションの SMB 書き込みパフォーマンスを向上します。
9. Linux 9000 クライアント上にファイルシステムをマウントします。
10. バージョン 6 より前のファイルシステムを使用している場合は、スナップショットとデー
タ保管に関する次のような変更が必要になる場合があります。
•
スナップショット。 スナップショットに使用するファイルを IBRIX ソフトウェア 6.0
以降で作成するか、またはファイルを含む 6.0 より前のファイルシステムをスナップ
ショット向けにアップグレードする必要があります。 ファイルシステムをアップグ
レードするには、upgrade60.sh ユーティリティを使用します。 詳細については、
「6.0 以前のファイルシステムのアップグレードによるソフトウェアスナップショッ
トのサポート」 (193 ページ) を参照してください。
•
データ保管。 データ保管に使用するファイル (WORM および自動コミットを含む) を
IBRIX ソフトウェア 6.1.1 以降で作成するか、またはファイルを含む 6.1.1 より前の
ファイルシステムをデータ保管機能向けにアップグレードする必要があります。 ファ
イルシステムをアップグレードするには、ibrix_reten_adm -u -f FSNAME コ
マンドを使用します。 ibrix_reten_adm -u -f FSNAME コマンドを実行する前
と後に、追加の手順が必要です。 詳細については、「6.0 以前のファイルシステムの
アップグレードによるソフトウェアスナップショットのサポート」 (193 ページ) を参
照してください。
11. 各 IBRIX ノード (ファイルサービングノードと管理ノード) の /etc/hosts ファイルを見
直して、ホストファイルに次のような 2 行が含まれていることを確認します。
127.0.0.1 <hostname> localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6
この例では、 <hostname> は、hostname コマンドから返される IBRIX ノードの名前で
す。
これら 2 行が存在しないか、すべての情報が含まれていない場合は、/etc/hosts ファ
イルを vi などのテキストエディターで開き、これら 2 行がこの手順に記載した形式で含
まれるように変更します。 たとえば、hostname コマンドから ss01 が返される場合は、
次のような行になります。
127.0.0.1 ss01 localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6
12. アップグレード後に、IBRIX クラスター内の各サーバー上の Fusion Manager を手動で再起
動する必要があります。
1. すべての passive モードの Fusion Manager を再起動します。
a. 次のコマンドを入力して、Fusion Manager が passive モードであるかどうかを判
断します。
ibrix_fm -i
138
IBRIX ソフトウェアの 6.2 リリースへのアップグレード
b.
コマンドから “passive” と返された場合は (フェイルオーバーが無効であるかどう
かに関わらず)、次のコマンドを入力して、Fusion Manager を再起動します。
service ibrix_fusionmanager restart
c.
2.
手順 a と b を、各 Fusion Manager に対して繰り返します。
アクティブ FM サーバーで次のコマンドを実行して、アクティブな Fusion Manager
を再起動します。
a. 次のコマンドを入力して、Fusion Manager のすべてのインスタンスを nofmfailover
モードに設定します。
ibrix_fm -m nofmfailover -A
b.
Fusion Manager を再起動するには、次のコマンドを入力します。
service ibrix_fusionmanager restart
c.
次のコマンドを入力して、Fusion Manager のすべてのインスタンスを passive
モードに設定します。
ibrix_fm -m passive -A
Linux 9000 クライアントのアップグレード
Linux 9000 クライアントをアップグレードする前に、必ずクラスターノードをアップグレード
してください。 各クライアント上で次の手順を実施します。
1. 最新の HP 9000 Client 6.2 パッケージをダウンロードします。
2. tar ファイルを展開します。
3. アップグレードスクリプトを実行します。
./ibrixupgrade -f
このアップグレードスクリプトは、必要なサービスを自動的に停止して、アップグレード
の完了後に再開します。
4.
次のコマンドを実行して、クライアントで IBRIX ソフトウェアが実行されていることを確
認します。
/etc/init.d/ibrix_client status
IBRIX Filesystem Drivers loaded
IBRIX IAD Server (pid 3208) running...
上の出力例に示すように、IAD サービスが実行している必要があります。 実行していない場
合は、HP サポートにお問い合わせください。
Linux クライアントへのカーネルのマイナーアップデートのインストール
9000 クライアントソフトウェアと互換性のある Linux カーネルのマイナーアップデートをイ
ンストールすると、クライアントソフトウェアが自動的にアップグレードされます。
カーネルのマイナーアップデートのインストールを計画している場合、初めに次のコマンドを
実行して、アップデートが 9000 クライアントソフトウェアと互換性があることを確認してく
ださい。
/usr/local/ibrix/bin/verify_client_update <kernel_update_version>
次の例は、カーネルバージョン 2.6.9-89.ELsmp の RHEL 4.8 クライアントの場合です。
# /usr/local/ibrix/bin/verify_client_update 2.6.9-89.35.1.ELsmp
Kernel update 2.6.9-89.35.1.ELsmp is compatible.
nl
カーネルのマイナーアップデートの互換性が確認されたら、ベンダー RPM を使用してアップ
デートをインストールし、システムを再起動します。 新しいカーネルに応じて 9000 クライ
アントソフトウェアが自動的に更新され、9000 クライアントサービスが自動的に起動します。
Linux 9000 クライアントのアップグレード
139
ibrix_version -l -C コマンドを使用して、クライアントのカーネルバージョンを確認し
ます。
注記: verify_client コマンドを使用するには、9000 クライアントソフトウェアがイン
ストールされている必要があります。
Windows 9000 クライアントのアップグレード
各クライアント上で次の手順を実施します。
1. コントロールパネルの [プログラムの追加と削除]ユーティリティを使用して、古い Windows
9000 クライアントソフトウェアを削除します。
2. アップグレード用の Windows 9000 クライアント MSI ファイルをコンピューターにコピー
します。
3. Windows インストーラーを起動して指示に従い、アップグレードを完了します。
4. Windows 9000 クライアントを再度クラスターに登録して、[Start Service after Registration]
オプションを選択します。
5. [管理ツール] | [サービス]で、9000 クライアントサービスが開始されていることを確認し
ます。
6. Windows 9000 クライアントを起動します。 [Active Directory Settings] タブで [ Update]
をクリックして、現在の Active Directory 設定を取得します。
7. IBRIX Windows クライアント GUI を使用してファイルシステムをマウントします。
注記: リモートデスクトップを使用してアップグレードを実行している場合は、ログアウト
してから再度ログインして、ドライブがマウントされていることを確認する必要があります。
アップグレードの問題のトラブルシューティング
アップグレードが正常に完了しない場合は、以下の項目を確認してください。 追加の支援が必
要な場合は、HP サポートまでお問い合わせください。
自動アップグレード
次の点を確認してください。
•
/usr/local/ibrix/setup/upgrade の初回の実行に失敗する場合
は、/usr/local/ibrix/setup/upgrade.log にエラーがないか確認してください。
アップグレードスクリプトを実行する前に、すべてのサーバーで IBRIX ソフトウェアが稼
働していることが必須です。
•
新しい OS のインストールに失敗する場合、ノードの電源を再投入して 再起動してくださ
い。 再起動後にインストールが開始しない場合は、マシンの電源を再投入して、grub
ブートメニューから upgrade 行を選択してください。
•
アップグレード後に、/usr/local/ibrix/setup/logs/postupgrade.log にエラー
または警告がないか確認してください。
•
いずれかのノードで構成の復元に失敗した場合は、そのノードの
/usr/local/ibrix/autocfg/logs/appliance.log を調べて、どの機能の復元に失
敗したのかを特定してください。 /usr/local/ibrix/setup/logs/以下にある特定の
機能のログファイルで、詳細な情報を調査してください。
構成のコピーを再試行するには、次のコマンドを使用します。
/usr/local/ibrix/autocfg/bin/ibrixapp upgrade –f –s
•
新しいイメージのインストールには成功しても、構成の復元に失敗しサーバーを以前のイ
ンストールに戻す必要がある場合は、次のコマンドを使用し、次にマシンを再起動しま
す。 この手順により、サーバーは古いバージョン (別のパーティション) から起動します。
/usr/local/ibrix/setup/boot_info –r
140 IBRIX ソフトウェアの 6.2 リリースへのアップグレード
•
パブリックネットワークインターフェイスがダウンして、ノードへアクセスできなくなっ
た場合、そのノードの電源を再投入してください。
注記:
各ノードには、/tmp にそれぞれの ibrixupgrade.log が格納されています。
手動アップグレード
次の点を確認してください。
•
復元スクリプトを完了できない場合は、/usr/local/ibrix/setup/logs/restore.log
で詳細を確認してください。
•
構成の復元に失敗した場合は、/usr/local/ibrix/autocfg/logs/appliance.log
を調べて、どの機能の復元に失敗したのかを特定してください。 /usr/local/ibrix/
setup/logs/以下にある特定の機能のログファイルで、詳細な情報を調査してください。
構成のコピーを再試行するには、次のコマンドを使用します。
/usr/local/ibrix/autocfg/bin/ibrixapp upgrade –f –s
iLO ファームウェアが古いためオフラインアップグレードに失敗する
ノード上の iLO2 ファームウェアが古い場合、auto_ibrixupgrade スクリプトは失敗しま
す。 /usr/local/ibrix/setup/logs/auto_ibrixupgrade.log に、エラーのレポート
とファームウェアのアップデート方法の説明が含まれています。
ファームウェアのアップグレード後に、ノード上で次のコマンドを実行して IBRIX ソフトウェ
アのアップグレードを完了してください。
/local/ibrix/ibrixupgrade -f
ノードがクラスターネットワークに登録されていない
アジャイル Fusion Manager をホストしているノードは、クラスターネットワークに登録する
必要があります。 ibrix_fm コマンドでノードの IP アドレスがユーザーネットワークのもの
であることがレポートされる場合、IP アドレスをクラスターネットワークに再割り当てする必
要があります。 たとえば、次のコマンドは、アクティブな Fusion Manager をホストしている
ノード ib51–101 の IP アドレス (15.226.51.101) がユーザーネットワーク上のもので、クラ
スターネットワーク上のものではないことをレポートしています。
[root@ib51-101 ibrix]# ibrix_fm -i
FusionServer: ib51-101 (active, quorum is running)
==================================================
[root@ib51-101 ibrix]# ibrix_fm -l
NAME
IP ADDRESS
-------- ---------ib51-101 15.226.51.101
ib51-102 10.10.51.102
1.
この例のように、ユーザーネットワーク上のノードがアクティブな Fusion Manager をホ
ストしている場合、このノード上の Fusion Manager を停止します。
[root@ib51-101 ibrix]# /etc/init.d/ibrix_fusionmanager stop
Stopping Fusion Manager Daemon
[
[root@ib51-101 ibrix]#
2.
OK
]
現在アクティブな Fusion Manager をホストしているノード (この例では ib51–102) で、
ノード ib51–101 の登録を解除します。
[root@ib51-102 ~]# ibrix_fm -u ib51-101
Command succeeded!
アップグレードの問題のトラブルシューティング
141
3.
アクティブな Fusion Manager をホストしているノードで、ノード ib51–101 を登録し
て、正しい IP アドレスを割り当てます。
[root@ib51-102 ~]# ibrix_fm -R ib51-101 -I 10.10.51.101
Command succeeded!
注記: Fusion Manager を登録する際は、-R で指定されたホスト名がサーバーのホスト
名と一致している必要があります。
ibrix_fm コマンドで、ノード ib51–101 が正しい IP アドレスを持ち、ノード ib51–102 が
アクティブな Fusion Manager をホストしていることが示されます。
[root@ib51-102 ~]# ibrix_fm -f
NAME
IP ADDRESS
-------- ---------ib51-101 10.10.51.101
ib51-102 10.10.51.102
[root@ib51-102 ~]# ibrix_fm -i
FusionServer: ib51-102 (active, quorum is running)
==================================================
ファイルシステムのマウント解除の問題
ファイルシステムが正しくマウント解除されない場合、すべてのサーバー上で以下の手順を実
行してください。
1. 以下のコマンドを実行します。
chkconfig ibrix_server off
chkconfig ibrix_ndmp off
chkconfig ibrix_fusionmanager off
2.
3.
すべてのサーバーを再起動します。
以下のコマンドを実行して、サービスを on 状態に戻します。 コマンドは、サービスを開
始しません。
chkconfig ibrix_server on
chkconfig ibrix_ndmp on
chkconfig ibrix_fusionmanager on
4.
142
ファイルシステムをマウント解除して、アップグレード手順を続行します。
IBRIX ソフトウェアの 6.2 リリースへのアップグレード
13 ライセンス
この章では、現在のライセンス条項を表示する方法、また、新しい IBRIX ソフトウェア製品の
ライセンスキーを取得およびインストールする方法について説明します。
ライセンス条項の表示
IBRIX ソフトウェアのライセンスファイルは、インストールディレクトリに格納されます。 GUI
を通じてライセンスを表示するには、ナビゲーターで [Cluster Configuration] を選択して、次に
[License] を選択します。
CLI を通じてライセンスを表示するには、次のコマンドを使用します。
ibrix_license -i
このコマンドの出力には、現在のノード数と容量制限が表示されます。 出力に示される Segment
Server は、ファイルサービングノードを指します。
ライセンスキーの取得
お客様は、本製品の購入時に License Entitlement Certificate (ライセンス付与証明書) を受け取り
ます。 ライセンスキーを取得して入力するには、この証明書の情報が必要です。
ライセンスキーは、次のいずれかの方法で取得できます。
•
www.hp.com/software/licensing (英語) からライセンスキーを取得します。
•
License Entitlement Certificate に付属している Password Request Form を FAX で送付しま
す。 お客様の地域での FAX 番号については、証明書を参照してください 。
•
HP パスワードセンターに電話または電子メールで連絡します。 お客様の地域での電話番
号または電子メールについては、証明書を参照してください 。
ライセンス条項の表示
143
14 ファームウェアのアップグレード
本章の手順を実行する前に、付録 F 「警告および注意事項」、「規定に関するご注意」 (248 ペー
ジ) に記載された重要な警告、注意事項および安全に関する情報をお読みください。
Firmware Management Tool (FMT) は、IBRIX システムの期限切れのファームウェアをスキャン
して、包括的レポートで次のような情報を提供します。
•
検出されたデバイス
•
検出されたデバイスで見つかったアクティブファームウェア
•
検出されたデバイスの適格なファームウェア
•
延期されているアクション — アップグレードを推奨するかどうかをユーザーに通知
•
重大度 — アップグレードの必要性の重要度
•
フラッシュ後の再起動の必要性の有無
•
デバイス情報
•
親デバイス ID
ファームウェアのアップグレードのコンポーネント
HP IBRIX システムのコンポーネントには、アップグレード可能なファームウェアが搭載されて
いるものがあります。
アップグレード可能なコンポーネントは次のとおりです。
•
•
サーバー
◦
ILO3
◦
BIOS
◦
Power_Mgmt_Ctlr
◦
Smart_Array_Ctlr
◦
NIC
◦
PCIeNIC
◦
SERVER_HDD
ストレージ
◦
Enclosure_IO_Mod
◦
Enclosure_HDD
重要: (9730 システムのみ) ストレージディスクエンクロージャー (Enclosure_HDD)
のファームウェアのアップグレードは、OFFLINE プロセスです。 更新前に、すべて
のホストとアレイ I/O が停止しており、ファイルシステムがアンマウントされている
ことを確認してください。 ファイルシステムのアンマウント方法については、『HP
IBRIX 9000 Storage File System ユーザーガイド』を参照してください。
•
シャーシ
◦
OA
◦
VC_Flex-10
144 ファームウェアのアップグレード
◦
6Gb_SAS_BL_SW
次のコマンドを入力して、どのコンポーネントにフラッシュアップグレードのフラグが設定さ
れている可能性があるかを表示します。
hpsp_fmt -lc
表示されるサーバーコンポーネントの例を以下に示します。
ファームウェアのアップグレードの手順
重要: 10Gb NIC ドライバーは、IBRIX v6.2.X ソフトウェアのアップグレード時に更新されま
す。 ただし、サーバーが再起動されるまで、新しいドライバーは使用/ロードされません。
サーバーを再起動する前にアップグレードファームウェアツール (hpsp_fmt) を実行した場
合、ツールによって、古いドライバーがまだ使用されていると検出されます。
コンポーネントのファームウェアをアップグレードするには、次の手順を実行します。
1. /opt/hp/platform/bin/hpsp_fmt -fr コマンドを実行して、このノードとこのクラ
スター内の後続のノードのファームウェアが正しく、最新であることを確認します。 この
コマンドは、クラスターのサービスを復帰する前に実行してください。
次の画面は、ファームウェアに関する推奨の出力と修正コンポーネントのアップグレード
フラッシュの例です。
ファームウェアのアップグレードの手順
145
重要: 次の順序で、ファームウェアを更新します。
1. サーバー
2. シャーシ
3. ストレージ
2.
3.
[Proposed Action] と [Severity] に基づき、記載されている手順に従ってください。
[Proposed Action] 列のステータス
[Severity] 列のステータス
実行する手順
UPGRADE
MANDATORY
手順 3
UPGRADE
RECOMMENDED
手順 3 は省略可能です。 ただし、
システムの安定性を考慮し、既知の
問題を回避するために、手順 3 を実
行することをお勧めします。
NONE または DOWNGRADE
MANDATORY
手順 4
NONE または DOWNGRADE
RECOMMENDED
手順 4 は省略可能です。 ただし、
システムの安定性を考慮し、既知の
問題を回避するために、手順 4 を実
行することをお勧めします。
次のコマンドを入力してフラッシュ操作を実行してから、手順 5 に進みます。
hpsp_fmt —flash –c <components-name>
次のスクリーンショットは、フラッシュ操作が成功したことを表します。
146
ファームウェアのアップグレード
4.
次のコマンドを入力してフラッシュ操作を実行してから、手順 5 に進みます。
hpsp_fmt —flash –c <components-name> --force
5.
コンポーネントがフラッシュの再起動を必要とする場合は、以下の手順に記載されている
方法で FSN をフェイルオーバーし、操作を続行します。
注記: 以下に記載するのは 2 ノードクラスターの場合の手順ですが、多数のノードクラ
スターの場合も同様の手順を行います。
a.
次のコマンドを入力して、フラッシュするノードがアクティブな Fusion Manager で
あるのかどうかを確認します。
ibrix_fm –i
b.
次のコマンドをアクティブな Fusion Manager から入力して、ローカルノードで手動
FM フェイルオーバーを実行します。
ibrix_fm -m nofmfailover server1
FM フェイルオーバーの所要時間は約 1 分です。
c.
d.
server1 がアクティブな Fusion Manager ではない場合は、手順 e に進んで、server1
から server2 にフェイルオーバーします。
現在アクティブな Fusion Manager であるノードを確認するには、次のコマンドを入
力します。
ibrix_fm –i
e.
新しいアクティブな Fusion Manager ノードに移動し、次のコマンドを入力してフェ
イルオーバーを実行します。
ibrix_server —f —p —h server1
ファームウェアのアップグレードの手順
147
注記: フェイルオーバー操作の —p スイッチにより、影響するノードの再起動と、
それに伴う以下のコンポーネントのフラッシュが可能になります。
f.
•
BIOS
•
NIC
•
Power_Mgmt_Ctlr
•
SERVER_HDD
•
Smart_Array_Ctlr
•
Storage_Ctlr
FSN が起動されたら、次のコマンドを入力して、ソフトウェアから FSN が Up,
FailedOver として報告されていることを確認します。
ibrix_server —l
g.
次のコマンドを入力して、推奨されるフラッシュが正常に完了したことを確認しま
す。
hpsp_fmt —fr server —o /tmp/fwrecommend.out
Proposed Action 列で必要なアクションがないこと、Active FW Version 列と
Qualified FW Version 列に同じ値が表示されていることを確認します。
h.
次のコマンドを入力して、更新したサーバーをフェイルバックします。
ibrix_server —f —U —h server1
i.
フェイルオーバーした Fusion Manager は、次のコマンドを使用して passive モード
に移行するまで、nofmfailover モードのままです。
ibrix_fm -m passive
注記: Fusion Manager を nofmfailover モードから active モードに移行することはで
きません。
j.
k.
6.
h までの手順を、バックアップサーバーコンポーネントについて繰り返します。この
例では、server1 を server2 に置き換えます。
i までの手順を、ファームウェアアップグレードを必要とする各ノードについて繰り
返します。
6.2 へとアップグレードする場合は、使用するアップグレードの種類に対応する、下表に
示す「アップグレード後」のセクションに記載されている手順を完了する必要がありま
す。
アップグレードの
種類
実行する手順が記載されているセクション
オンラインアップ 「アップグレード後」 (132 ページ)
グレード
148
自動オフライン
アップグレード
「アップグレード後」 (134 ページ)
手動オフライン
アップグレード
「アップグレード後」 (137 ページ)
ファームウェアのアップグレード
FMT に関する追加情報の参照
FMT に関する追加情報を、次の方法で参照できます。
•
FMT のオンラインヘルプ。 FMT のオンラインヘルプにアクセスするには、ファイルシス
テムノードコンソールに hpsp_fmt コマンドを入力します。
•
『HP HPSP_FMT User Guide』。 『HP HPSP_FMT User Guide』を参照するには、HP StoreAll
Storage Manuals ページにアクセスします。
http://www.hp.com/support/IBRIXManuals (英語)
9730 システムへのパフォーマンスモジュールの追加
IBRIX 9730 クラスターへのモジュールの取り付けについては『HP IBRIX 9730 Storage
Performance Module Installation Instructions』をご覧ください。 モジュール内のブレードに IBRIX
ソフトウェアをインストールする方法については、『HP IBRIX 9000 Storage インストールガ
イド』 をご覧ください。 これらの文書は IBRIX のマニュアルページに掲載されています。
http://www.hp.com/ support/manuals (英語) を参照してください。 ストレージのセクション
で [NAS Systems] を選択し、IBRIX Storage Systems セクションで [HP 9000 Storage] を選択して
ください。
9720 システムへの新しいサーバーブレードの追加
注記: この手順には Quick Restore DVD が必要です。 詳細については、第16章 「9720/9730
ストレージの復旧」を参照してください。
1.
ブレードシャーシの前面の、次に利用可能なサーバーブレードベイから、ブランクを取り
外します。
2.
サーバーブレードを取り付ける準備をします。
3.
サーバーブレードを取り付けます。
ファームウェアのアップグレードの手順
149
4.
5.
6.
サーバーブレードにソフトウェアをインストールします。 これには Quick Restore DVD を
使用します。 詳細については、第16章 「9720/9730 ストレージの復旧」を参照してく
ださい。
フェイルオーバーを設定します。 詳細については、『HP IBRIX 9000 Storage File System
ユーザーガイド』を参照してください。
サーバー 1 で次のコマンドを実行し、高可用性 (自動フェイルオーバー) を有効にします。
# ibrix_server –m
7.
サーバーブレード上のストレージを検出します。
ibrix_pv -a
8.
サーバーブレードのヘルス監視を有効にするには、まずベンダーストレージを登録から外
します。
ibrix_vs -d -n <vendor storage name>
次に、ベンダーストレージを再登録します。 コマンド内の <sysName> は、たとえば x710
などです。 <hostlist> は、X710s[2–4] などの角括弧内の範囲を指します。
ibrix_vs -r -n <sysName> -t exds 172.16.1.1 -U exds -P <password>
-h <hostlist>
9.
150
他のサーバーでその他のカスタマイズを行った場合は、新たに取り付けたサーバーにそれ
を適用する必要がある場合があります。
ファームウェアのアップグレード
15 トラブルシューティング
Ibrix Collect を使用した HP サポート用情報の収集
Ibrix Collect は、ログ収集ユーティリティです。システムの問題が発生した場合、このツール
を使用して関連情報を収集し、HP サポートによる診断に使用することができます。 収集は、
GUI または CLI を使用して手動でトリガーできます。または、システムクラッシュ時に自動的
にトリガーすることも可能です。 Ibrix Collect では、以下の情報が収集されます。
•
特定のオペレーティングシステムおよび IBRIX コマンドの結果とログ
•
クラッシュダイジェスターの結果
•
収集されたログの概要 (エラー/例外/障害メッセージなど)
•
クラスターに接続している LHN および MSA ストレージから収集した情報
注記: 6.0 より前のバージョンの IBRIX ソフトウェアからクラスターをアップグレードした場
合、ibrix_supportticket コマンドを使用して収集したサポートチケットは削除されます。
アップグレードを実行する前に、/admin/platform/diag/supporttickets ディレクトリ
からアーカイブファイル (.tgz) のコピーをダウンロードしてください。
ログの収集
GUI を使用してログおよびコマンドの結果を収集するには、次の手順を実行します。
1. [Cluster Configuration] を選択して、次に [Data Collection] を選択します。
2. [Collect] をクリックします。
3.
データは、各ノードローカルの /local/ibrixcollect 下の圧縮アーカイブファイル
<nodename>_<filename>_<timestamp>.tgz に格納されます。
収集されたデータが含まれる zip ファイルの名前を入力します。 この zip ファイルのデ
フォルトの保存場所は、アクティブな Fusion Manager ノード上の /local/
ibrixcollect/archive です。
Ibrix Collect を使用した HP サポート用情報の収集
151
4.
[OK] をクリックします。
CLI を使用してログおよびコマンドの結果を収集するには、次のコマンドを実行します。
ibrix_collect –c –n NAME
注記:
手動により同時に収集できるデータは、1 件のみです。
注記: ノードがシステムクラッシュから復元されると、/var/crash/<timestamp> ディレ
クトリ下の vmcore が処理されます。 処理が行われると、このディレクトリの名前が /var/
crash/<timestamp>_PROCESSED に変更されます。 HP Support は、システムクラッシュの
解決を支援するために、この情報の送信を依頼する場合があります。
注記: クラッシュダンプは、/var/crash ディレクトリで保管することをお勧めします。
Ibrix Collect は、/var/crash ディレクトリ (/local/platform/crash へリンクしている)
内に存在するコアダンプのみを処理します。 また、このディレクトリを監視して、不要な処理
済みクラッシュを削除することをお勧めします。
アーカイブファイルの削除
GUI または CLI を使用して、特定のデータ収集を削除したり、すべての収集を同時に削除した
りできます。
GUI を使用して特定のデータ収集を削除するには、削除する収集を選択して [Delete] をクリッ
クします。 ローカルで保存されている zip ファイルおよび tgz ファイルが各ノードから削除
されます。
すべての収集を削除するには、[Delete All] をクリックします。
CLI を使用して特定のデータ収集を削除するには、次のコマンドを使用します。
ibrix_collect –d –n NAME
同時に削除する複数の収集を CLI を通じて指定するには、名前をセミコロンで区切って指定し
ます。
CLI を通じてすべてのデータ収集を手動で削除するには、次のコマンドを使用します。
ibrix_collect –F
アーカイブファイルのダウンロード
データが収集されると、圧縮アーカイブファイルが作成され、/local/ibrixcollect/
archive ディレクトリ下の zip アーカイブファイル (.zip) に格納されます。 収集されたデー
タを自分のデスクトップにダウンロードするには、Fusion Manager で収集を選択して [Download]
をクリックします。
152
トラブルシューティング
注記:
一度にダウンロードできるのは 1 つの収集のみです。
注記: アーカイブファイルの平均サイズはクラスター内の各ノードに存在するログのサイズ
に応じて異なります。
注記: この最終的な zip ファイルは、将来 HP サポートに送信するように求められる場合があ
ります。 最終的な zip ファイルは、電子メールで受信する zip ファイルと同じではありませ
ん。
Ibrix Collect の設定
システムのクラッシュ時にデータ収集が自動的に行われるように設定することができます。 こ
の収集にはさらに、クラッシュダイジェスター出力も含まれます。 システムクラッシュにより
トリガーされた収集のファイル名は、<timestamp>_crash_<crashedNodeName>.zip の
形式となります。
1. システムクラッシュ後の自動データ収集の有効化または無効化、および保管されるデータ
セット数の設定を行うには、次の手順を実行します。
a. [Cluster Configuration] を選択して、次に [Ibrix Collect] を選択します。
b. [Modify] をクリックすると次のダイアログボックスが表示されます。
c.
d.
[General Settings] で、ボックスを適宜選択または選択解除して、自動収集の有効化ま
たは無効化を行います。
クラスターに保管されるデータセット数をテキストボックスに入力します。
CLI を使用して自動データ収集の有効化または無効化を行うには、次のコマンドを使用し
ます。
ibrix_collect –C –a <Yes\No>
CLI を使用してクラスターに保管されるデータセット数を設定するには、次のコマンドを
使用します。
ibrix_collect -C -r NUMBER
2.
各データ収集イベントの発生後に自分のデスクトップに送信する、各ノードの収集情報の
概要が含まれる電子メールを設定するには、次の手順を実行します。
a. [Cluster Configuration] を選択して、次に [Ibrix Collect] を選択します。
Ibrix Collect を使用した HP サポート用情報の収集
153
b.
c.
d.
[Modify] をクリックします。
[Email Settings] で、ボックスを適宜選択または選択解除して、電子メールによるクラ
スター構成の送信を有効化または無効化します。
クラスター構成送信のための残りの必須フィールドに情報を入力して [OK] をクリッ
クします。
CLI を使用してクラスター構成を送信する電子メールを設定するには、次のコマンドを使用し
ます。
ibrix_collect –C –m <Yes\No> [–s <SMTP_server>] [–f <From>] [–t <To>]
注記: -t オプションには、セミコロンで区切ることにより複数の電子メール ID を指定でき
ます。
この SMTP サーバー用の「From」および「To」コマンドは、Ibrix Collect 固有のものです。
データ収集情報の表示
CLI を通じてデータ収集履歴を表示するには、次のコマンドを使用します。
ibrix_collect –l
日付 (作成の)、サイズ、説明、状態およびイニシエーターなどのデータ収集の詳細情報を表示
するには、次のコマンドを使用します。
ibrix_collect –v –n <Name>
データ収集構成情報の表示
データ収集構成情報を表示するには、次のコマンドを使用します。
ibrix_collect –i
XML ファイル内のコマンドまたはログの追加/削除
収集されるログ、またはデータ収集中に実行されるコマンドを追加または変更するには、Ibrix
Collect xml ファイルを修正します。このファイルは、/usr/local/ibrix/ibrixcollect
ディレクトリに格納されています。
データの収集時に実行される コマンドおよび収集されるログは、/usr/local/ibrix/
ibrixcollect ディレクトリの以下のファイル内に保管されています。
•
fm_summary.xml – Fusion Manager ノードに関連するコマンド
•
ss_summary.xml – ファイルサービングノードに関連するコマンド
•
common_summary.xml – Fusion Manager およびファイルサービングノードに共通なコマ
ンドおよびログ
注記: これらの XML ファイルの修正は、慎重に行ってください。 修正時に 1 つでもタグが
失われると、Ibrix Collect が正しく動作しなくなる可能性があります。
9720 システムのトラブルシューティング
9720 システムでのトラブルシューティングは、次の手順で行ってください。
1. exds_stdiag ストレージ診断ユーティリティを実行します。
2. 結果を評価します。
3. HP サポートに問題を報告するには、問題の報告を参照してください。
問題の報告
9720 Storage エスカレーションツールは、システム状態のレポートを作成します。 HP テクニ
カルサポートに問題を報告する場合、必ずエスカレーションレポートを求められるため、あら
かじめレポートを含めておくと時間の節約になります。
154 トラブルシューティング
以下の例に示すように、exds_escalate コマンドを実行します。
[root@glory1 ~]# exds_escalate
エスカレーションツールでは、root パスワードを必要とする操作があります。 要求時に root
パスワードを入力できるようご準備ください。
便利なオプションがいくつかありますが、通常はオプションなしで実行できます。 -h オプショ
ンは、利用可能なオプションを表示します。
エスカレーションコマンドには、通常長時間 (20 分以上) 必要です。
エスカレーションツールが終了すると、レポートを作成し、/exds_glory1_escalate.tgz.gz
などのファイルに保存します。 このファイルを別のシステムにコピーし、HP サービスに送信
してください。
便利なユーティリティとプロセス
exds_stdiag ユーティリティ
exds_stdiag ユーティリティは、IBRIX 9720 Storage に付属の SAS ストレージインフラスト
ラクチャを調査します。 このユーティリティは単一のサーバー上で実行されます。 SAS ファ
ブリック全体が接続されているため、exds_stdiag は、それを実行するサーバーから、すべ
てのストレージデータにアクセスできます。
exds_stdiag ユーティリティでの SAS ファブリックの調査では、以下の項目を含むチェック
を行います。
•
各ディスクと LUN に 1 つ以上のパスがあること。
•
各パスでデバイスが同じ順序であること。 これによりケーブル接続の問題 (ケーブルの逆
接続など) を検出します。
•
ディスクの欠損または不良。
•
論理ディスク (RAID セット) の破損。
•
ファームウェアのリビジョン。
•
不良バッテリーの報告。
exds_stdiag ユーティリティは、マップと呼ばれるストレージレイアウトの概要を示すレ
ポートを印刷します。 それからマップを分析し、実行した各チェックに関する情報を印刷しま
す。 アスタリスク (*) で始まる行は、問題を示しています。
exds_stdiag ユーティリティは、ユーティリティファイルシステムにアクセスしないため、
ストレージの問題でユーティリティファイルシステムをマウントできない場合でも実行できま
す。
構文は次のとおりです。
# exds_stdiag [--raw=<filename>]
--raw=<filename> オプションでは、ツールが収集した raw データを、HP サポート窓口な
どによるオフラインでの分析に適した形式で、指定のファイルに保存します。
この出力結果の典型的な例を次に示します。
[root@kudos1 ~]# exds_stdiag
ExDS storage diagnostic rev 7336
Storage visible to kudos1 Wed 14 Oct 2009 14:15:33 +0000
node 7930RFCC
BL460c.G6
fw I24.20090620
cpus 2 arch Intel
hba
5001438004DEF5D0 P410i in 7930RFCC
fw 2.00
boxes 1 disks 2 luns 1
batteries 0/cache 9720 システムのトラブルシューティング
155
hba
PAPWV0F9SXA00S
P700m in 7930RFCC
fw 5.74
boxes 0 disks 0 luns 0
batteries 0/cache switch HP.3G.SAS.BL.SWH in 4A fw 2.72
switch HP.3G.SAS.BL.SWH in 3A fw 2.72
switch HP.3G.SAS.BL.SWH in 4B fw 2.72
switch HP.3G.SAS.BL.SWH in 3B fw 2.72
ctlr P89A40A9SV600X
ExDS9100cc in 01/USP7030EKR slot 1
fw 0126.2008120502
boxes 3 disks 80 luns 10
batteries 2/OK cache OK
box 1 ExDS9100c sn USP7030EKR fw 1.56 temp OK fans OK,OK,OK,OK power OK,OK
box 2 ExDS9100cx sn CN881502JE fw 1.28 temp OK fans OK,OK power OK,OK,OK,OK
box 3 ExDS9100cx sn CN881502JE fw 1.28 temp OK fans OK,OK power OK,OK,OK,OK
ctlr P89A40A9SUS0LC
ExDS9100cc in 01/USP7030EKR slot 2
fw 0126.2008120502
boxes 3 disks 80 luns 10
batteries 2/OK cache OK
box 1 ExDS9100c sn USP7030EKR fw 1.56 temp OK fans OK,OK,OK,OK power OK,OK
box 2 ExDS9100cx sn CN881502JE fw 1.28 temp OK fans OK,OK power OK,OK,OK,OK
box 3 ExDS9100cx sn CN881502JE fw 1.28 temp OK fans OK,OK power OK,OK,OK,OK
Analysis:
disk problems on USP7030EKR
* box 3 drive [10,15] missing or failed
ctlr firmware problems on USP7030EKR
* 0126.2008120502 (min 0130.2009092901) on ctlr P89A40A9SV600
exds_netdiag ユーティリティ
exds_netdiag ユーティリティでは、IBRIX 9720 Storage 内のネットワークコンポーネント
のテストとデータの取得を行います。 このユーティリティには次のような機能があります。
•
Ethernet インターコネクト障害の報告 (HP Blade Chassis Onboard Administrator により報
告された障害)
•
サイトのアップリンクの欠落、障害または低下の報告
•
サーバーブレードの NIC の欠落または障害
出力の例:
156
トラブルシューティング
exds_netperf ユーティリティ
exds_netperf ユーティリティでは、ネットワークパフォーマンスを測定します。 このツー
ルは、クライアントシステムと 9720 Storage の間のパフォーマンスを測定します。 システム
を最初に設置したときにこのテストを実施してください。 ネットワークが正常に動作している
場合は、パフォーマンス結果はそのネットワークに期待されるリンク速度と一致します (1– link
につきおよそ 90 MB/秒)。その他のときにも、パフォーマンスが低下しているか判断するため
にテストを実行できます。
exds_netperf ユーティリティでは、2 つのモードでストリーミングのパフォーマンスを測
定します。
•
シリアル — ストリーミング I/O が、各ネットワークインターフェイスで順番に実行され
ます。 exds_netperf が実行されているホストは、テストを受けているクライアントで
す。
•
パラレル — ストリーミング I/O が、すべてのネットワークインターフェイスで同時に実
行されます。 このテストは複数のクライアントで行います。
シリアルテストはポイントツーポイントのパフォーマンスを測定します。 パラレルテストは、
ネットワークインフラストラクチャのより多くのコンポーネントを測定するため、シリアルテ
ストでは発見できない問題を見つけられる場合があります。 パラレルテストの全体のスルー
プットは、クライアントのネットワークインターフェイスに制限されることに注意してくださ
い。
テストは次のように実行されます。
•
/opt/hp/mxso/diags/netperf-2.1.p13 の内容を、x86_64 クライアントホストに
コピーします。
•
テストスクリプトを、テストを実行する 1 つのクライアントにコピーします。 必要なス
クリプトは、/opt/hp/mxso/diags/bin ディレクトリの exds_netperf、
diags_lib.bash および nodes_lib.bash です。
•
exds_netserver -s <server_list> を実行し、各 9720 Storage サーバーブレード
のテストのためにレシーバーを起動します。次に例を示します。
exds_netserver -s glory[1-8]
•
README.txt ファイルで exds_netperf 構築の説明を読み、exds_netperf を構築お
よびインストールします。 テストに使用する予定のすべてのクライアントにインストール
してください。
•
クライアントのホスト上で、各 9720 Storage サーバーに対し、順番に exds_netperf
をシリアルモードで実行します。 たとえば、eth2 アドレスが 16.123.123.1 および
16.123.123.2 の 2 つのサーバーがある場合、次のコマンドを使用します。
# exds_netperf --serial --server “16.123.123.1 16.123.123.2”
•
クライアントのホスト上で、次の例に示すように、exds_netperf をパラレルモードで
実行します。 この例では、"blue"、"red"の 2 つのホストがテストを受けるクライアント
です (exds_netperf 自体は、これらのホストのいずれかまたは別のホストの場合があり
ます)。
# exds_netperf --parallell \
--server “16.123.123.1,16.123.123.2” \
--clients “red,blue”
通常、使用する IP アドレスはホストインターフェイスの IP アドレス (eth2、eth3 など) です。
9720 システムのトラブルシューティング
157
Onboard Administrator へのアクセス
ネットワーク経由で OA にアクセス
CLI を持つ OA は、ssh を使ってアクセスできます。 OA のアドレスは、/etc/hosts に自
動的に含まれます。 名称は <systemname>-mp です。 たとえば、 glory と呼ばれるシステ
ムの OA に接続するには、次のコマンドを使用します。
# ssh exds@glory-mp
OA の Web ベースの管理インターフェイスにアクセス
OA にはまた、Web ベースの管理インターフェイスがあります。 OA の IP アドレスは管理
ネットワーク上にあるため、システムの外から直接アクセスすることはできません。 ssh で
トンネリングし、OA にアクセスします。 たとえば、putty などのパブリックドメインツー
ルを使用して、ローカルポート (8888 など) を構成し、リモートサーバー上の
<systemname>-mp:443 に転送します。 たとえば、 glory と呼ばれるシステムの場合、リ
モートの宛先を glory-mp:443 と設定します。そして、デスクトップから glory にログインし
ます。 デスクトップで、ブラウザーに https://localhost:8888 を指定すると、OA に接続でき
ます。
Linux システムでは、これは次のコマンドに相当します。
# ssh glory1 -L 8888:glory-mp:443
ただし、お使いの Linux ブラウザーが OA に対応していない場合があります。
シリアルポート経由で OA にアクセス
各 OA にはシリアルポートがあります。 このポートでターミナルコンセントレーターに接続
できます。 これにより、すべてのサーバーの電源が切れている場合にシステムにリモートアク
セスできます。 シリアルポート経由で、すべての OA コマンドと機能を利用できます。 ログ
インには、管理者または 9720 Storage のユーザー名を使用します。
付属のドングルを使って、ブレードから OA のシリアルポートにアクセスすることもできま
す。 この方法は、VC ネットワークの構成を誤り、ネットワーク経由で OA にアクセスできな
い場合に利用できます。 シリアルポートには次の手順でアクセスしてください。
1. ブレードの前面にドングルを接続します。
2. OA のシリアルポートとドングルのシリアルコネクターを、シリアルケーブルで接続しま
す。
3. TFT キーボード/マウス/モニターでサーバーにログインします。
4. 次のように minicom を実行します。
# Mincom
[Ctrl-A] を押し、次に [p] を押します。 Comm Parameters メニューが表示されます。
9600 baud を選択します。
[Enter] を押して、この項目を保存します。
[Ctrl-A] を押し、次に [m] を押して、モデムを再初期化します。 これで OA のシリアルイ
ンターフェイスに接続した状態です。
9. [Enter] キーを押します。
10. 終わったら、[Ctrl-A] を押し、次に [q] を押して minicom を終了します。
5.
6.
7.
8.
サービスポート経由で OA にアクセス
各 OA にはサービスポートがあります (OA の一番右側の Ethernet ポートがこれにあたります)。
これにより、ラップトップコンピューターを使って OA のコマンドラインインターフェイスに
アクセスできます。 ラップトップコンピューターをサービスポートに接続する方法について
は、『HP BladeSystem c7000 エンクロージャセットアップ/インストレーションガイド』を参
照してください。
158
トラブルシューティング
hpacucli の使用 – アレイコンフィギュレーションユーティリティ (ACU)
hpacucli コマンドは、X9700c コントローラーに対するコマンドラインインターフェイスで
す。 また、E200i および P700m コントローラーの構成にも使用できます (ただし HP では推
奨しません)。
9720 キャパシティブロックは構成済みで提供されますが、 LUN の構成が必要なときに
hpacucli ユーティリティを利用できます。 また、これによりアレイの状態を確認すること
もできます。
hpacucli は、システム内のいずれのサーバーでも使用できます。 hpacucli の複数コピー
を (別々のサーバーで) 同時に開始することは止めてください。
注意:
HP サポートの指示がない限り、LUN を作成しないでください。
POST エラーメッセージ
サーバーのエラーメッセージについては、http://www.hp.com/support/manuals (英語) にある
『HP ProLiant サーバートラブルシューティングガイド』の「POST エラーメッセージおよび
ビープコード」を参照してください。日本語版が用意されているマニュアルは、
http://www.hp.com/jp/manual/ (日本語) から入手できます。
IBRIX 9730 コントローラーエラーメッセージ
システム起動中にコントローラーの電源が入らない場合は、POST に表示されるロックアップ
コードを HP サポートに連絡してください。
下表にロックアップコードの一覧を示します。 1 文字目はロックアップタイプ (C、H または
F) です。 2 文字目は 1 または 2 で、コントローラーが自身をマスターとスレーブのどちらと
して認識しているかにより異なります。 最後の 2 文字がコードです。
ロックアップコード
説明
Cn01
ハードウェアがサポートされていない
Cn03
ファームウェアがサポートされていない
Cn04
メモリモジュールの不適合
Cn05
コントローラーがハードウェアから位置ストリングを受信しなかった
Cn10
TBM が取り付けられていない、または検出されない
Cn11
TBM が SAS2 ゾーニングを正常に構成できなかった
Fn00
ヒープ領域のメモリ不足
Fn01
ファームウェアアサーション
Fn10
TLB エントリーに無効な値がある
Fn11
無効な TLB レジスターにアクセスしようとした
Fn12
TLB エントリーのサイズが無効
Fn13
利用可能な仮想アドレススペースがない
Fn14
TLB テーブルにエントリーがない
Fn20
不明な DCR レジスター
Fn21
スタックポインターが NULL である
Fn22
スレッドを作成できなかった
Fn24
OS サービスへのコールに失敗した
Fn25
出力するストリングが長すぎる
POST エラーメッセージ
159
ロックアップコード
説明
Fn26
OpProc 状態の変更中に不良状態が見られた
Fn27
BMIC Inject Faults コマンドを受信した
Fn28
他のコントローラーから Valid RIS を受信しなかった
Fn29
CLI コードの致命的エラー
Fn30
DMA 転送が失敗
Fn31
DMA 要求が失敗
Fn32
DMA CDB が無効
Fn40
発信側が存在しない PCI コアを指定した
Fn41
PCI デバイスの数が上限を超えている
Fn51
NVRAM セットのデフォルトフラグをクリアできなかった
Fn52
致命的な例外が発生した
Fn53
ファームウェアイメージがロードに失敗
Fn54
ファームウェアがメモリの初期化に失敗
Fn60
SAS: ホストクレジットへの再ポスト時の不具合
Fn61
SAS: 予期せぬ IOC ステータスが返された
Fn62
SAS: DevHandle 値が再使用された
Fn67
SAS: JBOD hotplug がサポートされていない
Fn68
SAS: ターゲットリソースが割り当てられていない
Fn69
SAS: イニシエーターが多すぎる
Fn70
無効なファームウェアをクローンした
Hn00
DMA 操作が失敗
Hn01
XOR 診断が失敗
Hn02
DMA ハードウェアの問題
Hn10
リモートデバイス、I/O スペースが上限を超えている
Hn11
トータルの PCI アドレススペースを越えた
Hn12
不正なエンドポイントがある
Hn13
HLDPLB ビット用の不良コアリセット状態
Hn14
RSTGU ビット用の不良コアリセット状態
Hn15
RDY ビット用の不良コアリセット状態
Hn16
RSTDL ビット用の不良コアリセット状態
Hn17
RSTPYN ビット用の不良コアリセット状態
Hn18
SHUTDW ビット用の不良コアリセット状態
Hn19
コアリンク幅が無効
Hn20
PCI-X 不良
Hn21
ICL の故障
Hn30
致命的な ECC エラー
Hn31
OS が致命的エラーを検出した
160 トラブルシューティング
ロックアップコード
説明
Hn32
未処理の割り込み
Hn34
PLL がロックに失敗
Hn35
予期しない割り込み
Hn36
I2C ハードウェアの故障
Hn45
Post メモリテストの失敗 (LOCKUP)
Hn46
Post メモリチューニングの失敗 (LOCKUP)
Hn47
Post: メモリがない (LOCKUP)
Hn48
Post: サポートされていないメモリ (LOCKUP)
Hn49
Post: 無効なメモリ SPD データ (LOCKUP)
Hn50
Post: PLB バスエラー (LOCKUP)
Hn60
SAS チップタイムアウト
Hn61
SAS コアが無効なフレームタイプを受信した
Hn62
SAS コアが無効なアドレス回答を受信した
Hn63
SAS コアの割り込みが滞っている
Hn64
SAS コアの障害が疑われる (LOCKUP)
Hn65
SAS コアが応答していない (HANG)
Hn66
SAS コアが意図的に停止された
Hn67
SAS エキスパンダーの不良が疑われる
Hn68
SAS コアが無効な I/O インデックスを報告した
Hn70
EMU: サーマルシャットダウンの危険
Hn71
EMU: ファン故障によるサーマルシャットダウン
IBRIX 9720 LUN レイアウト
ここに示す LUN レイアウトは、トラブルシューティングを目的としたものです。
1 TB HDD のキャパシティブロックの場合:
•
2x 1 GB LUN— これらは X9100 によりメンバーシップパーティションに使われ、9720
では後方互換性のために維持されます。 お客様が適当だとみなす場合はそれらを使用でき
ますが、パフォーマンスに制限があるため、HP では通常のデータストレージに使用する
ことを推奨していません。
•
1x 100 GB LUN— これは、バックアップなど管理者用に準備されています。 これらのディ
スクの帯域幅は、上述の 1 GB LUN と下記のデータ LUN の 1 つで共有しています。
•
8x~8 TB LUN— これらは製品のメインデータストレージとして使用されます。 RAID6 構
成でそれぞれ 10 個のディスクがサポートしており、最初の LUN は、そのディスクを上述
の 3 つの LUN と共有しています。
2 TB HDD のキャパシティブロックの場合:
•
1 GB および 100 GB LUN は上記と同じです。
•
16x~8 TB LUN— これらは製品のメインデータストレージとして使用されます。 LUN の
各ペアは、RAID6 構成でそれぞれ 10 個のディスクがサポートしています。 最初の LUN
は、そのディスクを上述の 3 つの LUN と共有しています。
IBRIX 9720 LUN レイアウト
161
IBRIX 9720 コンポーネントの監視
システムは、システム内の次のコンポーネントをアクティブに監視します。
•
ブレードシャーシ: 電源、ファン、ネットワークモジュール、SAS スイッチ、Onboard
Administrator モジュール
•
ブレード: ローカルハードドライブ、9100cc コントローラーへのすべてのアクセス
•
9100c: 電源、ファン、ハードドライブ、9100cc コントローラーおよび LUN ステータス
•
9100cx: 電源、ファン、I/O モジュールおよびハードウェアドライブ
これらのコンポーネントのいずれかが故障すると、イベントが発生します。 Events の構成内容
により、各イベントが E メールか SNMP トラップを生成します。 コンポーネントの中には、
故障時に複数のイベントを生成するものがあります。 故障したコンポーネントは ibrix_vs
-i の出力で報告され、故障したストレージコンポーネントは ibrix_health -V -i の出力
で報告されます。
X9700cx シャーシ上の故障 I/O モジュールの特定
X9700cx の I/O モジュール (またはそれに接続されている SAS ケーブル) が故障した場合、そ
の I/O モジュールに取り付けられている X9700c コントローラーが再起動します。I/O モジュー
ルがすぐに回復しない場合、X9700c コントローラーは停止状態になります。 X9700cx の I/O
モジュールは 2 つあるため、どちらの I/O モジュールが故障したのかすぐにはわかりません。
さらに、X9700c コントローラーは他の理由でも停止したり故障したように見える場合があり
ます。 本書では、故障条件が X9700cx の I/O モジュールにあるのか他にあるのかを特定する
方法について説明します。
故障の表示
故障または停止した X9700c コントローラーは、次のように多くの方法で示されます。
•
9720 システムで、exds_stdiag レポートが故障または停止した X9700c コントローラー
を表示。
•
E メールによる警告。
•
GUI で、影響を受けるキャパシティブロックにある論理ボリュームが警告を表示。
•
X9700c コントローラーの黄色の障害 LED が点滅。
•
7 セグメントディスプレイが H1、H2、C1 または C2 コードを表示。 2 番目の数字が問
題のコントローラーを示します。 たとえば、H1 はコントローラー 1 (背面から見て左の
コントローラー) に問題があることを示します。
故障したコンポーネントの特定
重要: X9700cx の I/O モジュールの交換では、事前にインストールされたファームウェアの
バージョンが誤っている場合があります。 X9700cx の I/O モジュールは、ファームウェア
バージョンが混在していると動作しません。 新しい X9700cx I/O モジュールを挿入する前
に、システムのダウンタイムを考慮してください。
1.
162
SAS スイッチが、正しいコントローラーおよび I/O モジュールに接続されていることを
検証します。 下の配線図は、SAS ケーブルの正しい配線を示しています。
トラブルシューティング
1.
X9700c
2.
X9700cx プライマリ I/O モジュール (ドロアー 2)
3.
X9700cx セカンダリ I/O モジュール (ドロアー 2)
4.
X9700cx プライマリ I/O モジュール (ドロアー 1)
5.
X9700cx セカンダリ I/O モジュール (ドロアー 1)
上図のように、X9700c コントローラー 1 (左) はプライマリ (最上部) X9700cx I/O モ
ジュールに接続され、コントローラー 2 (右) はセカンダリ (最下部) I/O モジュールに接続
されています。 可能であれば、SAS ケーブルをたどってシステムが正しく配線されてい
るか確認してください。
2.
7 セグメントディスプレイを確認し、該当する場合は次の事項にご注意ください。
•
7 セグメントディスプレイが「on」と表示していれば、X9700c コントローラーは動
作可能です。
•
7 セグメントディスプレイが「on」と表示していても、本書ですでに説明したような
パスエラーがある場合は、X9700c コントローラーと、ブレードシャーシ内の SAS ス
イッチを接続している SAS ケーブルに問題がある場合があります。 SAS ケーブルを
交換し、exds_stdiag コマンドを実行してください。2 つのコントローラーについ
て報告されます。 または、SAS ケーブルを、SAS スイッチの別のポートに接続して
みてください。
•
7 セグメントディスプレイが「on」と表示しない場合、アルファベットのコードを表
示します。 数字は問題のあるコントローラーを示しています。 たとえば「C1」は、
コントローラー 1 (左のコントローラー) に問題があることを示しています。 7 セグメ
ントディスプレイの横の下向きボタンを押してください。 2 桁の数字がディスプレイ
に表示されます。 次の表ではコードについて説明します。 n は、影響を受けるコン
トローラーによって 1 または 2 になります。
コード
説明
次の手順
Hn 67
X9700cx I/O モジュールに接続上の問題が 次の手順に進みます。
あるため、コントローラー n が停止してい
ます。
Cn 02
X9700cx I/O モジュールに接続上の問題が 次の手順に進みます。
あるため、コントローラー n が停止してい
ます。
その他の
コード
X9700c コントローラーに不具合がありま
す。 X9700cx またはコントローラーと I/O
モジュールを接続している SAS ケーブルに
は不具合がありません。
本書で後述するようにコントローラーを取り付け
直してください。不具合が解消されない場合は、
HP サポートに報告して交換用のコントローラーを
入手してください。
X9700cx シャーシ上の故障 I/O モジュールの特定
163
3.
停止した X9700c コントローラーと X9700cx I/O モジュールを接続している SAS ケーブ
ルを確認します。 SAS ケーブルの両端を取り外し、再度挿入します。 特に、SAS ケーブ
ルが I/O モジュールに確実に挿入されていることと、X9700cx I/O モジュールの最下部
のポートが使用されていることを確認してください。
ケーブルに明らかな損傷が見られる場合は、SAS ケーブルを交換してください。
4.
停止した X9700c コントローラーを取り付け直します。
a. コントローラーを、確実にはまるまでシャーシ内に完全に押し込みます。
b. c-Class ブレードエンクロージャー内で X9700c と SAS スイッチを接続する SAS ケー
ブルを再度取り付けます。 これはポート 1 につなぎます。
コントローラーが起動するのを待ち、7 セグメントディスプレイを確認します。
5.
6.
7.
•
7 セグメントディスプレイが「on」と表示していれば、不具合は訂正され、システム
は通常に戻っています。
•
7 セグメントディスプレイが依然として Hn 67 または Cn 02 コードを表示する場合
は、次の手順に進んでください。
この段階で、問題が X9700cx I/O モジュールにあることが特定されました。 不具合が最
上部のモジュールにあるのか最下部のモジュールにあるのかを判断します。 たとえば、7
セグメントディスプレイが C1 02 と表示する場合、不具合はプライマリ (最上部) I/O モ
ジュールの 1 つにある可能性があります。
GUI を使用して、すべてのファイルシステムをアンマウントします。 詳細については、
『HP IBRIX 9000 Storage File System ユーザーガイド』を参照してください。
I/O モジュールの LED を確認します。 I/O モジュールの LED が黄色の場合、次の手順を
実行してください。
a. 次の手順で I/O モジュールを交換します。
a. I/O モジュールと X9700c コントローラーを接続している SAS ケーブルを取り
外します。
b. ディスクドロアーが完全に押し込まれ、ロックされていることを確認します。
c. I/O モジュールを取り外します。
d. 新しい I/O モジュールに交換します (ディスクドロアーが完全に押し込まれてい
ないと、ドロアーにはまりません)。
e. SAS ケーブルを再度取り付けます。 確実に「IN」ポート (最下部のポート) に取
り付けてください。
b.
c.
8.
下記の「X9700c コントローラーの取り付け直し」の説明に従って、コントローラー
1 を取り付け直します。
コントローラーが起動するのを待ち、7 セグメントディスプレイを確認します。
•
7 セグメントディスプレイが「on」と表示していれば、不具合は訂正され、シス
テムは通常に戻っています。手順 11 に進んでください。
•
7 セグメントディスプレイが依然として Hn 67 または Cn 02 コードを表示する
場合は、次の手順に進んでください。
黄色 LED が点灯していなくても、I/O モジュールの 1 つが故障している場合があります。
次の手順で I/O モジュールを 1 つずつ交換してください。
a. 左 (手順 4 で識別された最上部か最下部) の I/O モジュールを取り外し、次の手順で
新しいモジュールと交換します。
a. I/O モジュールと X9700c コントローラーを接続している SAS ケーブルを取り
外します。
b. ディスクドロアーが完全に押し込まれ、ロックされていることを確認します。
c. I/O モジュールを取り外します。
d. 新しい I/O モジュールに交換します (ディスクドロアーが完全に押し込まれてい
ないと、ドロアーにはまりません)。
164 トラブルシューティング
e.
b.
c.
d.
e.
f.
g.
h.
SAS ケーブルを再度取り付けます。 確実に「IN」ポート (最下部のポート) に取
り付けてください。
下記の「X9700c コントローラーの取り付け直し」の説明に従って、適切な X9700c
コントローラーを取り付け直します。
コントローラーが起動するのを待ちます。
•
7 セグメントディスプレイが「on」と表示していれば、不具合は訂正され、シス
テムは通常に戻っています。手順 11 に進んでください。
•
7 セグメントディスプレイが依然として Hn 67 または Cn 02 コードを表示する
場合は、次の手順に進んでください。
不具合が解決しない場合は、左の I/O モジュールを取り外し、元の I/O モジュール
を再度挿入します。
下記の「X9700c コントローラーの取り付け直し」の説明に従って、適切な X9700c
コントローラーを取り付け直します。
コントローラーが起動するのを待ちます。
•
7 セグメントディスプレイが「on」と表示していれば、不具合は訂正され、シス
テムは通常に戻っています。手順 11 に進んでください。
•
7 セグメントディスプレイが依然として Hn 67 または Cn 02 コードを表示する
場合は、次の手順に進んでください。
不具合が解決しない場合は、右の I/O モジュールを取り外し、新しい I/O モジュー
ルと交換します。
下記の「X9700c コントローラーの取り付け直し」の説明に従って、適切な X9700c
コントローラーを取り付け直します。
7 セグメントディスプレイが「on」と表示していれば、exds_stdiag コマンドを実行
し、exds_stdiag で両コントローラーが見えることを確認します。
10. この段階で不具合が解決しない場合は、二重故障の可能性があります (つまり 2 つの I/O
モジュールの故障)。 または、いずれかの SAS ケーブルの不具合の可能性があります。
HP サポートの支援で不具合を特定してください。 次のように exds_escalate コマンド
を実行し、HP サポートが使用するエスカレーションレポートを作成します。
9.
# exds_escalate
11. この段階で、X9700cx I/O モジュールは交換されています。 I/O モジュールのファーム
ウェアを、9720 Storage に含まれるバージョンに変更してください。
a. 次のコマンドを使ってアレイのシリアル番号を識別します。
exds_stdiag
b.
X9700cx I/O モジュールのファームウェアアップデートコマンドを実行します。
# /opt/hp/mxso/firmware/exds9100cx_scexe –s
コマンドは一時停止してシステム構成を収集します。これには、大規模なシステムで
数分かかります。 それからアレイのシリアル番号を表示し、更新するかどうか確認し
ます。 表示されたシリアル番号が更新するアレイではない場合、[N] で「no」を選択
します。
コマンドにはシリアル番号が引き続き表示されます。 目的のアレイにたどり着いた
ら、[Y] を選択してファームウェアを更新します。
注記: 別のアレイで [Y] と答えてしまった場合は、通常どおりコマンドを終了させま
す。 上述のように I/O モジュールは保留状態なので、これによる悪影響はありませ
ん (また、I/O モジュールはすでに 9720 Storage に含まれるレベルになっているはず
です)。
c.
d.
アレイの更新後、[q] を入力して更新ユーティリティを終了します。
影響のある X9700c および X9700cx の電源ボタンを押して電源を切ります。
X9700cx シャーシ上の故障 I/O モジュールの特定
165
e.
キャパシティブロックに再度電源を投入します。 まず X9700cx の電源を入れ、次に
関連する X9700c の電源を入れます。 ファームウェアの更新は再起動中に実行され
るため、通常より再起動に時間がかかる場合があります (最大 25 分)。 すべての
X9700c エンクロージャーの 7 セグメントディスプレイが「on」になるまで待ってか
ら次に進みます。 X9700c の 7 セグメントディスプレイが 25 分後でも「on」に戻ら
ない場合、キャパシティブロック全体のパワーサイクル (電源を切ってから入れ直す)
を再度行ってください。
12. exds_stdiag コマンドを実行し、ファームウェアバージョンを確認します。 X9700cx
の両ドロアー (ボックス) でファームウェアが同じであることを確認してください。 次に
示すのは exds_stdiag 出力の例です。
...
ctlr P89A40C9SW705J
box 1
ExDS9100c
box 2
ExDS9100cx
box 3
ExDS9100cx
ExDS9100cc in 01/SGA830000M slot 1 fw 0126.2008120502 boxes 3 disks 22 luns 5
sn SGA830000M
fw 1.56 fans OK,OK,OK,OK temp OK power OK,OK
sn CN8827002Z
fw 1.28 fans OK,OK temp OK power OK,OK,FAILED,OK
sn CN8827002Z
fw 2.03 fans OK,OK temp OK power OK,OK,OK,OK
上の例では、アレイのシリアル番号 (ボックス 1) は SGA830000M です。 ボックス 2
(X9700cx の左のドロアー) のファームウェアレベルは 1.28 です。 ボックス 3 (右のドロ
アー) のファームウェアレベルは 2.03 です。 これは、ファームウェアレベルが同じでは
ないのでサポートされていません (手順 11 に示すとおり、ファームウェアを更新する必
要があります) 。
13. GUI を使って、手順 6 でアンマウントしたファイルシステムをマウントします。
X9700c コントローラーの取り付け直し
取り付け直すコントローラーが正しいことを確認してください。 黄色 LED の点滅と 7 セグメ
ントディスプレイの両方を確認する必要があります。 H1 または C1 コードはコントローラー
1 (左) の停止を示し、H2 または C2 コードはコントローラー 2 (右) を取り付け直す必要があ
ることを示します。
注記:
この手順の間に SAS ケーブルを取り外す必要はありません。
コントローラーを取り付け直すには、以下の手順を実行します。
1. コントローラーのつまみラッチを押し込んで、ラッチハンドルを下側に回転させます。
2. コントローラーを明らかに外れている状態まで引き出します (コントローラーを完全に取
り外す必要はありません)。
3. コントローラーが外れている状態で、SAS ケーブルが完全に挿入されていることを確認し
ます。
4. コントローラーをシャーシに完全に押し込んではめ込みます。
コントローラーが起動すると、7 セグメントディスプレイは異なるコードを表示します。 数分
後、7 セグメントディスプレイは一定の値を表示します (以前にファームウェアフラッシュユー
ティリティを実行している場合、最長 25 分かかります)。 値が「on」であればコントローラー
は正常に動作しています。 それ以外の場合は、「故障したコンポーネントの特定」 (162 ペー
ジ) を参照してください。
ソフトウェアのバージョン番号の表示
複数のホストについてバージョン情報を表示するには、次のコマンドを使用します。
ibrix_version -l [-h HOSTLIST]
ホストごとに次の情報が出力されます。
•
インストールされているファイルシステムのバージョン番号。
•
IAD およびファイルシステムモジュールのバージョン番号
•
オペレーティングシステムのタイプと OS カーネルのバージョン
166 トラブルシューティング
•
プロセッサーアーキテクチャー
-S オプションを含めると、すべてのファイルサービングノードについて、これらの情報が表
示されます。 -C オプションを含めると、すべての 9000 クライアントについて情報が表示さ
れます。
特殊なリリースやパッチをインストールしていない限り、File System 出力フィールドおよび
IAD/FS 出力フィールドに表示されるバージョン番号は、通常、一致します。 出力フィールド
に示されるバージョン番号が一致しておらず、不一致の理由が不明な場合は、HP サポートに
お問い合わせください。 不一致があると、クラスターの動作に影響が生じる可能性がありま
す。
特定の問題のトラブルシューティング
ソフトウェアサービス
ファイルサービングノードまたは Linux 9000 クライアントでサービスを開始できない
SELinux が有効化されている可能性があります。 SELinux の現在の状態を確認するには、
getenforce コマンドを使用します。 このコマンドが enforcing を返す場合は、次のいず
れかのコマンドを使用して SELinux を無効化します。
setenforce Permissive
setenforce 0
SELinux を永続的に無効化するには、SELinux の構成ファイル (/etc/selinux/config) を編
集し、SELINUX= パラメーターを permissive または disabled に設定します。 次のブー
ト時に SELinux が停止されます。
9000 クライアントの場合、クライアントが Fusion Manager に登録されていない可能性があ
ります。 クライアントの登録の詳細については、『HP IBRIX 9000 Storage インストールガイ
ド』 を参照してください。
フェイルオーバー
ストレージサブシステムの障害が原因で発生したフェイルオーバーからのフェイルバッ
クができない
自動フェイルオーバーがオンになっている場合にストレージサブシステムに障害が発生する
と、Fusion Manager がストレージサブシステムのフェイルオーバープロトコルを開始します。
これにより、セグメントのオーナーシップがプライマリサーバーからスタンバイに渡されたこ
とを記録するように構成情報データベースが更新されます。その後、スタンバイへのセグメン
トの移行が試行されます。 しかし、プライマリサーバーとスタンバイのどちらからもストレー
ジサブシステムにアクセスできないため、セグメントを移行できず、フェイルオーバーが停止
されます。
次の手動復旧手順を実施してください。
1. 障害の発生したストレージサブシステムを復元します (たとえば、障害の発生したファイ
バーチャネルを交換するか、またはストレージアレイから削除された LUN を交換します)。
2. フェイルオーバーを完了できるようにするために、スタンバイサーバーを再起動します。
ストレージサブシステムに障害が発生したためフェイルバックができない
この問題は、前の問題と類似しています。 フェイルバックの開始後にストレージサブシステム
に障害が発生した場合は、セグメントがまだプライマリサーバーに移行されていなくても、
フェイルバックが行われたことが構成情報データベースに記録されます。 ibrix_fs -i -f
FSNAME を実行すると、実際にはプライマリサーバーがセグメントを所有していなくても、プ
ライマリサーバーがセグメントを現在所有していることを意味する No がコマンド出力の
ONBACKUP フィールドに示されます。 この場合は、ストレージサブシステムの問題を解決し
た後もフェイルバックを完了できません。
特定の問題のトラブルシューティング
167
次の手動復旧手順を実施してください。
1. 障害の発生したストレージサブシステムを復元します。
2. 停止されたフェイルバックを完了できるようにするために、スタンバイサーバーを再起動
します。
セグメントの移行後に生じる 9000 クライアントの I/O エラー
異なるファイルサービングノードへのセグメントの移行が正常に完了した後、クライアントに
よる I/O 処理の継続を可能にするために、その変更を反映するように更新されたマップが
Fusion Manager からすべての 9000 クライアントに送信されます。 ただし、クライアントと
Fusion Manager の間のネットワーク接続がアクティブになっていない場合は、更新されたマッ
プをクライアントが受信できないため、クライアント I/O エラーが発生します。
この問題を解決するには、クライアントと Fusion Manager の間のネットワーク接続を復元し
ます。
Windows 9000 クライアント
ログイン後に「Permission Denied」メッセージが表示される
ドメイン名が指定されていないため、9000 クライアントが Active Directory サーバーにアクセ
スできないことが原因です。 Active Directory を再設定して、ドメイン名を指定します (詳細
は、『HP IBRIX 9000 Storage インストールガイド』を参照してください)。
[Active Directory Settings] タブの Verify ボタンが機能しない
この問題は、上の問題と同じ原因で発生します。
マウントされているドライブが Windows エクスプローラーに表示されない
ドライブをエクスプローラーに表示させるには、ドライブをマウントした後、いったんログオ
フしてからログインし直すか、またはマシンを再起動します。 DOS コマンドウィンドウを開
いて、ドライブに手動でアクセスすることもできます。
マウントされているドライブがターミナルサーバー使用時に表示されない
いったんログオフしてからログインし直すことにより、ブラウザーに表示されるシステムの
ビューを更新します。
9000 クライアントの自動スタートアップがデバッグの妨げになる
9000 クライアントは自動的に起動するように設定されています。ただし、この動作は、Windows
9000 クライアントに関する問題のデバッグの妨げになることがあります。 この問題を回避す
るには、コンピューターをセーフモードで再起動し、Windows 9000 クライアントサービスの
モードを手動に変更することにより、クライアントを起動せずにコンピューターを再起動でき
るようにします。
1. [コントロールパネル]、[管理ツール]、[サービス]の順にクリックして、サービス制御マネー
ジャーを開きます。
2. [9000 client Services] を右クリックし、[プロパティ]を選択します。
3. [スタートアップの種類] を [手動]に変更した後、[OK] をクリックします。
4. クライアントに関する問題をデバッグします。 デバッグを完了したら、上記の手順を繰り
返して [スタートアップの種類] を [自動]に変更することにより、Windows 9000 クライア
ントサービスを自動スタートアップに戻します。
モード 1 ボンディングまたはモード 6 ボンディング
HP では、9720 システムに 10 Gbps ネットワークとモード 1 ボンディングを推奨していま
す。 1 Gbps を使用する必要があり、X1~X6 のすべての VirtualConnect ポートが装着されて
いたとしてもネットワーク帯域幅が制限要因となりうる場合、追加の帯域幅にモード 6 (アク
ティブ/アクティブ) ボンディングの使用を検討できます。 しかし、モード 6 ボンディングは
168 トラブルシューティング
ネットワークトポロジ問題に影響を受けやすく、配備すると ARP トラフィックストームを起こ
すと考えられています。
Onboard Administrator が反応しない
フラットなネットワークのシステムでは、過剰なブロードキャストトラフィックにより OA が
反応しなくなることがあります。 次のことに留意してください。
•
OA は、低レベルのブロードキャストトラフィックのネットワークに接続する必要があり
ます。 これに従わないと、まずインストール中のタイムアウトエラーとして兆候が現れ、
その後、監視上の警告間違いや、最悪の場合は OA のハングアップにつながります。
•
まれに、ブロードキャストトラフィックが多すぎて OA がハングアップすることがありま
す。 この状態は、監視、インストールおよび IBRIX フェイルオーバーなど、様々なエラー
で現れます。 正しい機能性を回復するには、手動で OA モジュールを取り付け直すか、
C7000 のパワーサイクルを行ってください。 この問題を診断するため、OA の syslog
で次のようなメッセージを確認します。
Feb 1 16:41:56 Kernel: Network packet flooding detected. Disabling
network interface for 2 seconds
IBRIX RPC のホスト呼び出しが失敗する
ファイルサービングノード上の /var/log/messages に、次のようなメッセージがある場合
があります。
ibr_process_status(): Err: RPC call to host=wodao6 failed, error=-651,
func=IDE_FSYNC_prepacked
これらのメッセージが持続的に現れる場合は、早めに HP サービスにご連絡ください。 メッ
セージがデータ損失の可能性を示したり、IBRIX ファイルシステムにアクセスするアプリケー
ションで I/O エラーが発生したりします。
サーバーブレード/電源 PIC の劣化
サーバーブレードまたはマザーボードの交換後、ブレードシャーシの Insight Manager ディス
プレイが、電源 PIC モジュールの期限切れまたはファームウェアに互換性がないというエラー
メッセージを表示することがあります。 その場合は、次の手順で PIC ファームウェアを更新で
きます。
1. サーバーにログオンします。
2. hp-ilo を開始します。
# service hp-ilo start
3.
電源 PIC を更新します。
# /opt/hp/mxso/firmware/power_pic_scexe
4.
サーバーを再起動します。
LUN ステータスが「failed」
LUN ステータスが failed の場合は、論理ドライブが故障しています。 これは通常 3 個以上の
ディスクドライブの故障の結果です。 これは、故障したディスクドライブの交換時に別のディ
スクドライブを取り外した場合にも起こります。
この状態になったら、次の手順を実行してください。
1. 最近のディスクの取り外しまたは再挿入を注意深く記録します。 アレイ、ボックスおよび
ベイの番号を追跡し、どのディスクドライブが取り外しまたは挿入されたのかを確認しま
す。
2. 9720 システムで、ただちに次のコマンドを実行します。
# exds_escalate
特定の問題のトラブルシューティング
169
これにより、データが回復できるかどうか診断するために利用できるログ情報を収集しま
す。 一般的に、不具合が実際のディスクの故障によるものであれば、データは回復できま
せん。 しかし、不具合が稼働中のドライブを誤って取り外したことによるものであれば、
LUN を復旧して動作させることができるかもしれません。
3.
できるだけ早く HP サポートに連絡してください。
HP P700m の明らかな不具合
サーバーの起動時に、HP P700m が SAS ファブリックにアクセスできないことがあります。
これはブレードシャーシに新しいブレードを挿入した直後によく起こりますが、その他の場合
でも起こる可能性があります。 症状には次のものがあります。
•
HP P700m が POST エラーを報告する — TFT モニター/キーボードを使って見ることがで
きます。
•
cciss ドライバーのロード時にサーバーがクラッシュする — TFT モニター/キーボードを
使って見ることができます。 これはシステム内のすべてのサーバーに起こることがありま
す。
•
X9720 システムで、exds_stdiag コマンド実行時にコントローラーが見えない。
これらの問題の原因は様々ですが、 リカバリプロセスはすべてのケースで似通っています。
ここで説明するプロセスをすべて行うまで、HP P700m の交換はしないでください。 大まかに
言うと、解決策としては SAS スイッチをリセットし、それがうまくいかなければ、各 X9700c
コントローラーを再起動して、SAS ファブリックを妨害しているコントローラーを特定しま
す。
お使いのシステムが本番稼働中の場合、下記の手順でシステムのダウンタイムを最小限に抑え
てください。
1. Onboard Administrator にログインし、show bay info all コマンドを実行します。 影
響を受けるブレードと稼働中のブレードへのエントリーを比較してください。
エントリーが異なるようであれば、各 Onboard Administrator を一度に 1 つずつ再起動し
ます。
影響を受けるサーバーブレードの P700m を取り付け直すか交換してください。
2.
3.
4.
5.
6.
7.
8.
9.
exds_stdiag を実行します。 exds_stdiag が他のサーバブレードと同じキャパシティ
ブロックと 9720c コントローラーを検出すれば手順は完了です。それ以外の場合は次の
手順に進んでください。
すべてのサーバーが影響を受ける場合、すべてのサーバーをシャットダウンします。サー
バーのサブセットが影響を受ける場合、そのサブセットをシャットダウンします。
OA を使って SAS スイッチ 1 にログインし、リセットします。
再起動するまで待ちます。
SAN スイッチ 2 をリセットします。
再起動するまで待ちます。
影響を受けるサーバーを 1 台再起動します。
次のコマンドを実行します。
# exds_stdiag
10. X9700c コントローラーが見える場合、影響を受ける他のサーバーも再起動し、それぞれ
で exds_stdiag を実行します。 他のサーバーでも X9700c コントローラーが見える場
合は、手順は完了です。それ以外の場合は次の手順に進んでください。
11. 各 X9700c コントローラーについて、次の手順を実行します。
a. コントローラーをスライドさせ、LED が消灯するまで引き出します。
b. コントローラーを再挿入します。
c. 7 セグメントディスプレイが「on」と表示するのを待ちます。
d. 影響を受けるサーバーで exds_stdiag コマンドを実行します。
170
トラブルシューティング
e.
うまくいけば手順は完了です。そうでなければ、次のコントローラーで a~d の手順
を繰り返してください。
12. 上記の手順で成果がない場合は、HP P700m を交換します。
13. サーバーを起動し、exds_stdiag を実行します。
14. 依然として X9700c コントローラーが見えない場合は、手順 1 から繰り返します。
システムが本番稼働中ではない場合は、次の短い手順を実行できます。
1. すべてのサーバーブレードの電源を切ります。
2. OA を使って、両方の SAS スイッチの電源を切ります。
3. 両方の SAS スイッチの電源を入れ、稼働状態になるまで待ちます。
4. すべてのサーバーブレードの電源を入れます。
5. exds_stdiag を実行します。 exds_stdiag が問題なしと示せば手順は完了です。それ
以外の場合は次の手順に進んでください。
6. すべての X9700c エンクロージャーの電源を切ります。
7. すべてのエンクロージャーの電源を入れます。
8. すべての 7 セグメントディスプレイが「on」と表示するのを待ってから、すべてのサー
バーブレードの電源を入れます。
9. HP P700m が依然としてファブリックにアクセスできない場合は、影響を受けるサーバー
ブレードの P700m を交換し、再度 exds_stdiag を実行します。
X9700c エンクロージャーの前面パネルの障害 ID LED が黄色になっている
X9700c エンクロージャーの障害 ID LED が黄色の場合、電源とコントローラーが黄色かどうか
確認してください。 黄色でなければ、適当な時間をおいてからキャパシティブロックのパワー
サイクルを行ってください。 エンクロージャーの障害 LED の方は無視してかまいません。 電
源とコントローラーが黄色の場合、『HP 9720 Extreme Data Storage System Controller User
Guide』のトラブルシューティングの手順を参照してください。
交換用ディスクドライブの LED が緑点灯しない
ディスクドライブを交換して LUN を再構築すると、交換用ディスクドライブのオンライン/
動作 LED は緑点灯しない場合があります。 しかし、ディスクへの動作で交換用ディスクドラ
イブのオンライン/動作 LED が緑点滅します。 オンライン/動作 LED が緑点灯していなくて
も、ディスクドライブが使用中の場合があることに注意してください。
重要:
障害/UID LED が黄色でない場合はディスクドライブを取り外さないでください。
LED に関する詳細については、『HP 9720 Storage Controller User Guide』を参照してくださ
い。
X9700cx GSI LED が黄色になっている
ハードディスクドライブのドロアーの前面パネルにあるグローバルサービスインジケーター
(GSI) が黄点灯している場合、電源、ファンまたは I/O モジュールなどのエンクロージャーコ
ンポーネントの 1 つに問題があります。 GSI の点灯は、電源、ファンまたは I/O モジュール
コンポーネントが緑点灯の場合でも黄色になることがあります。 この場合、一度に 1 つずつ
各コンポーネントを交換してみて、交換後の GSI 点灯を確認してください。
ファームウェア更新後、X9700cx ドライブの LED が黄色になっている
ファームウェア更新後に X9700cx ドライブの LED が黄色になる場合は、X9700cx のパワーサ
イクルを再度行ってみてください。
特定の問題のトラブルシューティング
171
Virtual Connect ドメインの構成
Virtual Connect ドメインは、一度構成すれば再構成の必要はありません。 しかし、ドメインが
失われたり壊れたりした場合に備え、この項では再構成のために十分な情報を記載します。 こ
の項の例では Virtual Connect CLI を使用します。
システムには次のように 3 つのネットワークがあります。
->show network * -output=script2
Name;Status;Smart Link;State;Connection Mode;Native VLAN;Private;VLAN Tunnel;Preferred
Speed;Max Speed man_lan;OK;Disabled;Enabled;Failover;Disabled;Disabled;Disabled;1;1
Port;Name;Status;Type;Speed;Role
1;enc0:1:X7;Linked (Active) (1);SFP-RJ45;Auto;Primary
2;enc0:2:X7;Linked (Standby) (1);SFP-RJ45;Auto;Secondary
------------------------------------------------------------------------------Name;Status;Smart Link;State;Connection Mode;Native VLAN;Private;VLAN Tunnel;Preferred
Speed;Max Speed ext1;Degraded;Enabled;Enabled;Auto;Disabled;Disabled;Disabled;9;9
Port;Name;Status;Type;Speed
1;enc0:2:X1;Linked (Active) (10);CX4;Auto
2;enc0:2:X2;Not Linked;SFP-RJ45;Auto
3;enc0:2:X3;Not Linked;absent;Auto
4;enc0:2:X4;Not Linked;absent;Auto
5;enc0:2:X5;Not Linked;absent;Auto
6;enc0:2:X6;Not Linked;absent;Auto
------------------------------------------------------------------------------Name;Status;Smart Link;State;Connection Mode;Native VLAN;Private;VLAN Tunnel;Preferred
Speed;Max Speed ext2;Degraded;Enabled;Enabled;Auto;Disabled;Disabled;Disabled;9;9
Port;Name;Status;Type;Speed
1;enc0:1:X1;Linked (Active) (10);CX4;Auto
2;enc0:1:X2;Not Linked;absent;Auto
3;enc0:1:X3;Not Linked;absent;Auto
4;enc0:1:X4;Not Linked;absent;Auto
5;enc0:1:X5;Not Linked;absent;Auto
6;enc0:1:X6;Not Linked;absent;Auto
->
サーバーに割り当てられた同一プロファイルが 16 個あります。 たとえば、「ベイ 1」と呼ば
れるプロファイルが作成され、エンクロージャーデバイスのベイ 1 に割り当てられます。
->show profile bay1 -output=script2
Name;Device Bay;Server;Status;Serial Number;UUID
bay1;enc0:1;ProLiant BL460c G6;Degraded;8920RFCC;XXXXXX8920RFCC
Connection Type;Port;Network Name;Status;PXE;MAC Address;Allocated Speed
Ethernet;1;man_lan;OK;UseBIOS;<Factory-Default>;1
Ethernet;2;ext1;Degraded;UseBIOS;<Factory-Default>;9
Ethernet;3;ext2;Degraded;UseBIOS;<Factory-Default>;9
Ethernet;4;man_lan;OK;UseBIOS;<Factory-Default>;1
慣例的に、ドメイン名はシステム名を使用して作成されますが、ドメイン名はいずれも使用で
きません。 ドメインには、アクセスを容易にするため、管理ネットワーク上の IP が与えられ
ます。
Domain Name=kudos_vc_domain
Checkpoint Status=Valid
Domain IP Status=Enabled
IP Address=172.16.2.1
Subnet Mask=255.255.248.0
Gateway=-- -MAC Address Type=Factory-Default
WWN Address Type=Factory-Default
ファイルサービングノード上の情報と構成情報データベースの同期
ファイルシステムへのアクセスを維持するには、そのファイルシステムに関する最新の情報を
ファイルサービングノードに持たせる必要があります。 この情報の健全性を監視するために、
172
トラブルシューティング
ibrix_health を定期的に実行することをお勧めします。 ファイルサービングノード上の情
報が古くなった場合は、ibrix_dbck -o を実行して、サーバー上の情報を構成情報データ
ベースと再同期化します。 ibrix_health の詳細については、「クラスターの稼働状態の監
視」 (92 ページ) を参照してください。
注記:
brix_dbck コマンドは、HP サポートの指示の下でのみ使用します。
ファイルサービングノードのヘルスチェックを実行するには、次のコマンドを使用します。
ibrix_health -i -h HOSTLIST
このコマンドの出力の最終行に Passed と表示された場合は、ファイルサービングノードと
Fusion Manager の間でファイルシステム情報が整合しています。
ファイルサービングノードの情報を修復するには、次のコマンドを使用します。
ibrix_dbck -o -f FSNAME [-h HOSTLIST]
すべてのファイルサービングノード上の情報を修復するには、-h HOSTLIST オプションを省
略します。
Express Query Manual Intervention Failure (MIF) のトラブルシューティ
ング
Express Query Manual Intervention Failure (MIF) は、Express Query の実行時に発生したクリティ
カルエラーです。 これらのエラーは、Express Query が自動的にリカバリできない障害です。
MIF の発生後に、該当するファイルシステムは Express Query から論理的に削除され、手動に
よるリカバリ実行が必要となります。 これらのエラーによって Express Query の通常の機能は
抑制されますが、一般的には、関連性のない、クラスターやファイルシステムでのイベントに
よってこれらのエラーが発生します。 したがって、Express Query MIF からのリカバリ作業の
多くは、クラスターとファイルシステムのヘルスステータスをチェックし、これらのイベント
の原因である問題を修正するためのアクションを実行することです。 クラスターとファイルシ
ステムのステータスが OK になれば、Express Query サービスが自動的にリカバリされて再起
動されるため、MIF ステータスはクリアされるはずです。
極めてまれに、これらの外部イベントや何らかの内部機能障害の結果として、データベース破
損が発生することがあります。 Express Query には、Express Query がそのような重大な状況
に備えて保管している情報からデータベースを再構築しようとする、リカバリのメカニズムが
組み込まれています。 Express Query が内部データベースの破損からリカバリできないことも
あります。 そのような状況は極めてまれですが、次のような状況では発生する可能性がありま
す。
•
破損したデータベースを、すでにバックアップされているデータから再構築する必要があ
る場合。 必要なデータがバックアップされている場合は、バックアップ後にその情報が
IBRIX ファイルからすでに削除されているため、Express Query が自動的にリカバリする方
法がありません。 ただし、データベースログをバックアップから再生することができま
す。
•
データベースの再構築に必要な一部のデータが破損しており、そのために使用できない場
合。
データベースやデータベースリカバリに使用する情報には、破損から保護するための適切な手
段が講じられていますが、破損する可能性が皆無ではありません。
Express Query Manual Intervention Failure (MIF) からリカバリするには、次の手順を実行しま
す。
1. クラスターのヘルスステータスを「クラスター操作の監視」 (72 ページ) に記載されてい
る方法で確認し、ファイルシステム (<FSNAME>) に関連するすべての未解決の問題をクリ
アします。
2. ファイルシステムのヘルスステータスを「クラスター操作の監視」 (72 ページ) に記載さ
れている方法で確認し、ファイルシステム (<FSNAME>) に関連するすべての未解決の問題
をクリアします。
Express Query Manual Intervention Failure (MIF) のトラブルシューティング
173
3.
次のコマンドを入力して、Express Query MIF 状態をクリアします。
ibrix_archiving -C <FSNAME>
4.
次のコマンドを入力して、Express Query リカバリを監視します。
ibrix_archiving -l
Express Query の MIF からのリカバリ中は、状態が RECOVERY と表示されます。 状態が
OK または MIF に戻るのを待ちます。
状態が OK に戻れば、追加の手順は必要ありません。 Express Query は、MIF の発生以降
にロギングされたファイルシステムのすべての未完了の変更を使用して、データベースを
更新します。
5.
6.
1 つ以上のファイルシステムで MIF 条件が発生し、クラスターおよびファイルシステムの
ヘルスチェックが OK ではない場合は、前述の手順をやり直します。
クラスターおよびファイルシステムのヘルスチェックが OK ステータスであっても、Express
Query が 1 つ以上のファイルシステムで MIF 状態のままであることがあります。 このよ
うな状況はまれですが、一部のデータが破損していてリカバリできない場合に発生しま
す。
このような状況を解決するには、次の手順を実行します。
a. 該当するファイルシステムの完全バックアップがある場合は、復元を実行します。
b. 完全バックアップがない場合は、次の手順を実行します。
1. 次のコマンドを入力して、ファイルシステムの Express Query を無効にします。
ibrix_fs –T –D –f <FSNAME>
2.
次のコマンドを入力して、ファイルシステムの現在のデータベースを削除しま
す。
rm –rf <FS_MOUNTPOINT>/.archiving/database
3.
次のコマンドを入力して、ファイルシステムの Express Query を有効にします。
ibrix_fs –T –E –f <FSNAME>
注記: Express Query が有効になった段階で、<FSNAME> で指定されたファイ
ルシステムのデータベースへのデータの再設定が開始されます。
4.
MDExport ツールで作成したカスタムメタデータのバックアップがある場合は、
『CLI リファレンスガイド』に記載されている方法で、MDImport を使用して再イ
ンポートできます。
注記: この方法で作成したバックアップがない場合は、カスタムメタデータを
手動で再作成する必要があります。
5.
次のコマンドを入力して、再同期が完了するのを待ちます。
ibrix_archiving -l
このコマンドを、ファイルシステムに OK ステータスが表示されるまで繰り返し
ます。
6.
174
上記のどの方法でも解決できない場合は、HP にご連絡ください。
トラブルシューティング
16 9720/9730 ストレージの復旧
システムが故障しリカバリの必要がある場合、またはサーバーブレードを追加もしくは交換す
る場合は、ここでの説明に従ってください。
注意: Quick Restore DVD では、ファイルサービングノードを出荷時の状態にまで復元しま
す。 これは、破壊的プロセスであり、ローカルハードドライブ上のデータをすべて完全に消去
します。
最新の IBRIX ソフトウェアのリリースの取得
最新の HP IBRIX 6.2.1 ISO イメージを入手するには、HP StoreAll Download Drivers and Software
の Web ページで登録し、ソフトウェアをダウンロードします。
DVD を使用する
1.
2.
ISO イメージを使用して DVD を作成します。
ドライブとブレード前面を接続している Onboard Administrator またはドングルにケーブ
ル接続された USB DVD ドライブに、Quick Restore DVD を挿入します。
重要: 外部電源を持つ外部 USB ドライブを使用してください。デバイスの駆動に USB
バスパワーを使用しないでください。
3.
4.
ブレードを再起動して、DVD からブートします。
[HP Storage] 画面が表示されたら、[qr] と入力してソフトウェアをインストールします。
USB キーを使用する
1.
2.
3.
ISO を Linux システムにコピーします。
USB キーを Linux システムに挿入します。
cat /proc/partitions を実行して、USB デバイスのパーティションを特定します。
このパーティションは、dev/sdX として表示されます。 例を次に示します。
cat /proc/partitions
major minor #blocks
8
128
15633408
4.
name
sdi
次の dd コマンドを実行して、USB を QR インストーラーにします。
dd if=<ISO file name with path> of=/dev/sdi oflag=direct bs=1M
例を次に示します。
dd if=9000-QRDVD-6.2.96-1.x86_64.iso of=/dev/sdi oflag=direct bs=1M
4491+0 records in
4491+0 records out
4709154816 bytes (4.7 GB) copied, 957.784 seconds, 4.9 MB/s
5.
6.
7.
USB キーをブレードに挿入します。
ブレードを USB キーからブートします
[Storage] 画面が表示されたら、[qr] と入力してソフトウェアをインストールします。
リカバリの準備
ユーザーネットワークに NIC モニターが構成されている場合は、モニターを取り外します。
NIC 監視が構成されているかどうか判断するには、次のコマンドを実行してください。
ibrix_nic -i -h <hostname>
次のようなラインの出力を確認します。
最新の IBRIX ソフトウェアのリリースの取得
175
Monitored By : titan16
モニターを取り外すには、次のコマンドを使用します。
ibrix_nic -m -h MONITORHOST -D DESTHOST/IFNAME
例を次に示します。
ibrix_nic -m -h titan16 -D titan15/eth2
9720 または 9730 ファイルサービングノードのリカバリ
注記: IBRIX 9730 システム上のブレード 1 をリカバリする場合、Quick Restore 手順を実行す
れば、クラスター作成に必要な手順をひととおり行えます。 それにはシャーシコンポーネント
の検証が必要ですが、クラスターの構成や構成変更は必要ありません。
故障ブレードをリカバリするには、次の手順を実行してください。
1. サーバーにログインします。
•
9730 システム。 インストールウィザードの初期画面が現れ、セットアップウィザー
ドがシステムのファームウェアを検証し、ファームウェアの更新が必要かどうか知ら
せます。 (ウィザード中に表示されるインストール/構成時間は新規インストール時
の場合です。 ノードの交換時はより短時間になります。)
重要: HP では、インストールを継続する前にファームウェアを更新することを推奨
しています。 9730 システムは、特定のファームウェアレシピでテストしています。
サポートされているファームウェアレシピへのアップグレードを行わずにインストー
ルを継続すると、システムの欠陥につながる場合があります。
•
176
9720 システム。 System Deployment Menu が表示されます。 [Join an existing cluster]
を選んでください。
9720/9730 ストレージの復旧
2.
ウィザードはネットワークをスキャンして既存のクラスターを検出します。 [Join Cluster]
ダイアログボックスで、クラスターで使用する管理コンソール (Fusion Manager) を選択し
ます。
注記: 管理コンソールの場所を特定できない場合、次の画面が表示されます。 [Enter FM
IP] を選んで手順 5 に進んでください。
3.
管理コンソールで生成されたホスト名が [Verify Hostname] ダイアログボックスに表示され
ます。 このサーバーの正確なホスト名を入力します。
[Verify Configuration] ダイアログボックスには、このノードの設定が表示されます。 前の
手順でホスト名を変更したため、概要の IP アドレスが不正になっています。 [Reject] を選
ぶと次の画面が表示されます。 [Enter FM IP] を選んでください。
9720 または 9730 ファイルサービングノードのリカバリ 177
178
4.
[System Date and Time] ダイアログボックスに、システムの日付 (日/月/年) および時刻
(24 時間形式) を入力します。 Tab キーを押して [Time Zone] フィールドを選択し、Enter
キーを押してタイムゾーンのリストを表示します。 リストから該当するタイムゾーンを選
択します。
5.
[Server Networking Configuration] ダイアログボックスで、クラスターネットワークである
bond0 用にこのサーバーを設定します。 次のことに留意してください。
•
ホスト名には英数字および特殊文字のハイフン (–) を使用できます。 ホスト名にはア
ンダースコア (_) は使用しないでください。
•
IP アドレスは、bond0 上のサーバーの IP アドレスを指定します。
•
デフォルトゲートウェイは、ネットワーク間のルートを提供します。 使用しているデ
フォルトゲートウェイが bond0 以外のサブネット上に存在する場合、このフィール
ドの入力はスキップします。
9720/9730 ストレージの復旧
[Configuration Summary] に現在の設定が表示されます。 [Ok] を選んでインストールを継
続してください。
6.
この手順は 9730 システムのみ該当します。 IBRIX 9720 system システムのブレード復旧
時は、手順 8 に進んでください。
復旧する 9730 ブレードには、シャーシの OA/VC 情報が必要です。 この情報はブレー
ド 1 から直接入手するか、手動で OA/VC 認証情報を入力することができます。
ウィザードでは次の項目を確認し検証します。
•
OA および VC のファームウェア
•
VC 構成
•
iLO の hpspAdmin のユーザーアカウント
•
シャーシ構成
•
SAS スイッチのファームウェア。更新が必要な場合は通知します。
•
SAS 構成情報
9720 または 9730 ファイルサービングノードのリカバリ
179
7.
•
ストレージのファームウェア。更新が必要な場合は通知します。
•
ストレージ構成
•
ブレードのネットワーク
[Join a Cluster – Step 2] ダイアログボックスで、必要な情報を入力します。
注記: ダイアログボックスの [Register IP] は、Fusion Manager (管理コンソール) の IP ア
ドレスです。このブレードの登録 IP アドレスではありません。
8.
Network Configuration ダイアログボックスは、システムに構成されたインターフェイスを
一覧表示します。 情報が正しい場合、[Continue] を選んで次の手順に進んでください。
ボンドに指定された情報が正しくない場合は、ボンドを選択して [Configure] を選び、イ
ンターフェイスをカスタマイズします。 [Select Interface Type] ダイアログボックスで
[Bonded Interface] を選んでください。 [Edit Bonded Interface] ダイアログボックスで, IP ア
ドレスとネットマスクを入力し、ボンドオプションを指定して、お使いの構成に合わせて
スレーブデバイスを変更してください。
180 9720/9730 ストレージの復旧
9.
[Configuration Summary] ダイアログボックスに、指定した設定が表示されます。 [Commit]
を選択して設定を適用します。
10. 指定したホスト名は、管理コンソールを使用して以前に登録したものであるため、次の
メッセージが表示されます。 [Yes] を選択して、既存のサーバーを置き換えます。
9720 または 9730 ファイルサービングノードのリカバリ
181
11. ウィザードはパッシブな管理コンソール (Fusion Manager) をブレードに登録し、構成して
起動します。
ウィザードは、次に追加のセットアップスクリプトを実行します。
注記: iLO に接続し、仮想コンソールを使用している場合は、プラットフォームスクリ
プト実行時に iLO 接続が切断されます。 少しの時間をおいて、iLO に再接続し仮想コン
ソールを立ち上げることができます。
構成が完了したら、ログファイルの場所を示すメッセージが表示されます。
•
ログは /usr/local/ibrix/autocfg/logs で閲覧できます。
•
IBRIX 9730 構成のログは、/var/log/hp/platform/install/
X9730_install.log で閲覧できます。
復旧の完了
1.
2.
ノードのルートにアクセスできることを確認します。 復元プロセスでは、root パスワード
が出荷時のデフォルトである hpinvent に設定されます。
復旧したノードに関する情報を確認します。
ibrix_server -f [-p] [-M] [-N] -h SERVERNAME
3.
ベンダーストレージ情報を確認します。 アクティブな Fusion Manager をホストしている
ノードから、次のコマンドを実行します。
ibrix_vs -l
コマンドでは、ステータス、UUID、ファームウェアバージョン、およびサーバーやスト
レージコンポーネント、ドライブエンクロージャー、ドライブコンポーネント、ボリュー
ム、ドライブに関するその他の情報を報告します。 また、LUN マッピングも表示します。
4.
アクティブな Fusion Manager をホストしているノードで、次のコマンドを実行し、サー
バーブレードを最適なパフォーマンスに調整します。
ibrix_host_tune -S -h <hostname of new server blade> -o
rpc_max_timeout=64,san_timeout=120
5.
6.
残りのすべてのノードで、/root/.ssh/known_hosts ファイルからリカバリしたばか
りのホスト名の ssh キーを削除します。 (キーは、リカバリしたノードに以前にアクセス
していたノードにのみ存在します。)
QuickRestore DVD を使用する前に NIC 監視を無効にした場合は、監視を再び有効化しま
す。
ibrix_nic -m -h MONITORHOST -A DESTHOST/IFNAME
182
9720/9730 ストレージの復旧
例を次に示します。
ibrix_nic -m -h titan16 -A titan15/eth2
7.
8.
ノード上の HP Insight Remote Support を設定します。 「IBRIX 9000 システム上での HP
Insight Remote Support の構成」 (24 ページ) を参照してください。
アクティブな Fusion Manager をホストしているノードから、ibrix_health -l を実行
してエラーが報告されないことを確認します。
注記: ibrix_health コマンドで、復旧したノードの故障が報告される場合、次のコマ
ンドを実行してください。
ibrix_health –i –h <hostname>
このコマンドでボリュームグループの不具合が報告される場合は、次のコマンドを実行し
てください。
ibrix_pv -a -h <Hostname of restored node>
9.
お使いのシステムで次のファイルがカスタマイズされている場合、復旧したノードでそれ
らを更新します。
•
/etc/hosts: 稼働しているノードから、復旧したノードの /etc/hosts にこのファ
イルをコピーしてください。
•
/etc/machines: すべてのサーバーが、すべてのノードにサーバーホスト名のエン
トリーを所有することを確認してください。
サービスの復元
ファイルサービングノードの Quick Restore を実行する場合、NFS、SMB、FTP、および HTTP
のエクスポート情報はノードに自動的に復元されません。 このため、運用がノードにフェイル
バックされた後に、NFS、SMB、FTP、および HTTP の各共有について、クライアントシステム
からノードへの I/O が動作しません。 この状況を回避するために、ノード上の NFS、SMB、
FTP、および HTTP のエクスポートを、ノードがフェイルバックする前に手動でリストアしま
す。
SMB サービスの復元: 次の手順を実行します。
1. 復元したノードが以前に SMB サービスのドメイン認証を実行するように設定されていた
場合、次のコマンドを実行します。
ibrix_auth -n DOMAIN_NAME -A AUTH_PROXY_USER_NAME@domain_name [-P
AUTH_PROXY_PASSWORD] -h HOSTNAME
例を次に示します。
ibrix_auth -n ibq1.mycompany.com -A [email protected]
-P password -h ib5-9
コマンドが失敗した場合は、以下の点を確認してください。
2.
•
DNS サービスが、ibrix_auth コマンドを実行したノード上で実行していることを
確認します。
•
-n および -A オプションで、有効なドメイン名をフルパスで入力していることを確認
します。
likewise データベースを Active Directory ドメインに再参加させます。
/opt/likewise/bin/domainjoin-cli join <domain_name> Administrator
3.
元の共有の情報を、管理コンソールデータベースから、復元したノードへ適用します。 ア
クティブな管理コンソールをホストしているノードで、初めに一時的な SMB 共有を作成
します。
ibrix_cifs -a –f FSNAME –s SHARENAME -p SHAREPATH
次に、一時的な SMB 共有を削除します。
復旧の完了 183
ibrix_cifs -d -s SHARENAME
4.
次のコマンドを実行して、元の共有情報が復元したノード上に適用されていることを確認
します。
ibrix_cifs -i -h SERVERNAME
HTTP サービスの復元: 次の手順を実行します。
1. 適切なアクションを実行します。
2.
•
Active Directory 認証を使用している場合、復元したノードを手動で AD ドメインに参
加させます。
•
ローカルユーザー認証を使用している場合、GUI で一時的なローカルユーザーを作成
して、この設定をすべてのサーバーに適用します。 この手順により、ローカルユー
ザーデータベースの再同期が行われます。
次のコマンドを実行します。
ibrix_httpconfig -R -h HOSTNAME
3.
HTTP サービスが復元されていることを確認します。 GUI または CLI を使用して、復元し
たノードがサーブしている共有を特定し、その共有を参照します。
すべての Vhosts および HTTP 共有がノード上に復元されているはずです。
FTP サービスの復元: 次の手順を実行します。
1. 適切なアクションを実行します。
2.
•
Active Directory 認証を使用している場合、復元したノードを手動で AD ドメインに参
加させます。
•
ローカルユーザー認証を使用している場合、GUI で一時的なローカルユーザーを作成
して、この設定をすべてのサーバーに適用します。 この手順により、ローカルユー
ザーデータベースの再同期が行われます。
次のコマンドを実行します。
ibrix_ftpconfig -R -h HOSTNAME
3.
HTTP サービスが復元されていることを確認します。 GUI または CLI を使用して、復元し
たノードがサーブしている共有を特定し、その共有を参照します。
すべての Vhosts および FTP 共有がノード上に復元されているはずです。
トラブルシューティング
iLO リモートコンソールがキー入力に反応しない
ネットワークがまだ設定されていないため、リカバリ時にローカル端末を使用する必要があり
ます。 iLO 統合リモートコンソールを使用しているときに、コンソールがキー入力に反応しな
くなる場合もあります。
これを直すには、ブレードを取り外して取り付け直してください。 そうすれば iLO リモート
コンソールが正しく反応するようになります。 または、ローカル KVM を使ってリカバリを実
行することもできます。
184 9720/9730 ストレージの復旧
17 サポートとその他の資料
HP のサポート窓口
各地のテクニカルサポート情報については、次の HP サポート Web サイトを参照してくださ
い。
http://www.hp.com/jp/support (日本語)
関連情報
IBRIX 9720 Storage の使用
•
『HP IBRIX 9000 Storage File System ユーザーガイド』
•
『HP IBRIX 9000 Storage CLI リファレンスガイド』
•
『HP IBRIX 9000 Storage リリースノート』
•
『HP ExDS9100c/9720 Storage System Controller Cache Module Customer Self Repair
Instructions』
•
『HP ExDS9100c/9720 Storage System Controller Battery Customer Self Repair Instructions』
•
『HP ExDS9100c/9720 Storage System Controller Customer Self Repair Instructions』
•
『HP 9720 Storage Controller User Guide』 (HP X9700c の設置、管理およびトラブル
シューティング方法を説明しています)
これらのドキュメントを参照するには、IBRIX Manuals ページ:http://www.hp.com/support/
IBRIXManuals (英語) にアクセスします。日本語版が用意されているマニュアルは、http://
www.hp.com/jp/manual/ (日本語) から入手できます。
ファイルサービングノードの使用とメンテナンス
•
『HP ProLiant BL460c Server Blade Maintenance and Service Guide』
•
『HP ProLiant BL460c Server Blade User Guide』
これらのマニュアルにアクセスするには、Manuals ページ (http://www.hp.com/support/manuals
(英語)) に移動して、[bladesystem] > [BladeSystem Server Blades] の順にクリックし、[HP Proliant
BL 460c G7 Server Series] または [HP Proliant BL 460c G6 Server Series] を選択します。
HP BladeSystem c7000 エンクロージャーのトラブルシューティングとメ
ンテナンス
•
『HP BladeSystem c7000 Enclosure Maintenance and Service Guide』
この文書は、コンピューターのサービスに関する有資格者のみが使用します。
•
『HP BladeSystem c-Class Enclosure Troubleshooting Guide』
これらのマニュアルにアクセスするには、Manuals ページ (http://www.hp.com/support/manuals
(英語)) に移動して、[bladesystem] > [HP Blade System c-Class Enclosures] > [HP BladeSystem
c7000 Enclosures] の順にクリックします。
HP 3Gb SAS BL スイッチの取り付けとメンテナンス
•
『HP 3Gb SAS BL Switch Installation Instructions』
•
『HP 3Gb SAS BL Switch Customer Self Repair Instructions』
HP のサポート窓口 185
これらのマニュアルにアクセスするには、Manuals ページ (http://www.hp.com/support/manuals
(英語)) に移動して、[bladesystem] > [BladeSystem Interconnects] > [HP BladeSystem SAS
Interconnects] の順にクリックします。
X9700cx (HP 600 Modular Disk System) のメンテナンス
•
『HP 600 Modular Disk System Maintenance and Service Guide』
取り外しと交換の手順を説明しています。 この文書は、コンピューターのサービスに関す
る有資格者のみが使用します。
これらのマニュアルにアクセスするには、Manuals ページ (http://www.hp.com/support/manuals
(英語)) に移動して、[storage] > [Disk Storage Systems] > [HP 600 Modular Disk System] の順に
クリックします。
HP Web サイト
その他の製品情報については、HP の次の Web サイトを参照してください。
•
http://www.hp.com/jp/X9000 (日本語)
•
http://www.hp.com/jp (日本語)
•
http://www.hp.com/jp/storage (日本語)
•
http://www.hp.com/support/manuals (英語)
•
http://www.hp.com/support/downloads (英語)
ラックに関する注意
ラックの安定性を保つことにより、けがや装置の損傷を防ぎます。
警告!
けがや装置の損傷を防止するために、次の点に注意してください。
•
ラックの水平脚を床まで伸ばしてください。
•
ラックの全重量が水平脚にかかるようにしてください。
•
ラックに固定脚を取り付けてください。
•
複数のラックを設置する場合は、ラックをしっかりと連結してください。
•
ラックコンポーネントは一度に 1 つずつ引き出してください。 一度に複数のコンポーネ
ントを引き出すと、ラックが不安定になる場合があります。
製品の保証
HP 製品の保証については、保証情報に関する次の HP の Web サイトを参照してください。
http://www.hp.com/go/storagewarranty (英語)
186 サポートとその他の資料
A 段階的なアップグレード
IBRIX 5.6 より前のバージョンを実行中の場合は、下表に示す増分アップグレードを実行しま
す。 IBRIX 5.6 を実行中の場合は、6.1 にアップグレードしてから、6.2 にアップグレードしま
す。
アップグレード前のバージョン
アップグレード後のバージョン
参照する項
IBRIX バージョン 5.4
IBRIX バージョン 5.5
「IBRIX ソフトウェアの 5.5 リリース
へのアップグレード」 (202 ページ)
IBRIX バージョン 5.5
IBRIX バージョン 5.6
「IBRIX ソフトウェアの 5.6 リリース
へのアップグレード」 (198 ページ)
IBRIX バージョン 5.6
IBRIX バージョン 6.1
「IBRIX ソフトウェアの 6.1 リリース
へのアップグレード」 (187 ページ)
IBRIX ソフトウェアの 6.1 リリースへのアップグレード
この項では、最新の IBRIX ソフトウェアリリースにアップグレードする方法について説明しま
す。 Fusion Manager およびすべてのファイルサービングノードは、同時に新しいリリースに
アップグレードする必要があります。 次のことに留意してください。
•
IBRIX ソフトウェアの 6.1 リリースへのアップグレードは、現在 IBRIX ソフトウェア 5.6.x
および 6.x を実行しているシステムでサポートされます。
注記: IBRIX ソフトウェア 5.4.x を実行しているシステムの場合は、初めに 5.5.x にアッ
プグレードし、次に 5.6.x にアップグレードしてから、6.1 にアップグレードしてくださ
い。 「IBRIX ソフトウェアの 5.5 リリースへのアップグレード」 (202 ページ) を参照して
ください。
IBRIX ソフトウェア 5.5.x を実行しているシステムの場合は、初めに 5.6.x にアップグレー
ドしてから、6.1 にアップグレードしてください。 「IBRIX ソフトウェアの 5.6 リリース
へのアップグレード」 (198 ページ) を参照してください。
•
ルートパーティションにアップグレード用の空きスペースが十分確保されていることを確
認してください。 約 4GB が必要です。
•
アップグレードを開始する前に、クラスターノード間でパスワードを使用しないアクセス
が可能であることを確認してください。
•
アップグレードの実行中は、Fusion Manager のアクティブ/パッシブ構成を変更しないで
ください。
•
Linux 9000 クライアントは、6.x リリースにアップグレードする必要があります。
注記: IBRIX 5.x リリースからアップグレードする場合、ibrix_supportticket コマンド
を使用して収集されたすべてのサポートチケットがアップグレードの実行中に削除されます。
6.1 にアップグレードする前に、/admin/platform/diag/supporttickets ディレクトリ
からアーカイブファイル (.tgz) のコピーをダウンロードしてください。
9720 シャーシファームウェアのアップグレード
9720 システムを IBRIX ソフトウェア 6.1 にアップグレードする前に、9720 シャーシファー
ムウェアがバージョン 4.4.0-13 になっている必要があります。ファームウェアがこのレベル
でない場合は、IBRIX アップグレードに進む前に、ファームウェアをアップグレードしてくだ
さい。
ファームウェアをアップグレードするには、次の手順を実行します。
1. http://www.hp.com/go/StoreAll (英語) に移動します。
2. [HP IBRIX 9000 Storage] ページで、[Support] セクションから [HP Support & Drivers] を選
択します。
IBRIX ソフトウェアの 6.1 リリースへのアップグレード
187
3.
4.
5.
Business Support Center で [Download Drivers and Software] を選択し、さらに [HP 9720
Base Rack] > [Red Hat Enterprise Linux 5 Server (x86-64)] の順序で選択します。
[HP 9720 Storage Chassis Firmware] バージョン 4.0.0-13 をクリックします。
ファームウェアをダウンロードし、『HP 9720 Network Storage System 4.0.0-13 Release
Notes』の説明に従ってインストールします。
IBRIX ソフトウェアの 6.x から 6.1 へのオンラインアップグレード
オンラインアップグレードは、IBRIX 6.x リリース以降でのみサポートされます。 以前のリリー
スの IBRIX からのアップグレードは、適切なオフラインアップグレード手順を使用する必要が
あります。
オンラインアップグレードを実行する際は、以下の点に注意してください。
•
アップグレードの実行中は、ファイルシステムのマウントが維持され、クライアント I/O
が続行します。
•
ノードの数にかかわらず、アップグレードプロセスには約 45 分を要します。
•
I/O 中断の合計時間はノード IP ごとに 2 分のフェイルオーバー時間と 2 分のフェイルバッ
ク時間の合計 4 分です。
•
2 分以上のタイムアウトが設定されたクライアント I/O がサポートされます。
アップグレードの準備
アップグレードの準備を行うには、次の手順を実行します。
1. すべてのノードが稼働していることを確認します。 クラスターノードのステータスを確認
するには、GUI のダッシュボードを確認するか、ibrix_health コマンドを使用します。
2. クラスター内の各ノードで高可用性機能が有効になっていることを確認します。
3. ssh 共有鍵が設定されていることを確認します。 これを行うには、アクティブなインス
タンスのアジャイル Fusion Manager をホストしているノード上で、次のコマンドを実行
します。
ssh <server_name>
クラスター内の各ノードについてこのコマンドを実行し、常時パスワードの入力が求めら
れないことを確認します。
4.
5.
6.
アクティブなタスクが実行されていないことを確認します。 クラスター上で実行中のアク
ティブなリモート複製タスク、データ階層化タスクまたは再バランスタスクがあれば、そ
れらをすべて停止します (ibrix_task -l を使用してアクティブなタスクをリスト表示
します)。 アップグレードが完了したら、これらのタスクを再開できます。
6.1 リリースでは、アジャイル管理コンソールをホストしているノードがクラスターネッ
トワークに登録されている必要があります。 次のコマンドを実行して、アジャイル Fusion
Manager をホストしているノードがクラスターネットワーク上の IP アドレスを使用して
いることを確認します。
ibrix_fm -f
ノードがユーザーネットワーク上で構成されている場合は、対応策について「ノードがク
ラスターネットワークに登録されていない 」 (141 ページ) を参照してください。
9720 システムでは、既存のベンダーストレージを削除します。
ibrix_vs -d -n EXDS
ベンダーストレージは、アップグレード後に自動的に登録されます。
アップグレードの実行
オンラインアップグレードは、IBRIX 6.x~6.1 リリースのみでサポートされます。 次の手順を
実行します。
1. IBRIX 9000 ソフトウェアドロップボックスから、最新の HP IBRIX 6.1 ISO イメージを取得
します。 リリースの登録とドロップボックスへのアクセスの取得については、HP サポー
トにお問い合わせください。
188 段階的なアップグレード
2.
3.
4.
5.
6.
ISO イメージをマウントして、ディレクトリ構造全体を OS を実行しているディスク上の
/root/ibrix ディレクトリにコピーします。
OS を実行しているディスク上で /root/ibrix ディレクトリに移動し、ディレクトリ構
造全体に対して chmod -R 777 * を実行します。
アップグレードスクリプトを実行して、画面の指示に従います。
./auto_online_ibrixupgrade
Linux 9000 クライアントをアップグレードします。 「Linux 9000 クライアントのアップ
グレード」 (139 ページ) を参照してください。
HP から新しいライセンスが提供された場合、このガイドの「ライセンス」の章の説明に
従ってインストールします。
アップグレード後
次の手順を実施してください。
•
アップグレード前に停止したリモート複製タスク、再バランスタスクまたはデータ階層化
タスクがある場合は、これらのタスクを開始します。
•
クラスターに G6 サーバーが含まれている場合、iLO2 ファームウェアのバージョンを確
認してください。 高可用性機能が正しく動作するためには、ファームウェアのバージョン
が 2.05 である必要があります。 サーバーの iLO2 ファームウェアのバージョンがこれよ
り低い場合、次の URL からバージョン 2.05 の iLO2 をダウンロードして、ファームウェ
アの更新をそれぞれの G6 サーバーにコピーしてください。 この URL に記載されている
インストール手順に従ってください。 この問題は、G7 サーバーには影響しません。
http://h20000.www2.hp.com/bizsupport/TechSupport/SoftwareDescription.jsp?lang=en&
cc=us&prodTypeId=15351&prodSeriesId=1146658&
swItem=MTX-949698a14e114478b9fe126499&prodNameId=1135772&swEnvOID=4103&
swLang=8&taskId=135&mode=3 (英語)
•
inode 形式での変更は、以下の目的に使用するファイルに影響します。
◦
スナップショット。 スナップショットに使用するファイルを IBRIX ソフトウェア 6.0
以降で作成するか、またはファイルを含む 6.0 より前のファイルシステムをスナップ
ショット向けにアップグレードする必要があります。 ファイルシステムをアップグ
レードするには、upgrade60.sh ユーティリティを使用します。 詳細については、
「6.0 以前のファイルシステムのアップグレードによるソフトウェアスナップショッ
トのサポート」 (193 ページ) を参照してください。
◦
データ保管。 データ保管に使用するファイル (WORM および自動コミットを含む) を
IBRIX ソフトウェア 6.1.1 以降で作成するか、またはファイルを含む 6.1.1 より前の
ファイルシステムをデータ保管機能向けにアップグレードする必要があります。 ファ
イルシステムをアップグレードするには、ibrix_reten_adm -u -f FSNAME コ
マンドを使用します。 ibrix_reten_adm -u -f FSNAME コマンドを実行する前
と後に、追加の手順が必要です。 詳細については、「6.0 以前のファイルシステムの
アップグレードによるソフトウェアスナップショットのサポート」 (193 ページ) を参
照してください。
IBRIX ソフトウェアの 5.6.x または 6.0.x から 6.1 へのオフラインアップグレード
アップグレードの準備
アップグレードの準備を行うには、次の手順を実行します。
1. すべてのノードが稼働していることを確認します。 クラスターノードのステータスを確認
するには、GUI のダッシュボードを確認するか、ibrix_health コマンドを使用します。
2. ssh 共有鍵が設定されていることを確認します。 これを行うには、アクティブなインス
タンスのアジャイル Fusion Manager をホストしているノード上で、次のコマンドを実行
します。
ssh <server_name>
クラスターの各ノードで、このコマンドを繰り返します。
IBRIX ソフトウェアの 6.1 リリースへのアップグレード 189
3.
4.
5.
6.
7.
ファイルシステムマウントオプションなど、カスタムチューニングパラメーターがあれ
ば、すべてメモします。 アップグレードの完了時に、これらのパラメーターを再適用でき
ます。
アクティブなタスクが実行されていないことを確認します。 クラスター上で実行中のアク
ティブなリモート複製タスク、データ階層化タスクまたは再バランスタスクがあれば、そ
れらをすべて停止します (ibrix_task -l を使用してアクティブなタスクをリスト表示
します)。 アップグレードが完了したら、これらのタスクを再開できます。
6.1 リリースでは、アジャイル管理コンソールをホストしているノードがクラスターネッ
トワークに登録されている必要があります。 次のコマンドを実行して、アジャイル Fusion
Manager をホストしているノードがクラスターネットワーク上の IP アドレスを使用して
いることを確認します。
ibrix_fm -f
ノードがユーザーネットワーク上で構成されている場合は、対応策について「ノードがク
ラスターネットワークに登録されていない 」 (141 ページ) を参照してください。
クラスターまたはファイルシステムへのすべてのクライアント I/O を停止します。 Linux
クライアント上で lsof </mountpoint> を使用して、アクティブなプロセスに属して
いる開いているファイルを表示します。
パッシブな Fusion Manager をホストしているすべてのノード上で、Fusion Manager を
maintenance モードにします。
<ibrixhome>/bin/ibrix_fm -m nofmfailover
8.
アクティブな Fusion Manager のノードで、すべてのファイルサービングノードへの自動
フェイルオーバーを無効にします。
<ibrixhome>/bin/ibrix_server -m -U
9.
次のコマンドを実行して、自動フェイルオーバーがオフになっていることを確認します。
出力の HA カラムは、off を表示している必要があります。
<ibrixhome>/bin/ibrix_server -l
10. Linux 9000 クライアント上のファイルシステムをアンマウントします。
ibrix_umount -f MOUNTPOINT
11. すべてのノード上の SMB、NFS および NDMP サービスを停止します。 アクティブな
Fusion Manager をホストしているノードで、次のコマンドを実行します。
ibrix_server -s -t cifs -c stop
ibrix_server -s -t nfs -c stop
ibrix_server -s -t ndmp -c stop
SMB を使用している場合、すべてのファイルサービングノード上で likewise サービスが停
止していることを確認します。
ps –ef | grep likewise
kill -9 を使用して、実行中のすべての likewise サービスを停止します。
NFS を使用している場合は、次のコマンドを実行して、すべての NFS プロセスが停止し
ていることを確認します。
ps –ef | grep nfs
必要に応じて、次のコマンドを使用して NFS サービスを停止します。
/etc/init.d/nfs stop
kill -9 を使用して、実行中のすべての NFS プロセスを停止します。
必要に応じてすべてのノード上で次のコマンドを実行し、マウントされているファイルシ
ステムで開いているすべてのファイルハンドルを特定します。
lsof </mountpoint>
kill -9 を使用して、ファイルシステム上で開いているファイルハンドルを持つすべて
のプロセスを停止します。
nl
nl
190 段階的なアップグレード
12. 各ファイルシステムを手動でマウント解除します。
ibrix_umount -f FSNAME
ファイルシステムがマウント解除されるまで、最長 15 分待機します。
アップグレードを続行する前に、ファイルシステムのマウント解除に関するすべての問題
のトラブルシューティングを行います。 「ファイルシステムのマウント解除の問題」
(142 ページ) を参照してください。
13. 9720 システムでは、既存のベンダーストレージを削除します。
ibrix_vs -d -n EXDS
ベンダーストレージは、アップグレード後に自動的に登録されます。
アップグレードの実行
このアップグレード手法は、IBRIX ソフトウェア 5.6.x から 6.1 リリースへのアップグレード
のみでサポートされます。 次の手順を実行します。
1. IBRIX 9000 ソフトウェアドロップボックスから、最新の HP IBRIX 6.1 ISO イメージを取得
します。 リリースの登録とドロップボックスへのアクセスの取得については、HP サポー
トにお問い合わせください。
ISO イメージをマウントして、ディレクトリ構造全体を OS を実行しているディスク上の
/root/ibrix ディレクトリにコピーします。
2.
3.
4.
5.
OS を実行しているディスク上で /root/ibrix ディレクトリに移動し、ディレクトリ構
造全体に対して chmod -R 777 * を実行します。
次のアップグレードスクリプトを実行します。
./auto_ibrixupgrade
このアップグレードスクリプトは、必要なサービスを自動的に停止して、アップグレード
の完了後に再開します。 このアップグレードスクリプトは、すべてのファイルサービング
ノード上に Fusion Manager をインストールします。 アップグレードを実行したノード上
では Fusion Manager が active モードになり、その他のファイルサービングノードでは
passive モードになります。 クラスター内に専用管理サーバーが存在する場合、このサー
バー上には Fusion Manager が passive モードでインストールされます。
Linux 9000 クライアントをアップグレードします。 「Linux 9000 クライアントのアップ
グレード」 (139 ページ) を参照してください。
HP から新しいライセンスが提供された場合、このガイドの「ライセンス」の章の説明に
従ってインストールします。
アップグレード後
次の手順を実行します。
1. 次のコマンドを実行して、物理ボリュームを再検出します。
ibrix_pv -a
2.
3.
マウントオプションなどのカスタムチューニングパラメーターがあれば、すべて適用しま
す。
すべてのファイルシステムを再マウントします。
ibrix_mount -f <fsname> -m </mountpoint>
4.
高可用性機能を使用していた場合は、再び有効化します。
ibrix_server -m
5.
アップグレード前に停止したリモート複製タスク、再バランスタスクまたはデータ階層化
タスクがある場合は、これらのタスクを開始します。
SMB を使用している場合は、次のパラメーターを設定して、SMB ソフトウェアと Fusion
Manager データベースを同期します。
6.
•
smb signing enabled
•
smb signing required
IBRIX ソフトウェアの 6.1 リリースへのアップグレード
191
•
ignore_writethru
ibrix_cifsconfig を使用して、クラスターに適切な値を指定して (1= 有効、0= 無効)
パラメーターを設定します。 次の例では、パラメーターを 6.1 リリースのデフォルト値
に指定しています。
ibrix_cifsconfig -t -S "smb_signing_enabled=0,
smb_signing_required=0"
ibrix_cifsconfig -t -S "ignore_writethru=1"
SMB 署名機能は、クライアントが SMB 共有にアクセスするために SMB 署名をサポート
する必要があるかどうかを指定します。 この機能の詳細については、『HP IBRIX 9000
Storage File System ユーザーガイド』 を参照してください。 ignore_writethru が有効
な場合、IBRIX ソフトウェアはライトスルーバッファリングを無視して、これを要求する
一部のユーザーアプリケーションの SMB 書き込みパフォーマンスを向上します。
7.
8.
Linux 9000 クライアント上にファイルシステムをマウントします。
bond1 上にクラスターネットワークが構成されている場合、6.1 リリースでは Fusion
Manager の VIF (Agile_Cluster_VIF) も bond1 上に存在している必要があります。 システ
ムを確認するには、ibrix_nic -l および ibrix_fm -f コマンドを実行します。 bond1
の TYPE が Cluster に設定され、両方のノードの IP_ADDRESS が管理コンソールが登
録されているサブネットまたはネットワークと一致していることを確認します。 例を次に
示します。
[root@ib121-121 fmt]# ibrix_nic -l
HOST
IFNAME
TYPE
STATE
IP_ADDRESS
MAC_ADDRESS
BACKUP_HOST BACKUP_IF ROUTE VLAN_TAG LINKMON
----------------------------- ------- ------- ---------------------- ------------- --------------------------- ---------- ----- -------- ------ib121-121
bond1
Cluster Up, LinkUp
10.10.121.121 10:1f:74:35:a1:30
No
ib121-122
bond1
Cluster Up, LinkUp
10.10.121.122 10:1f:74:35:83:c8
No
ib121-121 [Active FM Nonedit] bond1:0 Cluster Up, LinkUp (Active FM) 10.10.121.220
No
[root@ib121-121 fmt]# ibrix_fm -f
NAME
IP ADDRESS
--------- ---------ib121-121 10.10.121.121
ib121-122 10.10.121.122
システム上に不一致がある場合、ポート 1234 および 9009 に接続するとエラーが表示さ
れます。この状況を修正するには、「Fusion Manager VIF の bond1 への移動」 (197 ペー
ジ) を参照してください。
9.
inode 形式が変更されたため、スナップショットに使用されるファイルを IBRIX File Serving
Software 6.0 以降で作成する必要があります。または、ファイルが含まれる 6.0 より前の
ファイルシステムをスナップショットで使用できるようにアップグレードする必要があり
ます。 ファイルシステムのアップグレードの詳細については、「6.0 以前のファイルシス
テムのアップグレードによるソフトウェアスナップショットのサポート」 (193 ページ) を
参照してください。
Linux 9000 クライアントのアップグレード
Linux 9000 クライアントをアップグレードする前に、必ずクラスターノードをアップグレード
してください。 各クライアント上で次の手順を実施します。
1. 最新の HP 9000 Client 6.1 パッケージをダウンロードします。
2. tar ファイルを展開します。
3. アップグレードスクリプトを実行します。
./ibrixupgrade -f
このアップグレードスクリプトは、必要なサービスを自動的に停止して、アップグレード
の完了後に再開します。
4.
次のコマンドを実行して、クライアントで IBRIX ソフトウェアが実行されていることを確
認します。
/etc/init.d/ibrix_client status
192 段階的なアップグレード
IBRIX Filesystem Drivers loaded
IBRIX IAD Server (pid 3208) running...
上の出力例に示すように、IAD サービスが実行している必要があります。 実行していない場
合は、HP サポートにお問い合わせください。
Linux クライアントへのカーネルのマイナーアップデートのインストール
9000 クライアントソフトウェアと互換性のある Linux カーネルのマイナーアップデートをイ
ンストールすると、クライアントソフトウェアが自動的にアップグレードされます。
カーネルのマイナーアップデートのインストールを計画している場合、初めに次のコマンドを
実行して、アップデートが 9000 クライアントソフトウェアと互換性があることを確認してく
ださい。
/usr/local/ibrix/bin/verify_client_update <kernel_update_version>
次の例は、カーネルバージョン 2.6.9-89.ELsmp の RHEL 4.8 クライアントの場合です。
# /usr/local/ibrix/bin/verify_client_update 2.6.9-89.35.1.ELsmp
Kernel update 2.6.9-89.35.1.ELsmp is compatible.
カーネルのマイナーアップデートの互換性が確認されたら、ベンダー RPM を使用してアップ
デートをインストールし、システムを再起動します。 新しいカーネルに応じて 9000 クライ
アントソフトウェアが自動的に更新され、9000 クライアントサービスが自動的に起動します。
ibrix_version -l -C コマンドを使用して、クライアントのカーネルバージョンを確認し
ます。
nl
注記: verify_client コマンドを使用するには、9000 クライアントソフトウェアがイン
ストールされている必要があります。
Windows 9000 クライアントのアップグレード
各クライアント上で次の手順を実施します。
1. コントロールパネルの [プログラムの追加と削除]ユーティリティを使用して、古い Windows
9000 クライアントソフトウェアを削除します。
2. アップグレード用の Windows 9000 クライアント MSI ファイルをコンピューターにコピー
します。
3. Windows インストーラーを起動して指示に従い、アップグレードを完了します。
4. Windows 9000 クライアントを再度クラスターに登録して、[Start Service after Registration]
オプションを選択します。
5. [管理ツール] | [サービス]で、9000 クライアントサービスが開始されていることを確認し
ます。
6. Windows 9000 クライアントを起動します。 [Active Directory Settings] タブで [ Update]
をクリックして、現在の Active Directory 設定を取得します。
7. IBRIX Windows クライアント GUI を使用してファイルシステムをマウントします。
注記: リモートデスクトップを使用してアップグレードを実行している場合は、ログアウト
してから再度ログインして、ドライブがマウントされていることを確認する必要があります。
6.0 以前のファイルシステムのアップグレードによるソフトウェアスナップショッ
トのサポート
ソフトウェアスナップショットをサポートするために、IBRIX 6.0 リリースで inode 形式が変更
されました。 upgrade60.sh ユーティリティは、6.0 以前のリリースで作成されたファイル
システムをアップグレードして、ファイルシステム上でのソフトウェアスナップショットの取
得を可能にします。
このユーティリティは、実際にアップグレードを行うことなく、必要な変換を判断できます。
このユーティリティを使用する際は、以下の点に注意する必要があります。
•
ファイルシステムはマウント解除する必要があります。
•
BAD とマークされたセグメントはアップグレードできません。
IBRIX ソフトウェアの 6.1 リリースへのアップグレード
193
•
アップグレードはファイルシステム内のセグメントを所有しているすべてのファイルサー
ビングノードで並行して実行されます。各ノードでは少なくとも 1 つのスレッドが実行さ
れます。 複数のコントローラーが存在するシステムでは、このユーティリティは可能な場
合に各コントローラーのスレッドを実行します。
•
最大 3.8TB のサイズのファイルがアップグレードされます。 より大きなファイルでのス
ナップショットを可能にするには、アップグレードの完了後にこれらのファイルを移行す
る必要があります (「大きなファイルの移行」 (194 ページ) を参照)。
•
通常、アップグレードは 1TB のデータあたり約 3 時間を要します。 システムの構成は、
この数字の影響を受ける場合があります。
ユーティリティの実行
通常、ユーティリティは次のように実行してファイルシステムをアップグレードします。
upgrade60.sh file system
たとえば、次のコマンドはファイルシステム fs1 上でフルアップグレードを行います。
upgrade60.sh fs1
進捗およびステータスのレポート
このユーティリティは、各ノードの /usr/local/ibrix/log/upgrade60 ディレクトリに
ログファイルを生成し、アップグレード中のセグメントの情報を記録します。 各ノードには、
そのノードのセグメントに関するログファイルが含まれています。
ログファイルの名前は <host>_<segment>_<date>_upgrade.log です。 たとえば、次の
ログファイルは、ホスト ib4–2 のセグメント ilv2 のものです。
ib4-2_ilv2_2012-03-27_11:01_upgrade.log
ユーティリティの再開
アップグレードが停止した場合やシステムがシャットダウンした場合、アップグレードユー
ティリティを再開して操作を続行できます (アップグレードを停止するには、コマンドライン
で Ctrl + C キーを押すか、プロセスに割り込み信号を送信します)。
システムに悪影響はありませんが、中断時にファイルシステムにより新しく割り当てられた特
定のブロックが失われます。 ibrix_fsck を corrective モードで実行するとこれらのブロッ
クを復旧できます。
注記: upgrade60.sh ユーティリティは INACTIVE 状態のセグメントをアップグレードでき
ません。 ファイルシステムがマウント解除された状態でノードを再起動またはシャットダウン
すると、このノードが所有しているファイルシステムのセグメントは INACTIVE 状態となりま
す。 これらのセグメントを ACTIVE 状態に移行するには、ibrix_mount を使用してファイル
システムをマウントします。 次に、ibrix_umount を使用してファイルシステムをアンマウ
ントして upgrade60.sh の実行を再開します。セグメントの状態は Linux の lvscan コマン
ドで確認できます。
大きなファイルの移行
upgrade60.sh ユーティリティでは、3.8TB より大きなファイルはアップグレードしません。
アップグレードが完了するとファイルシステムがマウントされ、次のコマンドを使用してファ
イルシステム内の別のセグメントに大きなファイルを移行します。
ibmigrate -f filesystem -m 1 -d destination_segment file
次の例では、file.9 を現在のセグメントから移行先のセグメント 2 に移行しています。
ibmigrate -f ibfs -m 1 -d 2 /mnt/ibrix/test_dir/dir1/file.9
ファイルを移行すると、ファイルのスナップショットを取得できます。
要約
アップグレードユーティリティの実行
upgrade60.sh [-v –n] file system
194
段階的なアップグレード
-n オプションは必要な変換をリスト表示しますが、変換は行われません。 -v オプションは詳
細な情報を表示します。
6.1.1 より前のファイルシステムのデータ保管機能のためのアップグレード
IBRIX 6.1.1 またはそれ以降で作成したファイルシステムでは、データ保管が自動的に有効に
なっています。 IBRIX 6.0 以前で作成したファイルシステムでデータ保管を有効にするには、
この項の説明に従って、ibrix_reten_adm -u コマンドを実行します。
データ保管を有効にするには、次の手順を実行します。
1. 6.0 より前のファイルシステムを使用している場合は、 項 (193 ページ) の説明に従って、
upgrade60.sh ユーティリティを実行します。
2. ファイルシステムがマウントされているノードで、次のコマンドを実行します。
ibrix_reten_adm -u -f FSNAME
この例では、FSNAME は、データ保管機能のためにアップグレードするファイルシステム
の名前です。
このコマンドによって、ノードにおいてデータ保管が有効になり、ファイルシステムがア
ンマウントされます。
3.
4.
このコマンドによるファイルシステムのアップグレードの完了後に、ファイルシステムを
再マウントします。
ibrix_fs コマンドを入力して、ファイルシステムのデータ保管と自動コミット期間を希
望する値に設定します。 ibrix_fs コマンドの詳細については、『HP IBRIX 9000 Storage
CLI リファレンスガイド』 を参照してください。
アップグレードの問題のトラブルシューティング
アップグレードが正常に完了しない場合は、以下の項目を確認してください。 追加の支援が必
要な場合は、HP サポートまでお問い合わせください。
自動アップグレード
次の点を確認してください。
•
/usr/local/ibrix/setup/upgrade の初回の実行に失敗する場合
は、/usr/local/ibrix/setup/upgrade.log にエラーがないか確認してください。
アップグレードスクリプトを実行する前に、すべてのサーバーで IBRIX ソフトウェアが稼
働していることが必須です。
•
新しい OS のインストールに失敗する場合、ノードの電源を再投入して 再起動してくださ
い。 再起動後にインストールが開始しない場合は、マシンの電源を再投入して、grub
ブートメニューから upgrade 行を選択してください。
•
アップグレード後に、/usr/local/ibrix/setup/logs/postupgrade.log にエラー
または警告がないか確認してください。
•
いずれかのノードで構成の復元に失敗した場合は、そのノードの
/usr/local/ibrix/autocfg/logs/appliance.log を調べて、どの機能の復元に失
敗したのかを特定してください。 /usr/local/ibrix/setup/logs/以下にある特定の
機能のログファイルで、詳細な情報を調査してください。
構成のコピーを再試行するには、次のコマンドを使用します。
/usr/local/ibrix/autocfg/bin/ibrixapp upgrade –f –s
•
新しいイメージのインストールには成功しても、構成の復元に失敗しサーバーを以前のイ
ンストールに戻す必要がある場合は、次のコマンドを使用し、次にマシンを再起動しま
す。 この手順により、サーバーは古いバージョン (別のパーティション) から起動します。
/usr/local/ibrix/setup/boot_info –r
•
パブリックネットワークインターフェイスがダウンして、ノードへアクセスできなくなっ
た場合、そのノードの電源を再投入してください。
注記:
各ノードには、/tmp にそれぞれの ibrixupgrade.log が格納されています。
IBRIX ソフトウェアの 6.1 リリースへのアップグレード
195
手動アップグレード
次の点を確認してください。
•
復元スクリプトを完了できない場合は、/usr/local/ibrix/setup/logs/restore.log
で詳細を確認してください。
•
構成の復元に失敗した場合は、/usr/local/ibrix/autocfg/logs/appliance.log
を調べて、どの機能の復元に失敗したのかを特定してください。 /usr/local/ibrix/
setup/logs/以下にある特定の機能のログファイルで、詳細な情報を調査してください。
構成のコピーを再試行するには、次のコマンドを使用します。
/usr/local/ibrix/autocfg/bin/ibrixapp upgrade –f –s
iLO ファームウェアが古いためオフラインアップグレードに失敗する
ノード上の iLO2 ファームウェアが古い場合、auto_ibrixupgrade スクリプトは失敗しま
す。 /usr/local/ibrix/setup/logs/auto_ibrixupgrade.log に、エラーのレポート
とファームウェアのアップデート方法の説明が含まれています。
ファームウェアのアップグレード後に、ノード上で次のコマンドを実行して IBRIX ソフトウェ
アのアップグレードを完了してください。
/root/ibrix/ibrix/ibrixupgrade -f
ノードがクラスターネットワークに登録されていない
アジャイル Fusion Manager をホストしているノードは、クラスターネットワークに登録する
必要があります。 ibrix_fm コマンドでノードの IP アドレスがユーザーネットワークのもの
であることがレポートされる場合、IP アドレスをクラスターネットワークに再割り当てする必
要があります。 たとえば、次のコマンドは、アクティブな Fusion Manager をホストしている
ノード ib51–101 の IP アドレス (15.226.51.101) がユーザーネットワーク上のもので、クラ
スターネットワーク上のものではないことをレポートしています。
[root@ib51-101 ibrix]# ibrix_fm -i
FusionServer: ib51-101 (active, quorum is running)
==================================================
[root@ib51-101 ibrix]# ibrix_fm -f
NAME
IP ADDRESS
-------- ---------ib51-101 15.226.51.101
ib51-102 10.10.51.102
1.
この例のように、ユーザーネットワーク上のノードがアクティブな Fusion Manager をホ
ストしている場合、このノード上の Fusion Manager を停止します。
[root@ib51-101 ibrix]# /etc/init.d/ibrix_fusionmanager stop
Stopping Fusion Manager Daemon
[
[root@ib51-101 ibrix]#
2.
OK
]
現在アクティブな Fusion Manager をホストしているノード (この例では ib51–102) で、
ノード ib51–101 の登録を解除します。
[root@ib51-102 ~]# ibrix_fm -u ib51-101
Command succeeded!
3.
アクティブな Fusion Manager をホストしているノードで、ノード ib51–101 を登録し
て、正しい IP アドレスを割り当てます。
[root@ib51-102 ~]# ibrix_fm -R ib51-101 -I 10.10.51.101
Command succeeded!
注記: Fusion Manager を登録する際は、-R で指定されたホスト名がサーバーのホスト
名と一致している必要があります。
196
段階的なアップグレード
ibrix_fm コマンドで、ノード ib51–101 が正しい IP アドレスを持ち、ノード ib51–102 が
アクティブな Fusion Manager をホストしていることが示されます。
[root@ib51-102 ~]# ibrix_fm -f
NAME
IP ADDRESS
-------- ---------ib51-101 10.10.51.101
ib51-102 10.10.51.102
[root@ib51-102 ~]# ibrix_fm -i
FusionServer: ib51-102 (active, quorum is running)
==================================================
ファイルシステムのマウント解除の問題
ファイルシステムが正しくマウント解除されない場合、すべてのサーバー上で以下の手順を実
行してください。
1. 以下のコマンドを実行します。
chkconfig ibrix_server off
chkconfig ibrix_ndmp off
chkconfig ibrix_fusionmanager off
2.
3.
すべてのサーバーを再起動します。
以下のコマンドを実行して、サービスを on 状態に戻します。 コマンドは、サービスを開
始しません。
chkconfig ibrix_server on
chkconfig ibrix_ndmp on
chkconfig ibrix_fusionmanager on
4.
ファイルシステムをマウント解除して、アップグレード手順を続行します。
Fusion Manager VIF の bond1 への移動
9720 システムをインストールすると、クラスターネットワークは bond1 に移動します。 6.1
リリースでは、ポート 1234 および 9009 にアクセスできるようにするために、Fusion Manager
VIF (Agile_Cluster_VIF) も bond1 に移動する必要があります。Agile_Cluster_VIF を bond1 に移
動するには、以下の手順を実行してください。
1. アクティブな Fusion Manager で、すべてのパッシブな管理コンソールをリスト表示して、
これらの管理コンソールを maintenance モードに移行します。次にアジャイル構成からこ
れらの管理コンソールを登録解除します。
# ibrix_fm -f
# ibrix_fm -m nofmfialover
# ibrix_fm –u <management_console_name>
nl
nl
2.
3.
新しい Agile_Cluster_VIF_DEV および関連する Agile_Cluster_VIF_IP を定義します。
IBRIX データベースで、Fusion Manager のローカルクラスターアドレスを bond0 から
bond1 に変更します。
a. 定義済みの Agile_Cluster_VIF_IP 登録アドレスを変更します。 アクティブな Fusion
Manager で、bond1 サブネット上の新しい Agile _Cluster_VIF_IP を指定します。
ibrix_fm –t –I <new_Agile_Cluster_VIF_IP>
注記: ibrix_fm –t コマンドについては説明していませんが、この操作に使用す
ることができます。
b.
各ファイルサービングノードで、/etc/ibrix/iadconf.xml ファイルを編集しま
す。
vi /etc/ibrix/iadconf.xml
このファイル内の次の行に、新しい Agile_Cluster_VIF_IP アドレスを記述します。
IBRIX ソフトウェアの 6.1 リリースへのアップグレード
197
<property name=”fusionManagerPrimaryAddress”
value=”xxx.xxx.xxx.xxx’/>
4.
アクティブな Fusion Manager で、各ノードの bond1 ローカルクラスター IP アドレスを
使用して、すべてのバックアップ管理コンソールを再登録します。
# ibrix_fm –R <management_console_name> —I <local_cluster_network_IP>
注記: Fusion Manager を登録する際は、-R で指定されたホスト名がサーバーのホスト
名と一致している必要があります。
5.
バックアップ管理コンソールを passive モードに戻します。
# ibrix_fm –m passive
6.
アクティブな Fusion Manager を nofmfialover モードにして強制的にフェイルオーバーを
実行します (パッシブな Fusion Manager がアクティブな役割を担うまで最大 1 分を要し
ます)。
# ibrix_fm –m nofmfialover
7.
新しくアクティブになった Fusion Manager から、以前アクティブであった Fusion Manager
の登録を解除します。
# ibrix_fm –u <original_active_management_console_name>
8.
その Fusion Manager を新しい値を使用して再登録し、passive モードに移行します。
# ibrix_fm –R <agileFM_name> —I <local_cluster_network_ip>
# ibrix_fm –m passive
nl
9.
すべての管理コンソールが bond1 ローカルクラスターネットワーク上で正しく登録され
ていることを確認します。
# ibrix_fm –f
登録されたすべての管理コンソールとその新しいローカルクラスター IP アドレスが表示さ
れている必要があります。 エントリーが正しくない場合、該当する Fusion Manager の登
録を解除して、再登録します。
10. ファイルサービングノードを再起動します。
手順の完了後に、Fusion Manager がフェイルオーバーしない、または /usr/local/ibrix/
log/Iad.log ファイルにポート 1234 または 9009 との通信のエラーがレポートされる場合
は、HP サポートに問い合わせて追加の支援を受けてください。
IBRIX ソフトウェアの 5.6 リリースへのアップグレード
この項では、最新の IBRIX ソフトウェアリリースにアップグレードする方法について説明しま
す。 管理コンソールおよびすべてのファイルサービングノードは、同時に新しいリリースに
アップグレードする必要があります。 次のことに留意してください。
•
IBRIX ソフトウェア 5.6 リリースへのアップグレードは、現在 IBRIX ソフトウェア 5.5.x を
実行しているシステムでサポートされます。 それ以前のリリースを実行しているシステム
の場合は、初めに 5.5 リリースにアップグレードしてしてから、5.6 にアップグレードし
てください。
•
このアップグレード手順は、オペレーティングシステムを Red Hat Enterprise Linux 5.5 に
アップグレードします。
重要: クラスターのアップグレードの進行中は、新しいリモート複製ジョブを開始しないで
ください。 アプリケーションの開始前に複製ジョブが実行中である場合、アップグレードの完
了後に問題なくこのジョブの実行が続行されます。
IBRIX ソフトウェア 5.6 へのアップグレードはオフラインアップグレードとしてのみサポート
されます。 このアップグレードではカーネルのアップグレードが必要となるため、ローカル
ディスクを再フォーマットする必要があります。 クライアントでは、システムのアップグレー
ド中に管理アクセスおよびファイルシステムアクセスに短時間の中断が発生します。
198 段階的なアップグレード
現在のインストールに応じて 2 つのアップグレード手順を使用できます。 使用している IBRIX
ソフトウェア 5.5 システムが QR 手順を通じてインストールされたものである場合、自動アッ
プグレード手順を使用できます。 アップグレード手順を使用して IBRIX ソフトウェア 5.5 シス
テムをインストールした場合、手動での操作が必要となります。 使用しているシステムが QR
手順を使用してインストールされたものかどうかを判断するには、df コマンドを実行します。
/、/local、/stage、および /alt の各ディレクトリに個別のファイルシステムがマウント
されていることが確認できる場合、お使いのシステムは Quick Restore によりインストールさ
れており、自動アップグレード手順を使用できます。 これらのマウントポイントを確認できな
い場合、手動によるアップグレード手順を進めます。
•
自動アップグレード: このプロセスは、ローカルディスク上の個別のパーティションス
ペースを使用して、ノード固有の構成情報を保存します。 各ノードのアップグレード後
に、それぞれの構成が自動的に再適用されます。
•
手動アップグレード: 各サーバーのアップグレード前に、このプロセスではノード固有の
構成情報をサーバーから外部デバイスにバックアップする必要があります。 サーバーの
アップグレード後に、ノード固有の構成情報を手動でコピーして復元する必要がありま
す。
標準構成の 9720 システムの場合のアップグレードの所要時間は約 45 分です。
注記: IBRIX 5.x リリースからアップグレードする場合、ibrix_supportticket コマンド
を使用して収集されたすべてのサポートチケットがアップグレードの実行中に削除されます。
/admin/platform/diag/supporttickets ディレクトリからアーカイブファイル (.tgz)
のコピーをダウンロードしてください。
自動アップグレード
アップグレードの実行時は、すべてのファイルサービングノードおよび管理コンソールが稼働
している必要があります。 稼働していないノードまたは管理コンソールがある場合、アップグ
レードスクリプトは失敗します。 クラスターノードのステータスを確認するには、GUI のダッ
シュボードを確認するか、ibrix_health コマンドを使用します。
クラスター内のすべてのノードを自動的にアップグレードするには、以下の手順を実行しま
す。
1. 管理コンソール GUI のダッシュボードで、すべてのノードが稼働していることを確認しま
す。
2. HP キオスク http://www.software.hp.com/kiosk (英語) で、最新リリースのイメージを取
得します (HP から提供されたログイン認証情報が必要です)。
3. リリースの .iso ファイルを、現在アクティブな管理コンソールにコピーします。
4. iso のコピーの場所を引数に指定して、次のコマンドを実行します。
/usr/local/ibrix/setup/upgrade <iso>
アップグレードスクリプトは、クラスター内のすべてのサーバー上で必要な手順をすべて
実行し、進捗状況を /usr/local/ibrix/setup/upgrade.log ファイルに記録しま
す。 スクリプトの完了後、各サーバーは自動的に再起動して最新のソフトウェアのインス
トールを開始します。
5.
インストールが完了すると、アップグレードプロセスはノード固有の構成情報を自動的に
復元し、クラスターは最新のソフトウェアを実行します。 アクティブな管理コンソール上
に UPGRADE FAILED メッセージが表示された場合は、指定されたログファイルで詳細を
確認してください。
手動アップグレード
手動アップグレードプロセスでは、クラスター構成の保存に使用する外部ストレージを必要と
します。 各サーバーはこのメディアにネットワーク経由ではなく直接アクセスできる必要があ
ります。ネットワーク構成は保存される構成の一部となるためです。 USB スティックまたは
DVD を使用することをお勧めします。
注記:
アップグレード手順を開始する前に、必ずすべての手順を確認してください。
IBRIX ソフトウェアの 5.6 リリースへのアップグレード 199
アジャイル管理コンソール構成をホストしているノードを特定するには、ibrix_fm -i コマ
ンドを実行します。
アップグレードの準備
次の手順を実行します。
1. すべてのノードが稼働していることを確認します。
2. アクティブな管理コンソールのノードで、すべてのファイルサービングノードへの自動
フェイルオーバーを無効にします。
<ibrixhome>/bin/ibrix_server -m -U
3.
次のコマンドを実行して、自動フェイルオーバーがオフになっていることを確認します。
出力の HA カラムは、off を表示している必要があります。
<ibrixhome>/bin/ibrix_server -l
4.
アクティブな管理コンソールのノードで、すべてのファイルサービングノード上の NFS
および SMB サービスを停止して、NFS および SMB クライアントのタイムアウトを防ぎ
ます。
<ibrixhome>/bin/ibrix _server -s -t cifs -c stop
<ibrixhome>/bin/ibrix _server -s -t nfs -c stop
CIFS を使用している場合、すべてのファイルサービングノード上で likewise サービスが停
止していることを確認します。
ps –ef | grep likewise
kill -9 を使用して、実行中のすべての likewise サービスを停止します。
5.
ファイルシステムが Windows 9000 クライアントからマウントされている場合、Windows
クライアントの GUI を使用してファイルシステムをアンマウントします。
すべての IBRIX ファイルシステムをアンマウントします。
<ibrixhome>/bin/ibrix _umount -f <fsname>
6.
ノード構成の保存
アクティブな管理コンソールをホストしているノードから開始して、各ノードで以下の手順を
実行します。
1. /usr/local/ibrix/setup/save_cluster_config を実行します。 このスクリプト
は、<hostname>_cluser_config.tgz と言う名前の tgz ファイルを作成します。こ
のファイルには、ノード構成のバックアップが格納されます。
2. /tmp にある <hostname>_cluser_config.tgz ファイルを、外部ストレージメディア
に保存します。
アップグレードの実行
各ノード上で次の手順を実施します。
1. HP キオスク http://www.software.hp.com/kiosk (英語) で、最新の Quick Restore イメージ
を取得します (HP から提供されたログイン認証情報が必要です)。
2. ISO イメージを使用して DVD を作成します。
3. Quick Restore DVD をサーバーの DVD-ROM ドライブに挿入します。
4. サーバーを再起動して、DVD-ROM からブートします。
5. IBRIX 9000 Network Storage System 画面が表示されたら、qr と入力して、IBRIX ソフト
ウェアをファイルサービングノードにインストールします。
ソフトウェアがインストールされると、サーバーが自動的に再起動します。 DVD を
DVD-ROM ドライブから取り外します。
ノード構成の復元
以前にアクティブであった管理コンソールから開始して、各ノードで以下の手順を実行しま
す。
200 段階的なアップグレード
2.
3.
ノードにログインします。 構成ウィザードがポップアップ表示されます。 構成ウィザー
ドから抜けます。
ノード構成情報を保存した外部ストレージメディアを接続します。
構成を復元します。 次の復元スクリプトを実行して、ノードの構成情報が保存されている
tgz ファイルを引数として渡します。
/usr/local/ibrix/setup/restore <saved_config.tgz>
4.
ノードを再起動します。
1.
アップグレードの完了
次の手順を実行します。
1. すべての IBRIX ファイルシステムを再マウントします。
<ibrixhome>/bin/ibrix_mount -f <fsname> -m </mountpoint>
2.
3.
Windows クライアントの GUI を使用して、Windows 9000 クライアント上の以前にマウ
ントされていたすべて IBRIX ファイルシステムを再マウントします。
アップグレードを実行する前に自動フェイルオーバーが有効化されていた場合、アクティ
ブな管理コンソールをホストしているノードからこれを再有効化します。
<ibrixhome>/bin/ibrix_server -m
4.
自動フェイルオーバーが有効化されたことを確認します。
<ibrixhome>/bin/ibrix_server -l
出力の HA には、on が表示されている必要があります。
5.
アクティブな管理コンソールをホストしているノードから、アップグレードされた構成の
手動バックアップを実行します。
<ibrixhome>/bin/ibrix_fm -B
6.
すべてのファイルサービングノードについてバージョンインジケーターが一致しているこ
とを確認します。 アクティブな管理コンソールから次のコマンドを実行します。
<ibrixhome>/bin/ibrix_version –l
バージョンの不一致がある場合、該当するノード上で /ibrix/ibrixupgrade -f スク
リプトを再実行して、バージョンを再確認します。 すべてのバージョンインジケーターが
一致すれば、インストールは成功です。 すべての手順に従ってもバージョンインジケー
ターが一致しない場合は、HP サポートにお問い合わせください。
7.
クラスターの稼働状態を確認します。
<ibrixhome>/bin/ibrix_health -l
出力に Passed / on が表示されれば正常です。
8.
アジャイル構成では、パッシブな管理コンソールをホストしているすべてのノードで、管
理コンソールを passive モードに戻します。
<ibrixhome>/bin/ibrix_fm -m passive
9.
HP から新しいライセンスが提供された場合、このドキュメントの「ライセンス」の章の
説明に従ってインストールします。
アップグレードの問題のトラブルシューティング
アップグレードが正常に完了しない場合は、以下の項目を確認してください。 追加の支援が必
要な場合は、HP サポートまでお問い合わせください。
自動アップグレード
次の点を確認してください。
•
/usr/local/ibrix/setup/upgrade の初回の実行に失敗する場合
は、/usr/local/ibrix/setup/upgrade.log にエラーがないか確認してください。
アップグレードスクリプトを実行する前に、すべてのサーバーで IBRIX ソフトウェアが稼
働していることが必須です。
IBRIX ソフトウェアの 5.6 リリースへのアップグレード 201
•
新しい OS のインストールに失敗する場合、ノードの電源を再投入して 再起動してくださ
い。 再起動後にインストールが開始しない場合は、マシンの電源を再投入して、grub
ブートメニューから upgrade 行を選択してください。
•
アップグレード後に、/usr/local/ibrix/setup/logs/postupgrade.log にエラー
または警告がないか確認してください。
•
いずれかのノードで構成の復元に失敗した場合は、そのノードの
/usr/local/ibrix/autocfg/logs/appliance.log を調べて、どの機能の復元に失
敗したのかを特定してください。 /usr/local/ibrix/setup/logs/以下にある特定の
機能のログファイルで、詳細な情報を調査してください。
構成のコピーを再試行するには、使用しているサーバーに適切なコマンドを使用してくだ
さい。
◦
ファイルサービングノードの場合
/usr/local/ibrix/autocfg/bin/ibrixapp upgrade –s
◦
アジャイルノード (アジャイル管理コンソールをホストしているファイルサービング
ノード) の場合
/usr/local/ibrix/autocfg/bin/ibrixapp upgrade –f –s
•
新しいイメージのインストールには成功するが、構成の復元に失敗しサーバーを以前のイ
ンストールに戻す必要がある場合は、boot_info –r を実行して、次にマシンを再起動
します。 この手順により、サーバーは古いバージョン (別のパーティション) から起動し
ます。
•
パブリックネットワークインターフェイスがダウンして、ノードへアクセスできなくなっ
た場合、そのノードの電源を再投入してください。
手動アップグレード
次の点を確認してください。
•
復元スクリプトを完了できない場合は、/usr/local/ibrix/setup/logs/restore.log
で詳細を確認してください。
•
構成の復元に失敗した場合は、/usr/local/ibrix/autocfg/logs/appliance.log
を調べて、どの機能の復元に失敗したのかを特定してください。 /usr/local/ibrix/
setup/logs/以下にある特定の機能のログファイルで、詳細な情報を調査してください。
構成のコピーを再試行するには、使用しているサーバーに適切なコマンドを使用してくだ
さい。
◦
ファイルサービングノードの場合
/usr/local/ibrix/autocfg/bin/ibrixapp upgrade –s
◦
アジャイルノード (アジャイル管理コンソールをホストしているファイルサービング
ノード) の場合
/usr/local/ibrix/autocfg/bin/ibrixapp upgrade –f –s
IBRIX ソフトウェアの 5.5 リリースへのアップグレード
この項では、IBRIX ソフトウェア 5.5 へのアップグレード方法について説明します。 管理コン
ソールおよびすべてのファイルサービングノードは、同時に新しいリリースにアップグレード
する必要があります。
重要: クラスターのアップグレードの進行中は、新しいリモート複製ジョブを開始しないで
ください。 アプリケーションの開始前に複製ジョブが実行中である場合、アップグレードの完
了後に問題なくこのジョブの実行が続行されます。
202 段階的なアップグレード
注記: IBRIX 5.x リリースからアップグレードする場合、ibrix_supportticket コマンド
を使用して収集されたすべてのサポートチケットがアップグレードの実行中に削除されます。
/admin/platform/diag/supporttickets ディレクトリからアーカイブファイル (.tgz)
のコピーをダウンロードしてください。
アップグレードはオンラインまたはオフラインで実行します。
•
オンラインアップグレード: ファイルシステムのマウントを維持しながらソフトウェアを
アップグレードします。 ファイルサービングノードをアップグレードする前に、ノードを
バックアップノードにフェイルオーバーさせる必要があります。これにより、ファイルシ
ステムのアクセスが継続されます。 この手順はメジャーアップグレードには使用できませ
んが、マイナーアップグレードやメンテナンスアップグレードには適しています。
•
オフラインアップグレード: この手順では、ノード上でファイルシステムをマウント解除
してサービスを停止する必要があります (各ファイルサービングノードは、NFS または
SMB のアンマウント操作が失敗した際に再起動が必要となる場合があります)。 その後
で、アップグレードを開始できます。 クライアントでは、各ファイルサービングノードの
アップグレード中にファイルシステムへのアクセスが短時間中断します。
オフラインアップグレードは、自動または手動の手順で実行できます。 オンラインアップグ
レードは手動で行う必要があります。
自動アップグレード
自動アップグレード手順は、オフラインアップグレードとして実行します。 各ファイルサービ
ングノードがアップグレードされるときは、すべてのファイルシステムがノードからマウント
解除され、サービスが停止します。 クライアントでは、ノードのアップグレード中にファイル
システムへのアクセスが短時間中断します。
アップグレードの実行時は、すべてのファイルサービングノードおよび管理コンソールが稼働
している必要があります。 稼働していないノードまたは管理コンソールが存在する場合、アッ
プグレードスクリプトは失敗し、代わりに手動アップグレード手順を使用しなければなりませ
ん。 クラスターノードのステータスを確認するには、GUI のダッシュボードを確認します。
クラスター内のすべてのノードを自動的にアップグレードするには、以下の手順を実行しま
す。
1. 管理コンソール GUI のダッシュボードで、すべてのノードが稼働していることを確認しま
す。
2. 次のコマンドを実行して、偶数の FSN がペアの高可用性アーキテクチャーで構成されて
いることを確認します。
ibrix_server –l
3.
4.
5.
現在アクティブな管理コンソールで、以前のリリースのインストールで使用した
<installer_dir>/ibrix ディレクトリを ibrix.old に移動します。 たとえば、この
ノード上の以前の IBRIX のインストールで、tar アーカイブを /root で展開した場合、イ
ンストーラーは /root/ibrix に格納されています。
現在アクティブな管理コンソールで、任意のディレクトリに配布 tar アーカイブを展開す
るか、配布 DVD をマウントします。 tar アーカイブを展開すると、ibrix という名前の
サブディレクトリが作成され、そこにインストーラープログラムが格納されます。 たとえ
ば、tar アーカイブを /root に展開した場合、インストーラーは /root/ibrix に格納さ
れます。
アクティブな管理コンソールで、必要に応じてインストーラーディレクトリに移動しま
す。 次のコマンドを実行します。
./auto_ibrixupgrade
アップグレードスクリプトは、クラスター内のすべてのサーバー上で必要な手順をすべて
実行し、進捗状況を upgrade.log ファイルに記録します。 ログファイルはインストー
ラーディレクトリに存在します。
IBRIX ソフトウェアの 5.5 リリースへのアップグレード 203
手動アップグレード
アップグレードパス
アップグレードパスには、標準アップグレードとアジャイルアップグレードの 2 種類がありま
す。
•
標準アップグレードは、管理コンソールソフトウェアを実行する専用管理サーバーマシン
またはブレードが存在するクラスターで使用します。
•
アジャイルアップグレードは、アジャイル管理コンソール構成を持つクラスターで使用し
ます。この構成では、管理コンソールソフトウェアがクラスター内の 2 つのノードでアク
ティブ/パッシブ構成でインストールされています。
アジャイル管理コンソール構成を使用しているかどうかを判断するには、ibrix_fm -i コマ
ンドを実行します。 ステータスの出力で quorum is not configured がレポートされる場
合、使用しているクラスターはアジャイル構成ではありません。
使用している管理コンソール構成に対応したアップグレード手順を使用するようにしてくださ
い。
•
標準アップグレードの手順は、204 ページを参照してください。
•
アジャイルアップグレードの手順は、208 ページを参照してください。
オンラインアップグレードとオフラインアップグレード
標準およびアジャイルアップグレードの両方で、オンラインおよびオフラインアップグレード
手順を使用できます。
•
オンラインアップグレード: ファイルシステムのマウントを維持しながらソフトウェアを
アップグレードします。 ファイルサービングノードをアップグレードする前に、ノードを
バックアップノードにフェイルオーバーさせる必要があります。これにより、ファイルシ
ステムのアクセスが継続されます。 この手順はメジャーアップグレードには使用できませ
んが、マイナーアップグレードやメンテナンスアップグレードには適しています。
•
オフラインアップグレード: この手順では、初めにファイルシステムをマウント解除して
サービスを停止する必要があります (各ファイルサービングノードは、NFS または SMB
のアンマウント操作が失敗した際に再起動が必要となる場合があります)。 その後で、アッ
プグレードを開始できます。 クライアントでは、各ファイルサービングノードのアップグ
レード中にファイルシステムへのアクセスが短時間中断します。
専用管理サーバーマシンまたはブレードを持つクラスターの標準アップグレード
管理コンソールソフトウェアをホストしている専用の管理サーバーマシンまたはブレードがク
ラスターに存在する場合は、この手順を使用します。 IBRIX ソフトウェア 5.4.x から 5.5 への
アップグレードは、オンラインまたはオフラインで実行できます。 将来のリリースではオフラ
インアップグレードが必要となる予定です。
注記:
アップグレード手順を開始する前に、必ずすべての手順を確認してください。
標準オンラインアップグレード
管理コンソールを最初にアップグレードする必要があります。 次に、ファイルサービングノー
ドおよび 9000 クライアントを任意の順序でアップグレードできます。
管理コンソールのアップグレード
管理サーバーマシンまたはブレード上で、以下の手順を実行します。
1. すべてのファイルサービングノード上で自動フェイルオーバーを無効化します。
<ibrixhome>/bin/ibrix_server -m -U
2.
自動フェイルオーバーがオフであることを確認します。
<ibrixhome>/bin/ibrix_server -l
出力の HA カラムは、off を表示している必要があります。
204 段階的なアップグレード
3.
4.
5.
6.
以前のリリースのインストールに使用した <installer_dir>/ibrix ディレクトリを
ibrix.old に移動します。 たとえば、このノード上の以前の IBRIX のインストールで、
tar アーカイブを /root で展開した場合、インストーラーは /root/ibrix に格納されて
います。
任意のディレクトリに配布 tar アーカイブを展開するか、または配布 DVD をマウントしま
す。 tar アーカイブを展開すると、ibrix という名前のサブディレクトリが作成され、そ
こにインストーラープログラムが格納されます。 たとえば、tar アーカイブを /root に展
開した場合、インストーラーは /root/ibrix に格納されます。
必要に応じてインストーラーのディレクトリに移動して、アップグレードを実行します。
./ibrixupgrade -f
管理コンソールが動作していることを確認します。
/etc/init.d/ibrix_fusionmanager status
status コマンドで、正しいサービスが実行していることがレポートされる必要がありま
す。 次のような出力が得られます。
Fusion Manager Daemon (pid 18748) running...
7.
/usr/local/ibrix/log/fusionserver.log でエラーの有無を確認します。
ファイルサービングノードのアップグレード
管理コンソールがアップグレードされたら、各ファイルサービングノード上で以下の手順を実
行します。
1. 管理コンソールから、手動でファイルサービングノードのフェイルオーバーを行います。
<ibrixhome>/bin/ibrix_server -f -p -h HOSTNAME
ノードは自動的に再起動します。
2.
3.
4.
以前のリリースのインストールに使用した <installer_dir>/ibrix ディレクトリを
ibrix.old に移動します。 たとえば、このノード上の以前の IBRIX のインストールで、
tar アーカイブを /root で展開した場合、インストーラーは /root/ibrix に格納されて
います。
任意のディレクトリに配布 tar アーカイブを展開するか、または配布 DVD をマウントしま
す。 tar アーカイブを展開すると、ibrix という名前のサブディレクトリが作成され、そ
こにインストーラープログラムが格納されます。 たとえば、tar アーカイブを/root で展開
した場合、インストーラーは/root/ibrix に格納されます。
必要に応じてインストーラーのディレクトリに移動して、次のコマンドを実行します。
./ibrixupgrade -f
アップグレードプロセスによりサービスが自動的に停止し、プロセスの完了後にサービス
が再開します。
5.
アップグレードが完了したら、ノード上で IBRIX ソフトウェアサービスが実行されている
ことを確認します。
/etc/init.d/ibrix_server status
以下のような出力が得られます。 IAD サービスがシステム上で稼働していない場合、HP
サポートにお問い合わせください。
IBRIX Filesystem Drivers loaded
ibrcud is running.. pid 23325
IBRIX IAD Server (pid 23368) running...
6.
ibrix および ipfs サービスが稼働中であることを確認します。
lsmod|grep ibrix
ibrix 2323332 0 (unused)
lsmod|grep ipfs
ipfs1 102592 0 (unused)
いずれかの grep コマンドが空白を返す場合、HP サポートにお問い合わせください。
IBRIX ソフトウェアの 5.5 リリースへのアップグレード 205
7.
管理コンソールから、新しいバージョンの IBRIX ソフトウェアの FS/IAS がファイルサー
ビングノードにインストールされていることを確認します。
<ibrixhome>/bin/ibrix_version -l –S
8.
アップグレードが正常に完了したら、サービングノードのフェイルバックを行います。
<ibrixhome>/bin/ibrix_server -f -U -h HOSTNAME
9. クラスター内の各ファイルサービングノードで、手順 1~8 を繰り返します。
すべてのファイルサービングノードをアップグレードしてフェイルバックを実行してから、
アップグレードを完了します。
アップグレードの完了
1.
管理コンソールから、自動フェイルオーバーをオンに戻します。
<ibrixhome>/bin/ibrix_server –m
2.
自動フェイルオーバーが有効化されたことを確認します。
<ibrixhome>/bin/ibrix_server -l
出力の HA には、on が表示されている必要があります。
3.
すべてのファイルサービングノードについてバージョンインジケーターが一致しているこ
とを確認します。 管理コンソールから次のコマンドを実行します。
<ibrixhome>/bin/ibrix_version –l
バージョンの不一致がある場合、該当するノード上で /ibrix/ibrixupgrade -f スク
リプトを再実行して、バージョンを再確認します。 すべてのバージョンインジケーターが
一致すれば、インストールは成功です。 すべての手順に従ってもバージョンインジケー
ターが一致しない場合は、HP サポートにお問い合わせください。
4.
クラスターの新しいセグメントマップを伝播します。
<ibrixhome>/bin/ibrix_dbck -I -f FSNAME
5.
クラスターの稼働状態を確認します。
<ibrixhome>/bin/ibrix_health -l
出力で Passed / on が指定されれば正常です。
標準オフラインアップグレード
このアップグレード手順は、メジャーアップグレードに適しています。 管理コンソールを最初
にアップグレードする必要があります。 次に、ファイルサービングノードを任意の順序でアッ
プグレードできます。
アップグレードの準備
1.
管理コンソールで、すべてのファイルサービングノードへの自動フェイルオーバーを無効
にします。
<ibrixhome>/bin/ibrix_server -m -U
2.
管理コンソールから、自動フェイルオーバーがオフになっていることを確認します。 出力
の HA カラムは、off を表示している必要があります。
<ibrixhome>/bin/ibrix_server -l
3.
すべてのファイルサービングノード上の NFS および SMB サービスを停止し、NFS および
SMB クライアントのタイムアウトを防ぎます。
<ibrixhome>/bin/ibrix_server -s -t cifs -c stop
<ibrixhome>/bin/ibrix_server -s -t nfs -c stop
CIFS を使用している場合、すべてのファイルサービングノード上で likewise サービスが停
止していることを確認します。
ps –ef | grep likewise
kill -9 を使用して、実行中のすべての likewise サービスを停止します。
206 段階的なアップグレード
4.
管理コンソールから、すべての IBRIX ファイルシステムをアンマウントします。
<ibrixhome>/bin/ibrix_umount -f <fsname>
管理コンソールのアップグレード
管理コンソール上で、以下の手順を実行します。
1. 構成のバックアップを強制的に行います。
<ibrixhome>/bin/ibrix_fm -B
出力は、/usr/local/ibrix/tmp/fmbackup.zip に格納されます。 このファイルを、
必ずクラスター外の場所に保存するようにしてください。
2.
3.
4.
5.
以前のリリースのインストールに使用した <installer_dir>/ibrix ディレクトリを
ibrix.old に移動します。 たとえば、このノード上の以前の IBRIX のインストールで、
tar アーカイブを /root で展開した場合、インストーラーは /root/ibrix に格納されて
います。
任意のディレクトリに配布 tar アーカイブを展開するか、または配布 DVD をマウントしま
す。 tar アーカイブを展開すると、ibrix という名前のサブディレクトリが作成され、そ
こにインストーラープログラムが格納されます。 たとえば、tar アーカイブを /root に展
開した場合、インストーラーは /root/ibrix に格納されます。
必要に応じてインストーラーのディレクトリに移動して、次のコマンドを実行します。
./ibrixupgrade -f
管理コンソールが正常に起動していることを確認します。
/etc/init.d/ibrix_fusionmanager status
status コマンドは、適切なサービスが実行しているかどうかを確認します。 以下のような
出力が得られます。
Fusion Manager Daemon (pid 18748) running...
6.
/usr/local/ibrix/log/fusionserver.log でエラーの有無を確認します。
ファイルサービングノードのアップグレード
管理コンソールがアップグレードされたら、各ファイルサービングノード上で以下の手順を実
行します。
1. 以前のリリースのインストールに使用した <installer_dir>/ibrix ディレクトリを
ibrix.old に移動します。 たとえば、このノード上の以前の IBRIX のインストールで、
tar アーカイブを /root で展開した場合、インストーラーは /root/ibrix に格納されて
います。
2. 任意のディレクトリに配布 tar アーカイブを展開するか、または配布 DVD をマウントしま
す。 tar アーカイブを展開すると、ibrix という名前のサブディレクトリが作成され、そ
こにインストーラープログラムが格納されます。 たとえば、tar アーカイブを /root に展
開した場合、インストーラーは /root/ibrix に格納されます。
3. 必要に応じてインストーラーのディレクトリに移動して、次のコマンドを実行します。
./ibrixupgrade -f
アップグレードプロセスによりサービスが自動的に停止し、プロセスの完了後にサービス
が再開します。
4.
アップグレードが完了したら、ノード上で IBRIX ソフトウェアサービスが実行されている
ことを確認します。
/etc/init.d/ibrix_server status
以下の例のような出力が得られます。 IAD サービスがシステム上で稼働していない場合、
HP サポートにお問い合わせください。
IBRIX Filesystem Drivers loaded
ibrcud is running.. pid 23325
IBRIX IAD Server (pid 23368) running...
IBRIX ソフトウェアの 5.5 リリースへのアップグレード 207
5.
以下のコマンドを実行して、ibrix および ipfs サービスが実行していることを確認しま
す。
lsmod|grep ibrix
ibrix 2323332 0 (unused)
lsmod|grep ipfs
ipfs1 102592 0 (unused)
いずれかの grep コマンドが空白を返す場合、HP サポートにお問い合わせください。
6.
管理コンソールから、新しいバージョンの IBRIX ソフトウェアの FS/IAS がファイルサー
ビングノードにインストールされていることを確認します。
<ibrixhome>/bin/ibrix_version -l –S
アップグレードの完了
1.
すべてのファイルシステムを再マウントします。
<ibrixhome>/bin/ibrix_mount -f <fsname> -m </mountpoint>
2.
管理コンソールから、自動フェイルオーバーをオンに戻します。
<ibrixhome>/bin/ibrix_server -m
3.
自動フェイルオーバーが有効化されたことを確認します。
<ibrixhome>/bin/ibrix_server -l
出力の HA には、on が表示されている必要があります。
4.
管理コンソールから、アップグレードされた構成の手動バックアップを実行します。
<ibrixhome>/bin/ibrix_fm -B
5.
すべてのファイルサービングノードについてバージョンインジケーターが一致しているこ
とを確認します。 管理コンソールから次のコマンドを実行します。
<ibrixhome>/bin/ibrix_version –l
バージョンの不一致がある場合、該当するノード上で /ibrix/ibrixupgrade -f スク
リプトを再実行して、バージョンを再確認します。 すべてのバージョンインジケーターが
一致すれば、インストールは成功です。 すべての手順に従ってもバージョンインジケー
ターが一致しない場合は、HP サポートにお問い合わせください。
6.
クラスターの稼働状態を確認します。
<ibrixhome>/bin/ibrix_health -l
出力に Passed / on が表示されれば正常です。
アジャイル管理コンソール構成を持つクラスターのアジャイルアップグレード
使用しているクラスターがアジャイル管理コンソール構成を持っている場合、以下の手順を使
用します。 IBRIX ソフトウェア 5.4.x から 5.5 へのアップグレードは、オンラインまたはオフ
ラインで実行できます。 将来のリリースではオフラインアップグレードが必要となる予定で
す。
注記:
アップグレード手順を開始する前に、必ずすべての手順を確認してください。
アジャイルオンラインアップグレード
以下の順序で、アジャイルオンラインアップグレードを実行します。
•
アクティブな管理コンソールをホストしているファイルサービングノード
•
パッシブな管理コンソールをホストしているファイルサービングノード
•
残りのファイルサービングノードおよび 9000 クライアント
管理コンソールをホストしているファイルサービングノードのアップグレード
次の手順を実行します。
208 段階的なアップグレード
1.
アクティブな管理コンソールをホストしているノードで、管理コンソール構成のバック
アップを強制的に実行します。
<ibrixhome>/bin/ibrix_fm -B
出力は、/usr/local/ibrix/tmp/fmbackup.zip に格納されます。 このファイルを、
必ずクラスター外の場所に保存するようにしてください。
2.
アクティブな管理コンソールのノードで、すべてのファイルサービングノードへの自動
フェイルオーバーを無効にします。
<ibrixhome>/bin/ibrix_server -m -U
3.
自動フェイルオーバーがオフであることを確認します。
<ibrixhome>/bin/ibrix_server -l
出力の HA カラムは、off を表示している必要があります。
4.
アクティブな管理コンソールをホストしているノードで、管理コンソールを maintenance
モードにします。 この手順により、アクティブな管理コンソールの役割が現在パッシブで
あるアジャイル管理コンソールをホストしているノードにフェイルオーバーします。
<ibrixhome>/bin/ibrix_fm -m nofmfailover
5.
フェイルオーバーが完了するまで約 60 秒待機します。次に、フェイルオーバーのターゲッ
トであったノード上で次のコマンドを実行します。
<ibrixhome>/bin/ibrix_fm -i
このコマンドで、アジャイル管理コンソールが現在このノード上で Active (アクティブ)
であることがレポートされる必要があります。
6.
手順 4 でアクティブな管理コンソールのフェイルオーバーを行ったノードで、管理コン
ソールのステータスを maintenance から passive に変更します。
<ibrixhome>/bin/ibrix_fm -m passive
7.
アクティブな管理コンソールをホストしているノードで、現在パッシブであるノードの手
動フェイルオーバーを行います。
<ibrixhome>/bin/ibrix_server -f -p -h HOSTNAME
ノードが再起動するまで数分待機してから、次のコマンドを実行し、フェイルオーバーが
正常に完了したことを確認します。 出力は、Up, FailedOver をレポートしている必要
があります。
<ibrixhome>/bin/ibrix_server -l
8.
アクティブな管理コンソールをホストしているノードで、管理コンソールを maintenance
モードにします。
<ibrixhome>/bin/ibrix_fm -m nofmfailover
この手順により、アクティブな管理コンソールの役割が現在パッシブであるアジャイル管
理コンソール (元はアクティブであったノード) をホストしているノードにフェイルバック
します。
9.
フェイルオーバーが完了するまで約 90 秒待機します。次に、フェイルオーバーのターゲッ
トであったノード上で次のコマンドを実行します。
<ibrixhome>/bin/ibrix_fm -i
このコマンドで、アジャイル管理コンソールが現在このノード上で Active (アクティブ) で
あることがレポートされる必要があります。
10. アクティブであるアジャイル管理コンソールのノードで、以前のリリースのインストール
で使用した <installer_dir>/ibrix ディレクトリを ibrix.old に移動します。 た
とえば、このノード上の以前の IBRIX のインストールで、tar アーカイブを /root で展開
した場合、インストーラーは
/root/ibrix に格納されています。
11. アクティブな管理コンソールのノードで、任意のディレクトリに配布 tar アーカイブを展
開するか、配布 DVD をマウントします。 tar アーカイブを展開すると、ibrix という名
nl
IBRIX ソフトウェアの 5.5 リリースへのアップグレード 209
前のサブディレクトリが作成され、そこにインストーラープログラムが格納されます。 た
とえば、tar アーカイブを
/root に展開した場合、インストーラーは /root/ibrix に格納されます。
12. 必要に応じてインストーラーのディレクトリに移動して、アップグレードを実行します。
./ibrixupgrade -f
インストーラーは、このノード上の管理コンソールのソフトウェアおよびファイルサービ
ングノードのソフトウェアの両方をアップグレードします。
nl
13. 管理コンソールのステータスを確認します。
/etc/init.d/ibrix_fusionmanager status
status コマンドは、適切なサービスが実行しているかどうかを確認します。 以下のような
出力が得られます。
Fusion Manager Daemon (pid 18748) running...
次のコマンドも実行してください。このコマンドでコンソールが Active (アクティブ) であ
ることがレポートされる必要があります。
<ibrixhome>/bin/ibrix_fm -i
14. /usr/local/ibrix/log/fusionserver.log でエラーの有無を確認します。
15. アップグレードが正常に完了したら、サービングノードのフェイルバックを行います。 ア
クティブであるアジャイル管理コンソールのノードで、次のコマンドを実行します。
<ibrixhome>/bin/ibrix_server -f –U -h HOSTNAME
16. 手順 8 でアクティブな管理コンソールのフェイルバックを行ったノードで、管理コンソー
ルのステータスを maintenance から passive に変更します。
<ibrixhome>/bin/ibrix_fm –m passive
17. パッシブな管理コンソールのノードがファイルサービングノードでもある場合、アクティ
ブな管理コンソールからこのノードへのフェイルオーバーを行います。
<ibrixhome>/bin/ibrix_server -f –p -h HOSTNAME
ノードが再起動するまで数分待機してから、次のコマンドを実行し、フェイルオーバーが
正常に完了したことを確認します。 出力は、Up, FailedOver をレポートしている必要
があります。
<ibrixhome>/bin/ibrix_server -l
18. パッシブであるアジャイル管理コンソールのノードで、以前のリリースのインストールで
使用した <installer_dir>/ibrix ディレクトリを ibrix.old に移動します。 たと
えば、このノード上の以前の IBRIX のインストールで、tar アーカイブを /root で展開し
た場合、インストーラーは
/root/ibrix に格納されています。
19. パッシブであるアジャイル管理コンソールをホストしているノードで、任意のディレクト
リに配布 tar アーカイブを展開するか、配布 DVD をマウントします。 tar アーカイブを展
開すると、ibrix という名前のサブディレクトリが作成され、そこにインストーラープロ
グラムが格納されます。 たとえば、tar アーカイブを /root に展開した場合、インストー
ラーは /root/ibrix に格納されます。
20. 必要に応じてインストーラーのディレクトリに移動して、アップグレードを実行します。
./ibrixupgrade -f
インストーラーは、このノード上の管理コンソールのソフトウェアおよびファイルサービ
ングノードのソフトウェアの両方をアップグレードします。
nl
21. 管理コンソールのステータスを確認します。
/etc/init.d/ibrix_fusionmanager status
status コマンドは、適切なサービスが実行しているかどうかを確認します。 以下のような
出力が得られます。
Fusion Manager Daemon (pid 18748) running...
210
段階的なアップグレード
次のコマンドも実行してください。このコマンドでコンソールがパッシブであることがレ
ポートされる必要があります。
<ibrixhome>/bin/ibrix_fm -i
22. /usr/local/ibrix/log/fusionserver.log でエラーの有無を確認します。
23. アップグレードが正常に完了したら、ノードのフェイルバックを行います。 アクティブで
あるアジャイル管理コンソールのノードで、次のコマンドを実行します。
<ibrixhome>/bin/ibrix_server -f -U -h HOSTNAME
24. アジャイル管理コンソールをホストしている 2 つのノード上で、アジャイル管理コンソー
ルのソフトウェアおよびファイルサービングノードのソフトウェアがアップグレードされ
たことを確認します。
<ibrixhome>/bin/ibrix_version -l -S
以下に出力例を示します。
Fusion Manager version: 5.5.XXX
===============================
Segment Servers
===============
HOST_NAME FILE_SYSTEM
IAD/IAS IAD/FS
OS
KERNEL_VERSION ARCH
--------- ---------------------- ------- ------- --------- -------------- ---ib50-86
5.5.205(9000_5_5) 5.5.XXX 5.5.XXX GNU/Linux 2.6.18-128.el5 x86_64
ib50-87
5.5.205(9000_5_5) 5.5.XXX 5.5.XXX GNU/Linux 2.6.18-128.el5 x86_64
これで、残りの任意のファイルサービングノードをアップグレードできるようになりました。
残りのファイルサービングノードのアップグレード
各ファイルサービングノード上で次の手順を実施します。
1. ファイルサービングノードを手動でフェイルオーバーします。
<ibrixhome>/bin/ibrix_server -f -p -h HOSTNAME
ノードは自動的に再起動します。
2.
3.
4.
以前のリリースのインストールに使用した <installer_dir>/ibrix ディレクトリを
ibrix.old に移動します。 たとえば、このノード上の以前の IBRIX のインストールで、
tar アーカイブを /root で展開した場合、インストーラーは /root/ibrix に格納されて
います。
任意のディレクトリに配布 tar アーカイブを展開するか、または配布 DVD をマウントしま
す。 tar アーカイブを展開すると、ibrix という名前のサブディレクトリが作成され、そ
こにインストーラープログラムが格納されます。 たとえば、tar アーカイブを/root で展開
した場合、インストーラーは/root/ibrix に格納されます。
必要に応じてインストーラーのディレクトリに移動して、次のコマンドを実行します。
./ibrixupgrade -f
アップグレードプロセスによりサービスが自動的に停止し、プロセスの完了後にサービス
が再開します。
5.
アップグレードが完了したら、ノード上で IBRIX ソフトウェアサービスが実行されている
ことを確認します。
/etc/init.d/ibrix_server status
以下のような出力が得られます。 IAD サービスがシステム上で稼働していない場合、HP
サポートにお問い合わせください。
IBRIX Filesystem Drivers loaded
ibrcud is running.. pid 23325
IBRIX IAD Server (pid 23368) running...
6.
ibrix および ipfs サービスが稼働中であることを確認します。
lsmod|grep ibrix
ibrix 2323332 0 (unused)
lsmod|grep ipfs
IBRIX ソフトウェアの 5.5 リリースへのアップグレード
211
ipfs1 102592 0 (unused)
いずれかの grep コマンドが空白を返す場合、HP サポートにお問い合わせください。
7.
管理コンソールから、新しいバージョンの IBRIX ソフトウェアの FS/IAS がファイルサー
ビングノードにインストールされていることを確認します。
<ibrixhome>/bin/ibrix_version -l –S
8.
アップグレードが正常に完了したら、サービングノードのフェイルバックを行います。
<ibrixhome>/bin/ibrix_server -f -U -h HOSTNAME
9. クラスター内の残りのファイルサービングノードで、手順 1~8 を繰り返します。
すべてのファイルサービングノードをアップグレードしてフェイルバックを実行してから、
アップグレードを完了します。
アップグレードの完了
1.
アクティブな管理コンソールをホストしているノードで、自動フェイルオーバーをオンに
戻します。
<ibrixhome>/bin/ibrix_server –m
2.
自動フェイルオーバーが有効化されたことを確認します。
<ibrixhome>/bin/ibrix_server -l
出力の HA カラムは、on を表示している必要があります。
3.
すべてのファイルサービングノードについてバージョンインジケーターが一致しているこ
とを確認します。 アクティブな管理コンソールから次のコマンドを実行します。
<ibrixhome>/bin/ibrix_version –l
バージョンの不一致がある場合、該当するノード上で /ibrix/ibrixupgrade -f スク
リプトを再実行して、バージョンを再確認します。 すべてのバージョンインジケーターが
一致すれば、インストールは成功です。 すべての手順に従ってもバージョンインジケー
ターが一致しない場合は、HP サポートにお問い合わせください。
4.
クラスターの新しいセグメントマップを伝播します。
<ibrixhome>/bin/ibrix_dbck -I -f FSNAME
5.
クラスターの稼働状態を確認します。
<ibrixhome>/bin/ibrix_health -l
出力で Passed / on が指定されれば正常です。
アジャイルオフラインアップグレード
このアップグレード手順は、メジャーアップグレードに適しています。 以下の順序で、アジャ
イルオフラインアップグレードを実行します。
•
アクティブな管理コンソールをホストしているファイルサービングノード
•
パッシブな管理コンソールをホストしているファイルサービングノード
•
残りのファイルサービングノード
注記: アクティブな管理コンソールをホストしているノードを特定するには、次のコマンド
を実行します。
<ibrixhome>/bin/ibrix_fm -i
アップグレードの準備
1.
212
アクティブな管理コンソールのノードで、すべてのファイルサービングノードへの自動
フェイルオーバーを無効にします。
<ibrixhome>/bin/ibrix_server -m -U
段階的なアップグレード
2.
自動フェイルオーバーがオフであることを確認します。 出力の HA カラムは、off を表
示している必要があります。
<ibrixhome>/bin/ibrix_server -l
3.
アクティブな管理コンソールのノードで、すべてのファイルサービングノード上の NFS
および SMB サービスを停止して、NFS および SMB クライアントのタイムアウトを防ぎ
ます。
<ibrixhome>/bin/ibrix_server -s -t cifs -c stop
<ibrixhome>/bin/ibrix_server -s -t nfs -c stop
CIFS を使用している場合、すべてのファイルサービングノード上で likewise サービスが停
止していることを確認します。
ps –ef | grep likewise
kill -9 を使用して、実行中のすべての likewise サービスを停止します。
4.
すべての IBRIX ファイルシステムをアンマウントします。
<ibrixhome>/bin/ibrix_umount -f <fsname>
管理コンソールをホストしているファイルサービングノードのアップグレード
次の手順を実行します。
1. アクティブな管理コンソールをホストしているノードで、管理コンソール構成のバック
アップを強制的に実行します。
<ibrixhome>/bin/ibrix_fm -B
出力は、/usr/local/ibrix/tmp/fmbackup.zip に格納されます。 このファイルを、
必ずクラスター外の場所に保存するようにしてください。
2.
パッシブな管理コンソールをホストしているノードで、管理コンソールを maintenance
モードにします。
<ibrixhome>/bin/ibrix_fm -m nofmfailover
3.
アクティブな管理コンソールのノードで、以前のリリースのインストールで使用した
<installer_dir>/ibrix ディレクトリを ibrix.old に移動します。 たとえば、この
ノード上の以前の IBRIX のインストールで、tar アーカイブを /root で展開した場合、イ
ンストーラーは /root/ibrix に格納されています。
アクティブな管理コンソールのノードで、任意のディレクトリに配布 tar アーカイブを展
開するか、配布 DVD をマウントします。 tar アーカイブを展開すると、ibrix という名
前のサブディレクトリが作成され、そこにインストーラープログラムが格納されます。 た
とえば、tar アーカイブを /root に展開した場合、インストーラーは /root/ibrix に格
納されます。
必要に応じてインストーラーのディレクトリに移動して、アップグレードを実行します。
./ibrixupgrade -f
インストーラーは、このノード上の管理コンソールのソフトウェアおよびファイルサービ
ングノードのソフトウェアの両方をアップグレードします。
4.
5.
6.
管理コンソールのステータスを確認します。
/etc/init.d/ibrix_fusionmanager status
status コマンドは、適切なサービスが実行しているかどうかを確認します。 以下のような
出力が得られます。
Fusion Manager Daemon (pid 18748) running...
7.
8.
/usr/local/ibrix/log/fusionserver.log でエラーの有無を確認します。
残りの管理コンソールノードをアップグレードします。 以前のリリースのインストールに
使用した <installer_dir>/ibrix ディレクトリを ibrix.old に移動します。 次に、
任意のディレクトリに配布 tar アーカイブを展開するか、または配布 DVD をマウントしま
す。 tar アーカイブを展開すると、ibrix という名前のサブディレクトリが作成され、そ
こにインストーラープログラムが格納されます。 たとえば、tar アーカイブを
/root に展開した場合、インストーラーは /root/ibrix に格納されます。
nl
IBRIX ソフトウェアの 5.5 リリースへのアップグレード
213
9.
必要に応じてインストーラーのディレクトリに移動して、アップグレードを実行します。
./ibrixupgrade -f
インストーラーは、このノード上の管理コンソールのソフトウェアおよびファイルサービ
ングノードのソフトウェアの両方をアップグレードします。
10. アップグレードを実施し、その管理コンソールが maintenance モードになっているノード
で、管理コンソールを passive モードに戻します。
<ibrixhome>/bin/ibrix_fm -m passive
これで、このノードはアクティブな管理コンソールのバックアップ操作を正常に再開しま
す。
残りのファイルサービングノードのアップグレード
残りのファイルサービングノード上で次の手順を実施します。
1. 以前のリリースのインストールに使用した <installer_dir>/ibrix ディレクトリを
ibrix.old に移動します。 たとえば、このノード上の以前の IBRIX のインストールで、
tar アーカイブを /root で展開した場合、インストーラーは /root/ibrix に格納されて
います。
2. 任意のディレクトリに配布 tar アーカイブを展開するか、または配布 DVD をマウントしま
す。 tar アーカイブを展開すると、ibrix という名前のサブディレクトリが作成され、そ
こにインストーラープログラムが格納されます。 たとえば、tar アーカイブを /root に展
開した場合、インストーラーは /root/ibrix に格納されます。
3. 必要に応じてインストーラーのディレクトリに移動して、次のコマンドを実行します。
./ibrixupgrade -f
アップグレードプロセスによりサービスが自動的に停止し、プロセスの完了後にサービス
が再開します。
4.
アップグレードが完了したら、ノード上で IBRIX ソフトウェアサービスが実行されている
ことを確認します。
/etc/init.d/ibrix_server status
以下の例のような出力が得られます。 IAD サービスがシステム上で稼働していない場合、
HP サポートにお問い合わせください。
IBRIX Filesystem Drivers loaded
ibrcud is running.. pid 23325
IBRIX IAD Server (pid 23368) running...
5.
以下のコマンドを実行して、ibrix および ipfs サービスが実行していることを確認しま
す。
lsmod|grep ibrix
ibrix 2323332 0 (unused)
lsmod|grep ipfs
ipfs1 102592 0 (unused)
いずれかの grep コマンドが空白を返す場合、HP サポートにお問い合わせください。
6.
アクティブな管理コンソールのノードから、新しいバージョンの IBRIX ソフトウェアの
FS/IAS がファイルサービングノードにインストールされていることを確認します。
<ibrixhome>/bin/ibrix_version -l –S
アップグレードの完了
214
1.
IBRIX ファイルシステムを再マウントします。
<ibrixhome>/bin/ibrix_mount -f <fsname> -m </mountpoint>
2.
アクティブな管理コンソールをホストしているノードで、自動フェイルオーバーをオンに
戻します。
<ibrixhome>/bin/ibrix_server -m
段階的なアップグレード
3.
自動フェイルオーバーが有効化されたことを確認します。
<ibrixhome>/bin/ibrix_server -l
出力の HA には、on が表示されている必要があります。
4.
アクティブな管理コンソールをホストしているノードから、アップグレードされた構成の
手動バックアップを実行します。
<ibrixhome>/bin/ibrix_fm -B
5.
すべてのファイルサービングノードについてバージョンインジケーターが一致しているこ
とを確認します。 アクティブな管理コンソールから次のコマンドを実行します。
<ibrixhome>/bin/ibrix_version –l
バージョンの不一致がある場合、該当するノード上で /ibrix/ibrixupgrade -f スク
リプトを再実行して、バージョンを再確認します。 すべてのバージョンインジケーターが
一致すれば、インストールは成功です。 すべての手順に従ってもバージョンインジケー
ターが一致しない場合は、HP サポートにお問い合わせください。
6.
クラスターの稼働状態を確認します。
<ibrixhome>/bin/ibrix_health -l
出力に Passed / on が表示されれば正常です。
アップグレードの問題のトラブルシューティング
自動アップグレードのエラー
upgrade.log ファイルを確認して、エラーの発生源を特定します (ログファイルはインストー
ラーディレクトリに存在します)。 自動アップグレードを実行できない場合は、手動アップグ
レード手順を進めます。
ibrixupgrade がハングする
RPM データベースの損傷が原因で、インストールがハングする可能性があります。 この損傷
は、Red Hat Package Manager 内の不整合により発生します。
次のコマンドを使用して RPM データベースを再構築して、インストールを再試行してくださ
い。 rm の後にはスペースが続き、次に 2 つのアンダースコアが続きます。また、rpm の後に
はスペースが続き、次に 2 つのダッシュが続きます。
cd /var/lib/rpm
rm __*
rpm --rebuilddb
管理コンソールに使用されていない古い NFS マウントポイントが存在する場合、ibrixupgrade
もハングする可能性があります。 このような場合は、該当するマウントポイントをすべて消去
し、管理コンソールを再起動して、アップグレード手順を再度実行してください。
IBRIX ソフトウェアの 5.5 リリースへのアップグレード
215
B IBRIX 9730 コンポーネントおよびケーブル配線図
メインラックの背面図
SAS スイッチの下に IBRIX 9730 CX が 2 個配置されており、残りの IBRIX 9730 CX は SAS ス
イッチの上に配置されています。 IBRIX 9730 CX は下から数えます (たとえば、IBRIX 9730 CX
1 はラックの最下部にあり、IBRIX 9730 CX 2 は IBRIX 9730 CX 1 のすぐ上にあります)。
216
1. 9730 CX 6
2. 9730 CX 5
3. 9730 CX 4
4. 9730 CX 3
5. c7000
6. 9730 CX 2
7. 9730 CX 1
8. Onboard Administratror (x2)
9. 6G SAS スイッチ (x4)
10. Flex 10 VC モジュール (×2)
11. TFT7600
12. 1U サポートシェルフ
IBRIX 9730 コンポーネントおよびケーブル配線図
拡張ラックの背面図
1. 9730 CX 8
2. 9730 CX 7
IBRIX 9730 CX I/O モジュールおよび SAS ポートコネクター
1. セカンダリ I/O モジュール (ドロアー 2)
2. SAS ポート 2 のコネクター
3. SAS ポート 1 のコネクター
4. プライマリ I/O モジュール (ドロアー 2)
5. SAS ポート 2 のコネクター
6. SAS ポート 1 のコネクター
7. SAS ポート 1 のコネクター
8. SAS ポート 2 のコネクター
9. プライマリ I/O モジュール (ドロアー 1)
10. SAS ポート 1 のコネクター
11. SAS ポート 2 のコネクター
12. セカンダリ I/O モジュール (ドロアー 1)
拡張ラックの背面図
217
IBRIX 9730 CX 1 と SAS スイッチの接続
SAS スイッチへの接続には次のものがあります。
•
プライマリ I/O モジュール (ドロアー 1) の SAS ポート 1 コネクターと、SAS スイッチの
ベイ 5 のポート 1
•
セカンダリ I/O モジュール (ドロアー 1) の SAS ポート 1 コネクターと、SAS スイッチの
ベイ 6 のポート 1
•
プライマリ I/O モジュール (ドロアー 2) の SAS ポート 1 コネクターと、SAS スイッチの
ベイ 7 のポート 1
•
セカンダリ I/O モジュール (ドロアー 2) の SAS ポート 1 コネクターと、SAS スイッチの
ベイ 8 のポート 1
ヒント: 9730 CX の位置に該当する番号は、9730 CX と接続する SAS スイッチのポート番
号と一致しています。 (SAS スイッチのポートは、左から順に 1~8 のラベル表示があります。)
たとえば、9730 CX 2 は各 SAS スイッチのポート 2 に接続します。 IBRIX 9730 CX 7 は各
SAS スイッチのポート 7 に接続します。
218
IBRIX 9730 コンポーネントおよびケーブル配線図
IBRIX 9730 CX 2 と SAS スイッチの接続
ドロアー 1:
•
プライマリ I/O モジュール (ドロアー 1) の SAS ポート 1 コネクターと、SAS スイッチの
ベイ 5 のポート 2
•
セカンダリ I/O モジュール (ドロアー 1) の SAS ポート 1 コネクターと、SAS スイッチの
ベイ 6 のポート 2
ドロアー 2:
•
プライマリ I/O モジュール (ドロアー 2) の SAS ポート 1 コネクターと、SAS スイッチの
ベイ 7 のポート 2
•
セカンダリ I/O モジュール (ドロアー 2) の SAS ポート 1 コネクターと、SAS スイッチの
ベイ 8 のポート 2
IBRIX 9730 CX 2 と SAS スイッチの接続
219
IBRIX 9730 CX 3 と SAS スイッチの接続
ドロアー 1:
•
プライマリ I/O モジュール (ドロアー 1) の SAS ポート 1 コネクターと、SAS スイッチの
ベイ 5 のポート 3
•
セカンダリ I/O モジュール (ドロアー 1) の SAS ポート 1 コネクターと、SAS スイッチの
ベイ 6 のポート 3
ドロアー 2:
•
プライマリ I/O モジュール (ドロアー 2) の SAS ポート 1 コネクターと、SAS スイッチの
ベイ 7 のポート 3
•
セカンダリ I/O モジュール (ドロアー 2) の SAS ポート 1 コネクターと、SAS スイッチの
ベイ 8 のポート 3
220 IBRIX 9730 コンポーネントおよびケーブル配線図
IBRIX 9730 CX 7 と SAS スイッチの接続 (拡張ラック)
ドロアー 1:
•
プライマリ I/O モジュール (ドロアー 1) の SAS ポート 1 コネクターと、SAS スイッチの
ベイ 5 のポート 7
•
セカンダリ I/O モジュール (ドロアー 1) の SAS ポート 1 コネクターと、SAS スイッチの
ベイ 6 のポート 7
ドロアー 2:
•
プライマリ I/O モジュール (ドロアー 2) の SAS ポート 1 コネクターと、SAS スイッチの
ベイ 7 のポート 7
•
セカンダリ I/O モジュール (ドロアー 2) の SAS ポート 1 コネクターと、SAS スイッチの
ベイ 8 のポート 7
IBRIX 9730 CX 7 と SAS スイッチの接続 (拡張ラック) 221
C IBRIX 9730 スペアパーツリスト
この付録では、IBRIX 9730 Storage コンポーネントのスペアパーツを一覧します。 このスペア
パーツ情報は、本書の発行時点において最新のものです。 最新のスペアパーツ情報について
は、http://partsurfer.hp.com (英語) を参照してください。
HP IBRIX 9730 パフォーマンスシャーシ (QZ729A)
説明
スペアパーツ番号
SPS-PWR MOD、SINGLE PHASE
413494-001
SPS-MODULE、LCD
415839-001
SPS-CA、KIT、MISC
416002-001
SPS-CA、SUV
416003-001
SPS-HARDWARE KIT
432463-001
SPS-PLASTICS/HARDWARE KIT
441835-001
SPS-SFP、1Gb、VC、RJ-45
453578-001
SPS-P/S、2450W、12V、HTPLG
500242-001
SPS-BD、LCD PASS THRU
519348-001
SPS-UPS R/T3KVA 2U DTC HV INTL G2
638842-001
SPS-MODULE ENET BLc VC FLEX 10
688896-001
HP IBRIX 9730 140 TB MLStorage 2xBL パフォーマンスモジュール
(QZ730A)
説明
スペアパーツ番号
SPS-CA EXT MINI SAS、2M
408767-001
SPS-FAN SYSTEM
413996-001
SPS-PLASTICS/HARDWARE
414063-001
SPS-PWR SUPPLY
441830-001
SPS-DRV、HD 146G SAS 2.5 SP 10K
453138-001
SPS-BD、MEM、MOD、256MB、40B
462974-001
SPS-PROC WSM 2.4 80W E5620
594887-001
SPS-DIMM 4GB PC3 10600R 512MX4
595424-001
SPS-BD PCA HP FBWC 1G CL5
598414-001
SPS-BD SYSTEM I/O G7
605659-001
SPS-BD SMART ARRAY CTRL IDP1 8/8 MEZZ
615360-001
SPS-PLASTICS/HARDWARE MISC
619821-001
SPS-COVER TOP
619822-001
SPS-BACKPLANE HDD SAS
619823-001
SPS-CAGE HDD W/BEZEL
619824-001
222 IBRIX 9730 スペアパーツリスト
説明
スペアパーツ番号
SPS-ENCLOS. TAPE BLADE 3000C NO DRIVE
621742-001
SPS-HEATSINK VC
624787-001
SPS-DRV HD 2TB 7.2K EVA FATA M6412 FC
637981-001
HP IBRIX 9730 210 TB ML Storage 2xBL パフォーマンスモジュール
(QZ731A)
説明
スペアパーツ番号
SPS-CA EXT MINI SAS、2M
408767-001
SPS-FAN SYSTEM
413996-001
SPS-PLASTICS/HARDWARE
414063-001
SPS-PWR SUPPLY
441830-001
SPS-DRV、HD 146G SAS 2.5 SP 10K
453138-001
SPS-BD、MEM、MOD、256MB、40B
462974-001
SPS-PROC WSM 2.4 80W E5620
594887-001
SPS-DIMM 4GB PC3 10600R 512MX4
595424-001
SPS-BD PCA HP FBWC 1G CL5
598414-001
SPS-BD SYSTEM I/O G7
605659-001
SPS-BD SMART ARRAY CTRL IDP1 8/8 MEZZ
615360-001
SPS-PLASTICS/HARDWARE MISC
619821-001
SPS-COVER TOP
619822-001
SPS-BACKPLANE HDD SAS
619823-001
SPS-CAGE HDD W/BEZEL
619824-001
SPS-ENCLOS. TAPE BLADE 3000C NO DRIVE
621742-001
SPS-HEATSINK VC
624787-001
SPS-DRV HD 3TB 6G SAS 7.2K 3.5 DP MDL SC
653959-001
HP X9730 140 TB 6G ML Storage 2xBL パフォーマンスモジュール
(QZ732A)
説明
スペアパーツ番号
SPS-CA EXT MINI SAS、2M
408767-001
SPS-FAN SYSTEM
413996-001
SPS-PLASTICS/HARDWARE
414063-001
SPS-PWR SUPPLY
441830-001
SPS-BD、MEM、MOD、256MB、40B
462974-001
SPS-DRV HD 2TB 6G SAS 7.2K 3.5 LFF
508010-001
SPS-PROC WSM 2.4 80W E5620
594887-001
HP IBRIX 9730 210 TB ML Storage 2xBL パフォーマンスモジュール (QZ731A) 223
説明
スペアパーツ番号
SPS-DIMM 4GB PC3 10600R 512MX4
595424-001
SPS-BD PCA HP FBWC 1G CL5
598414-001
SPS-BD SYSTEM I/O G7
605659-001
SPS-BD SMART ARRAY CTRL IDP1 8/8 MEZZ
615360-001
SPS-PLASTICS/HARDWARE MISC
619821-001
SPS-COVER TOP
619822-001
SPS-BACKPLANE HDD SAS
619823-001
SPS-CAGE HDD W/BEZEL
619824-001
SPS-ENCLOS. TAPE BLADE 3000C NO DRIVE
621742-001
SPS-HEATSINK VC
624787-001
SPS-DRV HD 3TB 6G SAS 7.2K 3.5 DP MDL SC
653959-001
HP X9730 210TB 6G ML Storage 2xBL パフォーマンスモジュール
(QZ733A)
説明
スペアパーツ番号
SPS-CA EXT MINI SAS、2M
408767-001
SPS-FAN SYSTEM
413996-001
SPS-PLASTICS/HARDWARE
414063-001
SPS-PWR SUPPLY
441830-001
SPS-DRV、HD 146G SAS 2.5 SP 10K
453138-001
SPS-BD、MEM、MOD、256MB、40B
462974-001
SPS-PROC WSM 2.4 80W E5620
594887-001
SPS-DIMM 4GB PC3 10600R 512MX4
595424-001
SPS-BD PCA HP FBWC 1G CL5
598414-001
SPS-BD SYSTEM I/O G7
605659-001
SPS-BD SMART ARRAY CTRL IDP1 8/8 MEZZ
615360-001
SPS-PLASTICS/HARDWARE MISC
619821-001
SPS-COVER TOP
619822-001
SPS-BACKPLANE HDD SAS
619823-001
SPS-CAGE HDD W/BEZEL
619824-001
SPS-ENCLOS. TAPE BLADE 3000C NO DRIVE
621742-001
SPS-HEATSINK VC
624787-001
SPS-DRV HD 3TB 6G SAS 7.2K 3.5 DP MDL SC
653959-001
224 IBRIX 9730 スペアパーツリスト
D IBRIX 9720 コンポーネントおよびケーブル配線図
ベースキャビネットおよび拡張キャビネット
IBRIX 9720 Storage の最小のベースキャビネットは、3~16 個のパフォーマンスブロック (サー
バーブレード) と 1~4 個のキャパシティブロックを収容します。 拡張キャビネットは 4 個の
キャパシティブロック追加に対応できるため、システムとしては 8 個のキャパシティブロック
を持つことになります。
サーバーは、アクティブな Fusion Manager をホストしているサーバーの 1 つで、ファイル
サービングノードとして構成されています。 Fusion Manager はファイルサービングノードの
管理を行います。 ファイルサービングノードはファイルシステムの管理セグメントを担当しま
す。
ベースキャビネットの前面図
1. X9700c 1
2. TFT モニターおよびキーボード
3. c-Class ブレードエンクロージャー
4. X9700cx 1
ベースキャビネットおよび拡張キャビネット 225
キャパシティブロック 1 個のベースキャビネットの背面図
1. 管理スイッチ 2
2. 管理スイッチ 1
3. X9700c 1
4. TFT モニターおよびキーボード
5. c-Class ブレードエンクロージャー
6. X9700cx 1
226 IBRIX 9720 コンポーネントおよびケーブル配線図
フル装備のベースキャビネットの前面図
1 X9700c 4
6 X9700cx 3
2 X9700c 3
7 TFT モニターおよびキーボード
3 X9700c 2
8 c-Class ブレードエンクロージャー
4 X9700c 1
9 X9700cx 2
5 X9700cx 4
10 X9700cx 1
ベースキャビネットおよび拡張キャビネット 227
フル装備のベースキャビネットの背面図
1 管理スイッチ 2
7 X9700cx 4
2 管理スイッチ 1
8 X9700cx 3
3 X9700c 4
9 TFT モニターおよびキーボード
4 X9700c 3
10 c-Class ブレードエンクロージャー
5 X9700c 2
11 X9700cx 2
6 X9700c 1
12 X9700cx 1
228 IBRIX 9720 コンポーネントおよびケーブル配線図
拡張キャビネットの前面図
オプションの X9700 拡張キャビネットは 1~4 個のキャパシティブロックを収容できます。
次の配線図は、キャパシティブロックが 4 個の拡張キャビネットの前面図です。
1. X9700c 8
5. X9700cx 8
2. X9700c 7
6. X9700cx 7
3. X9700c 6
7. X9700cx 6
4. X9700c 5
8. X9700cx 5
ベースキャビネットおよび拡張キャビネット 229
キャパシティブロックが 4 個の拡張キャビネットの背面図
1. X9700c 8
5. X9700cx 8
2. X9700c 7
6. X9700cx 7
3. X9700c 6
7. X9700cx 6
4. X9700c 5
8. X9700cx 5
パフォーマンスブロック (c-Class ブレードエンクロージャー)
パフォーマンスブロックは 9720 用の特殊なサーバーブレードです。サーバーブレードには、
ブレードエンクロージャー内のベイに従って番号が付けられます。 サーバー 1 の場合はブレー
ドエンクロージャーのベイ 1 になります。 サーバーブレードは隣接している必要があり、サー
バーブレード間に空のブレードベイがあってはいけません。 IBRIX 9720 Storage サーバーブ
レードのみ、ブレードエンクロージャーに挿入できます。
サーバーブレードはファイルサービングノードとして構成されています。 1 つのノードがアク
ティブな Fusion Manager をホストし、他のノードはパッシブな Fusion Managers をホストし
ます。
•
アクティブな Fusion Manager は、ファイルサービングノードや IBRIX クライアントなど
のクラスター構成の管理を担当しています。 Fusion Manager はファイルシステムの I/O
動作には含まれません。
•
ファイルシステムの個々のセグメントは、ファイルサービングノードによって管理されま
す。 各セグメントは特定のファイルサービングノードに割り当てられ、各ノードは数個の
セグメントを「所有」しています。 セグメントのオーナーシップは、ファイルシステムの
アクティブな使用中にノード間で移行できます。 Fusion Manager は、この移行中は実行
状態である必要があります。
下の配線図は、1~16 の番号が付いたハーフハイトデバイスベイを収容しているパフォーマン
スブロック (c-Class ブレードエンクロージャー) の前面図です。
230 IBRIX 9720 コンポーネントおよびケーブル配線図
c-Class ブレードエンクロージャーの前面図
下の配線図は、1~16 の番号が付いたハーフハイトデバイスベイを収容しているパフォーマン
スブロック (c-Class ブレードエンクロージャー) の前面図です。
c-Class ブレードエンクロージャーの背面図
1. インターコネクトベイ 1 (Virtual Connect
Flex-10 10 Ethernet Module)
6. インターコネクトベイ 6 (将来の使用に備えて予約)
2. インターコネクトベイ 2 (Virtual Connect
Flex-10 10 Ethernet Module)
7. インターコネクトベイ 7 (将来の使用に備えて予約)
3. インターコネクトベイ 3 (SAS スイッチ)
8. インターコネクトベイ 8 (将来の使用に備えて予約)
4. インターコネクトベイ 4 (SAS スイッチ)
9. Onboard Administrator 1
5. インターコネクトベイ 5 (将来の使用に備 10. Onboard Administrator 2
えて予約)
Flex-10 ネットワーク
IBRIX 9720 Storage のサーバーブレードは、Flex-10 10Gb NIC を 2 つ内蔵しています。 Flex-10
テクノロジーは、パフォーマンスシャーシのインターコネクトベイ 1 と 2 にある Flex-10 NIC
と Flex-10 Virtual Connect モジュールで構成されています。 各 Flex-10 NIC は、トータルの帯
域幅が 10Gb で、FlexNIC とも呼ばれる 4 個の物理インターフェイス (NIC) デバイスから成り
ます。 FlexNIC は、IBRIX 9720 Storage 上で次のように構成されます。
パフォーマンスブロック (c-Class ブレードエンクロージャー)
231
IBRIX 9720 Storage は自動的に eth0 および eth3 を予約し、ボンドされたデバイス (bond0) を
作成します。 これは管理ネットワークです。 eth0 および eth3 は Flex-10 Virtual Connect (VC)
モジュールに物理的に接続されていますが、VC ドメインは、このネットワークがサイトネッ
トワークから見えないように構成されています。
この構成により、eth1 および eth2 は、各サーバーブレードとサイトネットワークの接続に使
用できます。 サイトネットワークに接続するには、「アップリンク」として許可されたポート
を 1 つ以上サイトネットワークに接続する必要があります。 これらのポートは「Virtual Connect
Flex-10 Ethernet モジュールのケーブル接続 — ベースキャビネット」 (235 ページ) に緑色で示
されています。 サイトネットワークの同じスイッチに複数のポートを接続する場合、すべての
ポートが同じメディアタイプを使用する必要があります。 さらに、HP では 10 link の使用を
推奨しています。
9720 Storage は、ネットワークボンドにモード 1 (アクティブ/バックアップ) を使用します。
他のボンディングモードには対応していません。 適切に構成すれば、これにより、各ブレード
に完全に冗長なネットワーク接続を提供できます。 NIC、Virtual Connect モジュール、アップ
リンクまたはサイトネットワークスイッチの単一の故障で、ネットワークデバイスが故障する
ことがなくなります。 ただし、サイトのネットワークインフラストラクチャがボンディングさ
れたインターフェイス用に適切に構成され、冗長性とパフォーマンスの両方の点で正しく動作
することが重要です。
キャパシティブロック
キャパシティブロックは、12 個のディスクドライブを収容する X9700c シャーシと、70 個の
ディスクドライブを収容する X9700cx JBOD エンクロージャーから構成されます。 X9700cx
エンクロージャーには、実際には 2 つの JBOD (各引き出しドロアー (左右) につき 1 つずつ)
があります。 各ドロアーには 35 個のディスクドライブを収容します。
シリアル番号は、X9700c シャーシのシリアル番号です。 すべてのサーバーは、シリアル接続
された SCSI (SAS) ファブリックにより各アレイに接続されています。 次のような特徴があり
ます。
•
各サーバーには、2 個の SAS ポートを持つ P700m SAS ホストバスアダプター (HBA) が
あります。
•
各 SAS ポートは、サーバーブレードエンクロージャーバックプレーンで SAS スイッチに
接続されています。 各サーバーが冗長な SAS ファブリックに接続されるような SAS ス
イッチが 2 つあります。
•
各アレイには、冗長型コントローラーが 2 つあります。 そのコントローラーはそれぞれ
各 SAS スイッチに接続されています。
アレイ内では、ディスクドライブは別々の「ボックス」に割り当てられており、ボックス 1 は
X9700c エンクロージャー、ボックス 2 および 3 はそれぞれ左および右の引き出しドロアーで
す。 下の配線図は、アレイボックス内での番号を示しています。
232 IBRIX 9720 コンポーネントおよびケーブル配線図
1. ボックス 1—X9700c
2. ボックス 2—X9700cx、左ドロアー (前から見た場合)
3. ボックス 3—X9700cx、右ドロアー (前から見た場合)
アレイには通常コントローラーが 2 つあります。 各コントローラーにはバッテリー駆動型の
キャッシュがあります。 また、各コントローラーには専用のファームウェアがあります。 通
常は、すべてのサーバーが、すべてのアレイへの冗長パスを 2 個持っています。
X9700c (12 ディスクドライブのアレイコントローラー)
X9700c 前面図
1. ベイ 1
5. 電源 LED
2. ベイ 2
6. システム障害 LED
3. ベイ 3
7. UID LED
4. ベイ 4
8. ベイ 12
X9700c 背面図
1. バッテリー 1
9. ファン 2
2. バッテリー 2
10. X9700c コントローラー 2
3. SAS エキスパンダーポート 1
11. SAS エキスパンダーポート 2
4. UID
12. SAS ポート 1
5. 電源 LED
13. X9700c コントローラー 1
6. システム障害 LED
14. ファン 1
キャパシティブロック 233
7. オン/オフ電源ボタン
15. 電源 1
8. 電源 2
X9700cx (70 ディスクドライブの高密度 JBOD)
注記: このコンポーネントは HP 600 Modular Disk System としても知られています。 このコ
ンポーネントの LED およびボタンの説明については、http://www.hp.com/support/manuals
(英語) の『HP 600 Modular Disk System User Guide』を参照してください。 [Storage] で [Disk
Storage Systems] をクリックし、[Disk Enclosures] で [HP 600 Modular Disk System] をクリック
します。
X9700cx 前面図
1. ドロアー 1
2. ドロアー 2
X9700cx 背面図
1. 電源
5. In SAS ポート
2. プライマリ I/O モジュール (ドロアー 2)
6. セカンダリ I/O モジュール (ドロアー 1)
3. プライマリ I/O モジュール (ドロアー 1)
7. セカンダリ I/O モジュール (ドロアー 2)
4. Out SAS ポート
8. ファン
234 IBRIX 9720 コンポーネントおよびケーブル配線図
配線図
キャパシティブロックのケーブル接続 — ベースキャビネットおよび拡張キャビ
ネット
キャパシティブロックは X9700c と X9700cx で構成されます。
注意: IBRIX 9720 Storage が正常に動作するには、キャパシティブロックを正しくケーブル
接続することが重要です。
1
X9700c
2
X9700cx プライマリ I/O モジュール (ドロアー 2)
3
X9700cx セカンダリ I/O モジュール (ドロアー 2)
4
X9700cx プライマリ I/O モジュール (ドロアー 1)
5
X9700cx セカンダリ I/O モジュール (ドロアー 1)
Virtual Connect Flex-10 Ethernet モジュールのケーブル接続 — ベースキャビネッ
ト
配線図 235
サイトネットワーク
Onboard Administrator
利用可能なアップリンクポート
1.
管理スイッチ 2
7.
ベイ 5 (将来の使用に備えて予約)
2.
管理スイッチ 1
8.
ベイ 6 (将来の使用に備えて予約)
3.
ベイ 1 (サイトネットワーク接続用の Virtual 9.
Connect Flex-10 10Gb Ethernet Module)
ベイ 7 (オプションコンポーネント用に予約)
4.
ベイ 2 (サイトネットワーク接続用の Virtual 10.
Connect Flex-10 10Gb Ethernet Module)
ベイ 8 (オプションコンポーネント用に予約)
5.
ベイ 3 (SAS スイッチ)
11.
Onboard Administrator 1
6.
ベイ 4 (SAS スイッチ)
12.
Onboard Administrator 2
236 IBRIX 9720 コンポーネントおよびケーブル配線図
SAS スイッチのケーブル接続 — ベースキャビネット
注記:
引き出し線 1~3 は、追加の X9700c コンポーネントを示します。
1
X9700c 4
2
X9700c 3
3
X9700c 2
4
X9700c 1
5
SAS スイッチポート 1~4 (c-Class ブレードエンクロージャーのインターコネクトベイ 3)。 ポート 2~4
は追加の容量ブロック用に予約されています。
6
SAS スイッチポート 5~8 (c-Class ブレードエンクロージャーのインターコネクトベイ 3)。 拡張キャビ
ネット用
7
SAS スイッチポート 1~4 (c-Class ブレードエンクロージャーのインターコネクトベイ 4)。 ポート 2~4
は追加の容量ブロック用に予約されています。
8
SAS スイッチポート 5~8 (c-Class ブレードエンクロージャーのインターコネクトベイ 4)。 拡張キャビ
ネット用
SAS スイッチのケーブル接続 — 拡張キャビネット
注記:
引き出し線 1~3 は、追加の X9700c コンポーネントを示します。
配線図 237
1
X9700c 8
5
SAS スイッチポート 1~4 (c-Class ブレードエンクロージャーのインター
コネクトベイ 3)。 ベースキャビネットが使用。
2
X9700c 7
6
SAS スイッチポート 5~8 (c-Class ブレードエンクロージャーのインター
コネクトベイ 3)。
3
X9700c 6
7
SAS スイッチポート 1~4 (c-Class ブレードエンクロージャーのインター
コネクトベイ 4)。
4
X9700c 5
8
SAS スイッチポート 5~8 (c-Class ブレードエンクロージャーのインター
コネクトベイ 4)。 ベースキャビネットが使用。
238 IBRIX 9720 コンポーネントおよびケーブル配線図
E IBRIX 9720 スペアパーツリスト
この付録では、IBRIX 9720 Storage コンポーネントのスペアパーツを一覧します。 このスペア
パーツ情報は、本書の発行時点において最新のものです。 最新のスペアパーツ情報について
は、http://partsurfer.hp.com (英語) を参照してください。
IBRIX 9720 Storage Base (AW548A)
説明
スペアパーツ番号
アクセサリーキット
5069-6535
CABLE、CONSOLE D-SUB9 - RJ45 L
5188-3836
CABLE、CONSOLE D-SUB9 - RJ45 L
5188-6699
PWR-CORD OPT-903 3-COND 2.3-M-
8120-6805
SPS-BRACKETS、PDU
252641-001
SPS-RACK、UNIT、10642、10KG2
385969-001
SPS-PANEL、SIDE、10642、10KG2
385971-001
SPS-STABLIZER、600MM、10GK2
385973-001
SPS-SHOCK PALLET、600MM、10KG2
385976-001
SPS-SPS-STICK、ATTACH'D CBL、C13 0-1FT
419595-001、419595-001N
SPS-RACK、BUS BAR & Wire Tray
457015-001
SPS-STICK、4XC-13、Attached CBL
460430-001
SPS-STICK、4X FIXED、C-13、OFFSET、WW
483915-001
HP J9021A SWITCH 2810–24G
J9021-69001
X9700 拡張ラック (AQ552A)
説明
スペアパーツ番号
SPS-BRACKETS、PDU
252641-001
SPS-PANEL、SIDE、10642、10KG2
385971-001
SPS-STABLIZER、600MM、10GK2
385973-001
SPS-SPS-STICK、ATTACH'D CBL、C13 0-1FT
419595-001
SPS-RACK、BUS BAR & WIRE TRAY
457015-001
SPS-STICK、4X FIXED、C-13、OFFSET、WW
483915-001
X9700 サーバーシャーシ (AW549A)
説明
スペアパーツ番号
SPS-PWR MOD、SINGLE PHASE
413494-001
SPS-FAN SYSTEM
413996-001
SPS-BLANK、BLADE
414051-001
SPS-BLANK、INTERCONNECT
414053-001
IBRIX 9720 Storage Base (AW548A) 239
説明
スペアパーツ番号
SPS-CA、SUV
416003-001
SPS-RACKMOUNT KIT
432461-001
SPS-BD、MUSKET SAS SWITCH
451789-001
SPS-SFP、1、VC、RJ-45
453578-001
SPS-MODULE ENET、BLC VC、FLEX 10
456095-001
SPS-P/S、2450W、12V、HTPLG
500242-001
SPS-MODULE、OA、DDR2
503826-001
SPS-BD MID PLANE ASSY
519345-001
SPS-SLEEVE、ONBRD ADM
519346-001
SPS-LCD MODULE、WIDESCREEN、ASSY
519349-001
X9700 ブレードサーバー (AW550A)
説明
スペアパーツ番号
SPS-BD、SA DDR2、BBWC、512MB
451792-001
SPS-BD、BATTERY CHARGER、MOD、4/V700HT
462976-001
SPS-BD、MEM、MOD、256MB、40B
462974-001
SPS-BD、RAID CNTRL、SAS
484823-001
SPS-DRV、HD、300、SAS、10K、2.5"、DP、HP
493083-001
SPS-DIMM、4 PC3-8500R、128MX8、ROHS
501535-001
SPS-HEATSINK、BD
508955-001
SPS-MISC CABLE KIT
511789-001
SPS-PLASTICS/HARDWARE、MISC
531223-001
SPS-BACKPLANE、HDD、SAS
531225-001
SPS-CAGE、HDD、W/BEZEL
531228-001
X9700 82TB キャパシティブロック (X9700c および X9700cx) (AQ551A)
次のことに留意してください。
•
コントローラー間の通信には X9700c ミッドプレーンが使用されます。
•
X9700c にはバックプレーンが 2 つあります。
説明
スペアパーツ番号
SPS-RAIL KIT
383663-001
SPS-BD、DIMM、DDR2、MOD、512MB (X9700c)
398645-001
SPS-BD、MIDPLANE (X9700c)
399051-001
SPS-FAN MODULE (X9700c)
399052-001
SPS-BD、USB、UID (X9700c)
399053-001
SPS-BD、POWER UID、W/CABLE (X9700c)
399054-001
240 IBRIX 9720 スペアパーツリスト
説明
スペアパーツ番号
SPS-BD、RISER (X9700c)
399056-001
SPS-BD、7-SEGMENT、DISPLAY (X9700c)
399057-001
SPS-POWER SUPPLY (X9700c)
405914-001
SPS-CA EXT MINI SAS、2M
408767-001
SPS-CA EXT MINI SAS、4M
408768-001
SPS-FAN、SYSTEM (X9700cx)
413996-001
SPS-RACKMOUNT KIT
432461-001
SPS-BATTERY MODULE (X9700c)
436941-001
SPS-PWR SUPPLY (X9700cx)
441830-001
SPS-BD、BACKPLANE II (X9700c)
454574-001
SPS-POWER BLOCK、W/POWER B/P BDS (X9700cx)
455974-001
SPS-HDD、B/P、W/CABLES & DRAWER ASSY (X9700cx)
455976-001
SPS-BD、LED PANEL、W/CABLE (X9700cx)
455979-001
SPS-DRV、HD、1TB、7.2K、DP SAS、3.5" HP
461289-001
SPS-BD、CONTROLLER、9100C (X9700c)
489833-001
SPS-BD、2 PORT、W/1.5 EXPAND (X9700cx)
498472-001
SPS-DRV、HD、1TB、7.2K、6G DP SAS
508011-001
SPS-CHASSIS (X9700c)
530929-001
X9700 164TB キャパシティブロック (X9700c および X9700cx)
(AW598B)
次のことに留意してください。
•
コントローラー間の通信には X9700c ミッドプレーンが使用されます。
•
X9700c にはバックプレーンが 2 つあります。
説明
スペアパーツ番号
SPS-PLASTICS KIT
314455-001
SPS-RAIL KIT
383663-001
SPS-BD、DIMM、DDR2、MOD、512MB (X9700c)
398645-001
SPS-BD、MIDPLANE (X9700c)
399051-001
SPS-FAN MODULE (X9700c)
399052-001
SPS-BD、USB、UID (X9700c)
399053-001
SPS-BD、POWER UID、W/CABLE (X9700c)
399054-001
SPS-BD、RISER (X9700c)
399056-001
SPS-PWR ON/OFF BOARD W/CABLE
399055-001
SPS-BD、7-SEGMENT、DISPLAY (X9700c)
399057-001
SPS-POWER SUPPLY (X9700c)
405914-001
SPS-CA EXT MINI SAS、2M
408767-001
X9700 164TB キャパシティブロック (X9700c および X9700cx) (AW598B)
241
説明
スペアパーツ番号
SPS-CA EXT MINI SAS、4M
408768-001
SPS-FAN、SYSTEM (X9700cx)
413996-001
SPS-RACKMOUNT KIT
432461-001
SPS-BATTERY MODULE (X9700c)
436941-001
SPS-PWR SUPPLY (X9700cx)
441830-001
SPS-BD、BACKPLANE II (X9700c)
454574-001
SPS-HW PLASTICS KIT
441835-001
SPS-POWER SUPPLY、1200W
449423-001
SPS-POWER BLOCK、W/POWER B/P BDS (X9700cx)
455974-001
SPS-HDD、B/P、W/CABLES & DRAWER ASSY (X9700cx)
455976-001
SPS-BD、LED PANEL、W/CABLE (X9700cx)
455979-001
SPS-BD、CONTROLLER、9100C (X9700c)
489833-001
SPS-DRV、HD、1TB、7.2K、DP SAS、3.5" HP
461289-001
SPS-POWER UID BEZEL ASSEMBLY
466264-001
SPS-BD、2 PORT、W/1.5 EXPAND (X9700cx)
498472-001
SPS-DRV、HD、2 TB、7.2K、DP SAS、3.5” HP
508010-001
M6412C DISK ENCLOSURE
530834-001
SPS-CHASSIS (X9700c)
530929-001
ACCESS PANEL
531224-001
242 IBRIX 9720 スペアパーツリスト
F 警告および注意事項
静電気対策の情報
システムの損傷を防ぐために、システムのセットアップおよび部品の取り扱いの際に従わなけ
ればならない注意事項を必ず守ってください。 人間の指など、導電体からの静電気放電によっ
て、システムボードやその他の静電気に弱いデバイスが損傷することがあります。 その結果、
本体の耐用年数が短くなる場合があります。
静電気による損傷の防止
静電気による損傷を防止するため、以下のことを守ってください。
•
運搬や保管の際は、静電気防止用のケースに入れ、手で直接触れることは避けます。
•
静電気に弱い部品は、静電気防止措置のなされている作業台に置くまでは、専用のケース
に入れたままにしておきます。
•
部品をケースから取り出す前に、まずアースされている面にケースごと置きます。
•
ピン、リード線、回路には触れないでください。
•
静電気に弱いコンポーネントや部品に触れなければならないときには、常に自分の身体に
対して適切なアースを行います。
アースの方法
アースにはいくつかの方法があります。 静電気に弱い部品を取り扱うときには、以下のうち
1 つ以上の方法でアースを行ってください。
•
すでにアースされているコンピューター本体にアースバンドをつなぎます。 アースバンド
は柔軟な帯状のもので、アースコード内の抵抗は、1MΩ±10% です。 アースを正しく行
うために、アースバンドを肌に密着させてください。
•
立って作業する場合、かかとやつま先にアースバンドを付けます。 導電性または静電気拡
散性の床の場合、両足にアースバンドを付けます。
•
工具は導電性のものを使用します。
•
折りたたみ式の静電気防止マットが付いた、携帯式の作業用具もあります。
上記のような、適切にアースを行うための器具がないときは、HP のサポート窓口にお問い合
わせください。
注記: 静電気の詳細および製品のインストールの支援については、HP のサポート窓口にお問
い合わせください。
アースの方法
アースにはいくつかの方法があります。 静電気に弱い部品を取り扱うときには、以下のうち
1 つ以上の方法でアースを行ってください。
•
すでにアースされているコンピューター本体にアースバンドをつなぎます。 アース バン
ドは柔軟な帯状のもので、アース コード内の抵抗は、1MΩ±10% です。 アースを正しく
行うために、アースバンドを肌に密着させてください。
•
立って作業する場合、かかとやつま先にアースバンドを付けます。 導電性または静電気拡
散性の床の場合、両足にアースバンドを付けます。
•
工具は導電性のものを使用します。
•
折りたたみ式の静電気防止マットが付いた、携帯式の作業用具もあります。
上記のような、適切にアースを行うための器具がないときは、HP のサポート窓口にお問い合
わせください。
静電気対策の情報 243
注記: 静電気の詳細および製品のインストールの支援については、HP のサポート窓口にお問
い合わせください。
装置の記号
次の記号が貼付された装置は、人体に危険をおよぼす可能性があるので注意が必要です。
警告!
これらの記号が貼付された装置の表面または内部部品に触れると、感電の危険があることを示
します。 修理はすべて、HP のサポート窓口に依頼してください。 感電防止のため、カバーは
開けないでください。
警告!
これらの記号が貼付された RJ-45 ソケットはネットワークインターフェイス接続を示します。
感電、火災、装置の損傷を防止するため、電話や電気通信用のコネクターをこのソケットに接
続しないでください。
警告!
これらの記号が貼付された装置の表面または内部部品の温度が非常に高くなる可能性があるこ
とを示します。 この表面に手を触れるとやけどをする場合があります。
警告!
これらの記号が貼付された電源やシステムは、装置の電源が複数あることを示します。
警告!
製品や機械にこの記号が付いている場合は、1 人で安全に取り扱うことができる重量を超えて
いることを示します。
重量警告
警告!
デバイスは非常に大きな重量があります。 けがや装置の損傷を防止するために、次の点に注意
してください。
•
ホットプラグ可能な電源やモジュールをすべて取り外し、つり上げる前にデバイスの全体
の重量を減らしてください。
•
手動での取り扱いについては、地域の労働安全衛生条件およびガイドラインに従ってくだ
さい。
•
設置または取り外しの間、特にデバイスがレールに固定されていないときは、デバイスの
つり上げと安定には支援が必要です。 22.5 kg (50 lb) 以上のデバイスの場合、2 人以上で
一緒にコンポーネントをラックに載せてください。 コンポーネントを胸より上の高さの
ラックに入れる場合は、2 人がデバイスを支え、3 人目がレールの調整を手伝う必要があ
ります。
244 警告および注意事項
ラックに関する警告と注意事項
以下の注意事項はラックの安定性と安全性を確保するために示されています。 これらの注意事
項を守ってラックの安定性と安全性を確保し、人的および物的な損傷を防止することが重要で
す。 インストールマニュアルに記載されているすべての警告と注意事項に従ってください。
警告!
けがや装置の損傷を防止するために、次の点に注意してください。
•
重量のある装置を取り扱う場合は、ご使用の地域で定められた安全な取り扱いに関する規
定に従ってください。
•
設置または除去作業を行う場合は、製品を持ち上げたり固定したりするための適切な人数
を確保してください。
•
ラックの水平脚を床まで伸ばしてください。
•
ラックの全重量が水平脚にかかるようにしてください。
•
1 つのラックだけを設置する場合は、ラックに固定脚を取り付けてください。
•
複数のラックを設置する場合は、ラックを連結してください。
•
装置下部の固定器具は完全に広げて使用してください。 オプションやボードを設置する際
には、装置が確実に支えられバランスが取れていることを確認してください。
•
コンポーネントをスライドさせてラックに押し込む際には十分に注意してください。 スラ
イドレールに指をはさむ場合があります。
•
コンポーネントをスライドさせてラックの外に拡張する際には、ラックが正しく固定され
ていることを確認してください。 コンポーネントは一度に 1 つずつ引き出してください。
一度に複数のコンポーネントを引き出すと、ラックが不安定になる場合があります。
警告! ラックに電力を供給している AC 電源の分岐回路が過負荷になっていないことを確認
します。 AC 電源の分岐回路が過負荷になっている場合、けが、火災、装置の損傷の危険性が
高まります。 ラックの負荷の合計が、分岐回路の定格の 80% を超えないようにしてくださ
い。 電気設備の配線と設置要件については、管轄の電力会社にお問い合わせください。
デバイスに関する警告と注意事項
ラックに関する警告と注意事項 245
警告!
感電や装置の損傷を防ぐため、必ず以下の注意事項を守ってください。
•
カバーを取り外したり内部コンポーネントに触る場合は、製品が十分に冷えていることを
確認してください。
•
電源コードのアース用プラグは常に取り付けてください。 アース用プラグは安全上必要で
す。
•
常に手の届く範囲内のアース付き電源コンセントに電源コードを差し込んでください。
•
デバイスの電源を切断するには、電源コンセントまたはデバイスのいずれかから電源コー
ドを引き抜いてください。
•
通電のおそれがあるため非導電性器具は使用しないでください。
•
電圧のかかったデバイスのホットプラグ領域で作業を行う場合は、時計、指輪、アクセサ
リー等をすべて身体から取り外してください。
•
デバイスはアクセスの管理された場所に設置し、資格のある担当者のみが接触できるよう
にします。
•
ホットプラグ非対応領域のアクセスカバーを取り外す前には、装置の電源を落とし、すべ
ての電源コードを抜き取ってください。
•
製品の電源が入っている状態で、ホットプラグ非対応のコンポーネントを交換しないでく
ださい。 デバイスの電源を落とし、すべての電源コードを抜き取ります。
•
製品マニュアルに指定されているレベルを超えた修理を行わないでください。 トラブル
シューティングと修理の手順はすべて、サブアセンブリまたはモジュールレベルの修理ま
でしか記載されていません。 個々のボードとサブアセンブリは非常に複雑であるため、コ
ンポーネントレベルの修理やプリント配線基板の変更は絶対に行わないでください。 不正
な修理を行うと安全性を損なうことになります。
警告! けがや装置の損傷を防ぐために、ホットプラグ非対応のコンポーネントの設置は、コ
ンピューターの装置業務に関する資格があり、手順や注意事項に関する十分な知識を持ち、危
険エネルギーレベルの生じる可能性がある製品の取り扱いに習熟した担当者が行ってくださ
い。
警告! けがや装置の損傷を防ぐために、ご使用の地域で定められた重量のある装置の安全な
取り扱いに関する規定に従ってください。
246 警告および注意事項
注意: 規格に合った無停電電源装置 (UPS) を使用して、設置したソリューションを電力変動
や一時的な中断から保護してください。 UPS は、電源サージや電圧スパイクによって発生する
損傷からハードウェアを保護し、停電中でもシステムが動作を継続できるようにします。
注意: システムの通気を適切に保つため、デバイスの前後には最低 7.6 センチメートル (3.0
インチ) の隙間を空けてください。
注意: 動作可能な IBRIX 9720 Storage でホットプラグ可能なコンポーネントを交換する場合、
故障したコンポーネントを取り外してから交換品を取り付けるまで、約 30 秒あけてください。
これは、取り外したコンポーネントに関する構成データが、システムのレジストリから確実に
消去されるのに必要な時間です。 気流の損失を抑えるため、コンポーネントを取り外した状態
で数分以上作業を中断しないでください。 空のシャーシベイによる過熱を防ぐため、ブランキ
ングパネルを使うか、交換が済むまでシャーシ内のコンポーネントを少し外れた状態にしてく
ださい。
注意: 物理的な構成変更は、使用頻度の少ない時間帯や使用されていない時間帯にスケジュー
ルを設定します。 システムの再構築、RAID の移行、アレイの拡大、LUN の拡張などを実行し
ている場合や大量の I/O 処理が行われている場合、ハードドライブの増設や交換、コントロー
ラーなどの構成機器のホットプラグなど、物理構成の変更を加えないようにしてください。 た
とえば、大量の I/O 処理中にコントローラーを追加したり、交換したりすると、新しいコント
ローラーの起動時に一時停止、パフォーマンスの低下、デバイスへのアクセス切断などが発生
します。 コントローラーの起動プロセスが完了すれば、全機能が復帰します。
注意: ホットプラグ対応のコンポーネントを交換する際には、データの損失を防ぐための処
置が実行済みであることを確認します。
デバイスに関する警告と注意事項 247
G 規定に関するご注意
規定準拠識別番号
規定に準拠していることの証明と識別のために、ご使用の製品には、固有の規定準拠識別番号
が割り当てられています。 規定準拠識別番号は、必要な認可マークおよび情報とともに、製品
銘板ラベルに印刷されています。 この製品の準拠情報を請求する場合は、必ず、この規定準拠
識別番号を参照してください。 規定準拠識別番号を製品の製品名またはモデル番号と混同しな
いでください。
製品固有情報:
HP ________________
規定モデル番号: _____________
FCC および CISPR 分類: _____________
これらの製品にはレーザーコンポーネントが組み込まれています。 レーザー規定に関するご注
意の項のクラス 1 レーザーに関する注意を参照してください。
Federal Communications Commission notice (米国)
Part 15 of the Federal Communications Commission (FCC) Rules and Regulations has established
Radio Frequency (RF) emission limits to provide an interference-free radio frequency spectrum.
Many electronic devices, including computers, generate RF energy incidental to their intended
function and are, therefore, covered by these rules. These rules place computers and related
peripheral devices into two classes, A and B, depending upon their intended installation. Class A
devices are those that may reasonably be expected to be installed in a business or commercial
environment. Class B devices are those that may reasonably be expected to be installed in a
residential environment (for example, personal computers). The FCC requires devices in both classes
to bear a label indicating the interference potential of the device as well as additional operating
instructions for the user.
FCC rating label
The FCC rating label on the device shows the classification (A or B) of the equipment. Class B
devices have an FCC logo or ID on the label. Class A devices do not have an FCC logo or ID on
the label. After you determine the class of the device, refer to the corresponding statement.
Class A equipment
This equipment has been tested and found to comply with the limits for a Class A digital device,
pursuant to Part 15 of the FCC rules. These limits are designed to provide reasonable protection
against harmful interference when the equipment is operated in a commercial environment. This
equipment generates, uses, and can radiate radio frequency energy and, if not installed and used
in accordance with the instructions, may cause harmful interference to radio communications.
Operation of this equipment in a residential area is likely to cause harmful interference, in which
case the user will be required to correct the interference at personal expense.
Class B equipment
This equipment has been tested and found to comply with the limits for a Class B digital device,
pursuant to Part 15 of the FCC Rules. These limits are designed to provide reasonable protection
against harmful interference in a residential installation. This equipment generates, uses, and can
radiate radio frequency energy and, if not installed and used in accordance with the instructions,
may cause harmful interference to radio communications. However, there is no guarantee that
interference will not occur in a particular installation. If this equipment does cause harmful
interference to radio or television reception, which can be determined by turning the equipment
off and on, the user is encouraged to try to correct the interference by one or more of the following
measures:
•
Reorient or relocate the receiving antenna.
248 規定に関するご注意
•
Increase the separation between the equipment and receiver.
•
Connect the equipment into an outlet on a circuit that is different from that to which the receiver
is connected.
•
Consult the dealer or an experienced radio or television technician for help.
Modification
The FCC requires the user to be notified that any changes or modifications made to this device
that are not expressly approved by Hewlett-Packard Company may void the user's authority to
operate the equipment.
Cables
When provided, connections to this device must be made with shielded cables with metallic RFI/EMI
connector hoods in order to maintain compliance with FCC Rules and Regulations.
Canadian notice (Avis Canadien) (カナダおよびカナダ、フランス語使
用地域)
Class A equipment
This Class A digital apparatus meets all requirements of the Canadian Interference-Causing
Equipment Regulations.
Cet appareil numérique de la class A respecte toutes les exigences du Règlement sur le matériel
brouilleur du Canada.
Class B equipment
This Class B digital apparatus meets all requirements of the Canadian Interference-Causing
Equipment Regulations.
Cet appareil numérique de la class B respecte toutes les exigences du Règlement sur le matériel
brouilleur du Canada.
European Union notice (欧州)
This product complies with the following EU directives:
•
Low Voltage Directive 2006/95/EC
•
EMC Directive 2004/108/EC
Compliance with these directives implies conformity to applicable harmonized European standards
(European Norms) which are listed on the EU Declaration of Conformity issued by Hewlett-Packard
for this product or product family.
This compliance is indicated by the following conformity marking placed on the product:
This marking is valid for non-Telecom products and EU
harmonized Telecom products (e.g., Bluetooth).
Certificates can be obtained from http://www.hp.com/go/certificates .
Hewlett-Packard GmbH, HQ-TRE, Herrenberger Strasse 140, 71034 Boeblingen, Germany
Canadian notice (Avis Canadien) (カナダおよびカナダ、フランス語使用地域) 249
Japanese notices (日本)
VCCI-A に関するご注意
VCCI-B に関するご注意
VCCI マーク
電源コードに関するご注意
Korean notices (韓国)
Class A equipment
Class B equipment
250 規定に関するご注意
Taiwanese notices (台湾)
BSMI Class A notice
Taiwan battery recycle statement
Turkish recycling notice (トルコ)
Türkiye Cumhuriyeti: EEE Yönetmeliğine Uygundur
Vietnamese Information Technology and Communications compliance
marking (ベトナム)
レーザー規定に関するご注意
English laser notice (英語)
This device may contain a laser that is classified as a Class 1 Laser Product in accordance with
U.S. FDA regulations and the IEC 60825-1. The product does not emit hazardous laser radiation.
警告! Use of controls or adjustments or performance of procedures other than those specified
herein or in the laser product's installation guide may result in hazardous radiation exposure. To
reduce the risk of exposure to hazardous radiation:
•
Do not try to open the module enclosure. There are no user-serviceable components inside.
•
Do not operate controls, make adjustments, or perform procedures to the laser device other
than those specified herein.
•
Allow only HP Authorized Service technicians to repair the unit.
Taiwanese notices (台湾)
251
The Center for Devices and Radiological Health (CDRH) of the U.S. Food and Drug Administration
implemented regulations for laser products on August 2, 1976. These regulations apply to laser
products manufactured from August 1, 1976. Compliance is mandatory for products marketed in
the United States.
Dutch laser notice (オランダ語)
French laser notice (フランス語)
German laser notice (ドイツ語)
252 規定に関するご注意
Italian laser notice (イタリア語)
Japanese laser notice (日本語)
Spanish laser notice (スペイン語)
レーザー規定に関するご注意 253
リサイクルに関するご注意
English recycling notice (英語)
Disposal of waste equipment by users in private household in the European Union
This symbol means do not dispose of your product with your other household waste. Instead, you should
protect human health and the environment by handing over your waste equipment to a designated
collection point for the recycling of waste electrical and electronic equipment. For more information,
please contact your household waste disposal service
Bulgarian recycling notice (ブルガリア語)
Изхвърляне на отпадъчно оборудване от потребители в частни домакинства в Европейския
съюз
Този символ върху продукта или опаковката му показва, че продуктът не трябва да се изхвърля заедно
с другите битови отпадъци. Вместо това, трябва да предпазите човешкото здраве и околната среда,
като предадете отпадъчното оборудване в предназначен за събирането му пункт за рециклиране на
неизползваемо електрическо и електронно борудване. За допълнителна информация се свържете с
фирмата по чистота, чиито услуги използвате.
Czech recycling notice (チェコ語)
Likvidace zařízení v domácnostech v Evropské unii
Tento symbol znamená, že nesmíte tento produkt likvidovat spolu s jiným domovním odpadem. Místo
toho byste měli chránit lidské zdraví a životní prostředí tím, že jej předáte na k tomu určené sběrné
pracoviště, kde se zabývají recyklací elektrického a elektronického vybavení. Pro více informací kontaktujte
společnost zabývající se sběrem a svozem domovního odpadu.
Danish recycling notice (デンマーク語)
Bortskaffelse af brugt udstyr hos brugere i private hjem i EU
Dette symbol betyder, at produktet ikke må bortskaffes sammen med andet husholdningsaffald. Du skal
i stedet den menneskelige sundhed og miljøet ved at afl evere dit brugte udstyr på et dertil beregnet
indsamlingssted for af brugt, elektrisk og elektronisk udstyr. Kontakt nærmeste renovationsafdeling for
yderligere oplysninger.
Dutch recycling notice (オランダ語)
Inzameling van afgedankte apparatuur van particuliere huishoudens in de Europese Unie
Dit symbool betekent dat het product niet mag worden gedeponeerd bij het overige huishoudelijke afval.
Bescherm de gezondheid en het milieu door afgedankte apparatuur in te leveren bij een hiervoor bestemd
inzamelpunt voor recycling van afgedankte elektrische en elektronische apparatuur. Neem voor meer
informatie contact op met uw gemeentereinigingsdienst.
254 規定に関するご注意
Estonian recycling notice (エストニア語)
Äravisatavate seadmete likvideerimine Euroopa Liidu eramajapidamistes
See märk näitab, et seadet ei tohi visata olmeprügi hulka. Inimeste tervise ja keskkonna säästmise nimel
tuleb äravisatav toode tuua elektriliste ja elektrooniliste seadmete käitlemisega egelevasse kogumispunkti.
Küsimuste korral pöörduge kohaliku prügikäitlusettevõtte poole.
Finnish recycling notice (フィンランド語)
Kotitalousjätteiden hävittäminen Euroopan unionin alueella
Tämä symboli merkitsee, että laitetta ei saa hävittää muiden kotitalousjätteiden mukana. Sen sijaan sinun
on suojattava ihmisten terveyttä ja ympäristöä toimittamalla käytöstä poistettu laite sähkö- tai
elektroniikkajätteen kierrätyspisteeseen. Lisätietoja saat jätehuoltoyhtiöltä.
French recycling notice (フランス語)
Mise au rebut d'équipement par les utilisateurs privés dans l'Union Européenne
Ce symbole indique que vous ne devez pas jeter votre produit avec les ordures ménagères. Il est de
votre responsabilité de protéger la santé et l'environnement et de vous débarrasser de votre équipement
en le remettant à une déchetterie effectuant le recyclage des équipements électriques et électroniques.
Pour de plus amples informations, prenez contact avec votre service d'élimination des ordures ménagères.
German recycling notice (ドイツ語)
Entsorgung von Altgeräten von Benutzern in privaten Haushalten in der EU
Dieses Symbol besagt, dass dieses Produkt nicht mit dem Haushaltsmüll entsorgt werden darf. Zum
Schutze der Gesundheit und der Umwelt sollten Sie stattdessen Ihre Altgeräte zur Entsorgung einer dafür
vorgesehenen Recyclingstelle für elektrische und elektronische Geräte übergeben. Weitere Informationen
erhalten Sie von Ihrem Entsorgungsunternehmen für Hausmüll.
Greek recycling notice (ギリシャ語)
Απόρριψη άχρηοτου εξοπλισμού από ιδιώτες χρήστες στην Ευρωπαϊκή Ένωση
Αυτό το σύμβολο σημαίνει ότι δεν πρέπει να απορρίψετε το προϊόν με τα λοιπά οικιακά απορρίμματα.
Αντίθετα, πρέπει να προστατέψετε την ανθρώπινη υγεία και το περιβάλλον παραδίδοντας τον άχρηστο
εξοπλισμό σας σε εξουσιοδοτημένο σημείο συλλογής για την ανακύκλωση άχρηστου ηλεκτρικού και
ηλεκτρονικού εξοπλισμού. Για περισσότερες πληροφορίες, επικοινωνήστε με την υπηρεσία απόρριψης
απορριμμάτων της περιοχής σας.
Hungarian recycling notice (ハンガリー語)
A hulladék anyagok megsemmisítése az Európai Unió háztartásaiban
Ez a szimbólum azt jelzi, hogy a készüléket nem szabad a háztartási hulladékkal együtt kidobni. Ehelyett
a leselejtezett berendezéseknek az elektromos vagy elektronikus hulladék átvételére kijelölt helyen történő
beszolgáltatásával megóvja az emberi egészséget és a környezetet.További információt a helyi
köztisztasági vállalattól kaphat.
リサイクルに関するご注意 255
Italian recycling notice (イタリア語)
Smaltimento di apparecchiature usate da parte di utenti privati nell'Unione Europea
Questo simbolo avvisa di non smaltire il prodotto con i normali rifi uti domestici. Rispettare la salute
umana e l'ambiente conferendo l'apparecchiatura dismessa a un centro di raccolta designato per il
riciclo di apparecchiature elettroniche ed elettriche. Per ulteriori informazioni, rivolgersi al servizio per
lo smaltimento dei rifi uti domestici.
Latvian recycling notice (ラトビア語)
Europos Sąjungos namų ūkio vartotojų įrangos atliekų šalinimas
Šis simbolis nurodo, kad gaminio negalima išmesti kartu su kitomis buitinėmis atliekomis. Kad
apsaugotumėte žmonių sveikatą ir aplinką, pasenusią nenaudojamą įrangą turite nuvežti į elektrinių ir
elektroninių atliekų surinkimo punktą. Daugiau informacijos teiraukitės buitinių atliekų surinkimo tarnybos.
Lithuanian recycling notice (リトアニア語)
Nolietotu iekārtu iznīcināšanas noteikumi lietotājiem Eiropas Savienības privātajās mājsaimniecībās
Šis simbols norāda, ka ierīci nedrīkst utilizēt kopā ar citiem mājsaimniecības atkritumiem. Jums jārūpējas
par cilvēku veselības un vides aizsardzību, nododot lietoto aprīkojumu otrreizējai pārstrādei īpašā lietotu
elektrisko un elektronisko ierīču savākšanas punktā. Lai iegūtu plašāku informāciju, lūdzu, sazinieties ar
savu mājsaimniecības atkritumu likvidēšanas dienestu.
Polish recycling notice (ポーランド語)
Utylizacja zużytego sprzętu przez użytkowników w prywatnych gospodarstwach domowych w
krajach Unii Europejskiej
Ten symbol oznacza, że nie wolno wyrzucać produktu wraz z innymi domowymi odpadkami.
Obowiązkiem użytkownika jest ochrona zdrowa ludzkiego i środowiska przez przekazanie zużytego
sprzętu do wyznaczonego punktu zajmującego się recyklingiem odpadów powstałych ze sprzętu
elektrycznego i elektronicznego. Więcej informacji można uzyskać od lokalnej firmy zajmującej wywozem
nieczystości.
Portuguese recycling notice (ポルトガル語)
Descarte de equipamentos usados por utilizadores domésticos na União Europeia
Este símbolo indica que não deve descartar o seu produto juntamente com os outros lixos domiciliares.
Ao invés disso, deve proteger a saúde humana e o meio ambiente levando o seu equipamento para
descarte em um ponto de recolha destinado à reciclagem de resíduos de equipamentos eléctricos e
electrónicos. Para obter mais informações, contacte o seu serviço de tratamento de resíduos domésticos.
256 規定に関するご注意
Romanian recycling notice (ルーマニア語)
Casarea echipamentului uzat de către utilizatorii casnici din Uniunea Europeană
Acest simbol înseamnă să nu se arunce produsul cu alte deşeuri menajere. În schimb, trebuie să protejaţi
sănătatea umană şi mediul predând echipamentul uzat la un punct de colectare desemnat pentru reciclarea
echipamentelor electrice şi electronice uzate. Pentru informaţii suplimentare, vă rugăm să contactaţi
serviciul de eliminare a deşeurilor menajere local.
Slovak recycling notice (スロバキア語)
Likvidácia vyradených zariadení používateľmi v domácnostiach v Európskej únii
Tento symbol znamená, že tento produkt sa nemá likvidovať s ostatným domovým odpadom. Namiesto
toho by ste mali chrániť ľudské zdravie a životné prostredie odovzdaním odpadového zariadenia na
zbernom mieste, ktoré je určené na recykláciu odpadových elektrických a elektronických zariadení.
Ďalšie informácie získate od spoločnosti zaoberajúcej sa likvidáciou domového odpadu.
Spanish recycling notice (スペイン語)
Eliminación de los equipos que ya no se utilizan en entornos domésticos de la Unión Europea
Este símbolo indica que este producto no debe eliminarse con los residuos domésticos. En lugar de ello,
debe evitar causar daños a la salud de las personas y al medio ambiente llevando los equipos que no
utilice a un punto de recogida designado para el reciclaje de equipos eléctricos y electrónicos que ya
no se utilizan. Para obtener más información, póngase en contacto con el servicio de recogida de
residuos domésticos.
Swedish recycling notice (スウェーデン語)
Hantering av elektroniskt avfall för hemanvändare inom EU
Den här symbolen innebär att du inte ska kasta din produkt i hushållsavfallet. Värna i stället om natur
och miljö genom att lämna in uttjänt utrustning på anvisad insamlingsplats. Allt elektriskt och elektroniskt
avfall går sedan vidare till återvinning. Kontakta ditt återvinningsföretag för mer information.
リサイクルに関するご注意 257
バッテリーの廃棄に関するご注意
Dutch battery notice (オランダ語)
French battery notice (フランス語)
258 規定に関するご注意
German battery notice (ドイツ語)
Italian battery notice (イタリア語)
バッテリーの廃棄に関するご注意 259
バッテリーに関するご注意 (日本語)
Spanish battery notice (スペイン語)
260 規定に関するご注意
用語集
ACE
Access control entry (アクセス制御エントリー)。
ACL
Access control list (アクセス制御リスト)。
ADS
Active Directory Service (Active Directory サービス)。
ALB
Advanced load balancing (高度な負荷分散)。
BMC
Baseboard Management Configuration。
CIFS
Common Internet File System。 Windows 環境の共有フォルダー機能で使用されるプロトコル
です。
CLI
Command-line interface (コマンドラインインターフェイス)。 オペレーティングシステムの応
答を制御するための各種コマンドで構成されるインターフェイスです。
DAS
Direct attach storage (直接接続ストレージ)。 1 台以上のサーバーに直接接続する専用ストレー
ジデバイス。
DNS
Domain Name System (ドメインネームシステム)。
FTP
File Transfer Protocol (ファイル転送プロトコル)。
GSI
Global service indicator (グローバルサービスインジケーター)。
HA
High availability (高可用性)。
HBA
Host bus adapter (ホストバスアダプター)。
HCA
Host channel adapter (ホストチャネルアダプター)。
HDD
Hard disk drive (ハードディスクドライブ)。
IAD
HP 9000 Software 管理デーモン。
iLO
Integrated Lights-Out。
IML
Initial microcode load (初期マイクロコードロード )。
IOPS
1 秒当たりの I/O。
IPMI
Intelligent Platform Management Interface。
JBOD
Just a Bunch of Disks (単独ディスクの集まり)。
KVM
キーボード、ビデオ、マウス。
LUN
Logical unit number (論理ユニット番号)。 LUN は、論理ユニット番号、ポート ID、LDEV ID
から RAID グループへのマッピングによって生じます。 LUN のサイズは、LDEV のエミュレー
ションモードと、LUN に関連付けられる LDEV の数によって決まります。
MTU
Maximum Transmission Unit。
NAS
Network attached storage (ネットワーク接続ストレージ)。
NFS
Network File System (ネットワークファイルシステム)。 フォルダーまたはマウントを共有す
るためにほとんどの UNIX 環境で使用されるプロトコルです。
NIC
Network interface card (ネットワークインターフェイスカード)。 ある装置と、ネットワーク
上にある他の装置との間で通信を扱う装置ための機器。
NTP
Network Time Protocol (ネットワークタイムプロトコル)。 ストレージシステムの日時を、ネッ
トワークに接続されたサーバーから取得可能にするプロトコル。これにより、複数のホスト
とストレージ デバイスの日時が同期されます。
OA
Onboard Administrator。
OFED
OpenFabrics Enterprise Distribution。
OSD
On-screen display (オンスクリーンディスプレイ)。
OU
Active Directory Organizational Units (Active Directory 組織ユニット)。
RO
Read-Only アクセス。
RPC
Remote Procedure Call (リモートプロシージャーコール)。
RW
Read-Write アクセス。
261
SAN
Storage area network (ストレージエリアネットワーク)。 1 つ以上のサーバーから利用できる
ストレージデバイスのネットワーク。
SAS
Serial Attached SCSI (シリアル接続 SCSI)。
SELinux
Security-Enhanced Linux。
SFU
Microsoft Services for UNIX。
SID
セカンダリコントローラー識別子。
SNMP
Simple Network Management Protocol。
TCP/IP
Transmission Control Protocol/Internet Protocol。
UDP
User Datagram Protocol。
UID
ユニット ID。
USM
SNMP User Security Model。
VACM
SNMP View Access Control Model。
VC
HP Virtual Connect。
VIF
仮想インターフェイス。
WINS
Windows Internet Naming Service。
WWN
World Wide Name。 ファイバーチャネルデバイスに割り当てられる一意の識別子。
WWNN
World Wide Node Name。 ファイバーチャネルノードの各プロセスに割り当てられる、全世
界で一意の 64 ビット識別子。
WWPN
World Wide Port Name。 FC ストレージネットワークで、FC ネットワーク内の各デバイス
を識別するために使用される一意の 64 ビットアドレス。
262 用語集
索引
記号
9000 クライアント
IP アドレスを変更, 122
ステータスの監視, 90
チューニング, 108
トラブルシューティング, 167
プロセスの開始または停止, 108
プロセスのステータスの表示, 108
ホストグループへの追加, 70
ユーザーインターフェイス, 21
ユーザーネットワークインターフェイスの登録, 119
ユーザーネットワークインターフェイスの優先, 120
ローカルにチューニング, 112
C
CLI, 21
E
/etc/sysconfig/i18n ファイル, 15
exds escalate コマンド, 154
exds_netdiag コマンド, 156
exds_netperf コマンド, 157
exds_stdiag ユーティリティ, 155
F
Federal Communications Commission notice (米国), 248
Flex-10 ネットワーク, 231
Fusion Manager
アジャイル, 41
アジャイル構成への移行, 124
構成のバックアップ, 65
フェイルオーバー, 41
G
GUI
イベントの表示, 91
カスタマイズ, 20
詳細パネル, 19
ナビゲーター, 19
パスワードの変更, 22
開く, 17
ユーザーの追加, 20
H
HBA
監視、高可用性, 52
情報の表示, 54
HP
テクニカルサポート, 185
HP Insight Remote Support, 24
Phone Home, 27
設定, 25
トラブルシューティング, 34
hpacucli コマンド, 159
hpasmcli(4) コマンド, 95
hpspAdmin ユーザーアカウント, 22
HP のサポート窓口, 185
I
Ibrix Collect, 151
設定, 153
トラブルシューティング, 154
ibrix_reten_adm -u command, 195
IBRIX ソフトウェア
アップグレード, 129, 187
起動, 106
シャットダウン, 104
IBRIX ソフトウェア 5.5 アップグレード, 202
IBRIX ソフトウェア 5.6 アップグレード, 198
IML
hpasmcli(4) コマンド, 95
消去または表示, 95
IP アドレス
9000 クライアントの変更, 122
L
Linux 9000 クライアント、アップグレード, 139, 192
LUN レイアウト、9720, 161
N
NDMP バックアップ, 65
NDMP サーバーの起動または停止, 67
NDMP パラメーターの設定, 66
新しいデバイスの再スキャン, 68
イベントの表示, 68
セッションのキャンセル, 67
セッションの表示, 66, 67
テープおよびメディアチェンジャーデバイスの表示,
67
NIC フェイルオーバー, 38
NTP サーバー, 24
O
Onboard Administrator
アクセス, 158
P
Phone Home, 27
POST エラーメッセージ, 159
Q
QuickRestoreDVD, 175
S
SNMP MIB, 62
SNMP イベント通知, 60
Statistics ツール, 97
アップグレード, 98
アンインストール, 103
インストール, 97
構成の維持, 101
263
収集と同期の有効化, 97
スペース要件, 100
トラブルシューティング, 102
フェイルオーバー, 101
プロセス, 102
履歴レポート GUI, 98
レポート, 99
ログファイル, 103
U
upgrade60.sh ユーティリティ, 193
V
Virtual Connect ドメイン、構成, 172
W
Web サイト
HP, 186
Windows 9000 クライアント、アップグレード, 140,
193
あ
アース
方法, 243
アジャイル Fusion Manager, 41
アップグレード
6.0 以前のファイルシステム, 193
6.0 ファイルシステム, 195
6.0 より前のファイルシステム, 195
IBRIX 5.5 ソフトウェア, 202
IBRIX ソフトウェア, 129, 187
IBRIX ソフトウェア 5.6 リリース, 198
Linux 9000 クライアント, 139, 192
Windows 9000 クライアント, 140, 193
ファームウェア, 144
アレイコンフィギュレーションユーティリティ, 159
い
イベント、クラスター
MIB ビューの定義, 62
SNMP trapsink の設定, 61
SNMPv3 ユーザーおよびグループの追加, 63
SNMP エージェントの設定, 61
SNMP 構成情報の表示, 64
SNMP 構成の要素の削除, 64
SNMP 通知の設定, 60
監視, 91
削除, 92
タイプ, 58
電子メール通知設定のリスト, 60
電子メール通知の設定, 58
電子メール通知の有効化または無効化, 59
表示 , 91
インテグレーテッドマネジメントログ (IML)
hpasmcli(4) コマンド, 95
消去または表示, 95
え
エラーメッセージ、POST, 159
264 索引
か
仮想インターフェイス, 36
ガイドライン, 36
クライアントアクセス, 39
スタンバイサーバーの構成, 37
ボンディングされた、作成, 37
監視
クラスターイベント, 91
クラスターの稼働状態, 92
サーバー , 72, 79
シャーシとコンポーネント, 75
ストレージ システム コンポーネント, 82
ノードの統計情報, 95
ファイルサービングノード, 90
ブレードエンクロージャー, 76
管理コンソール
アジャイル構成への移行, 124
関連ドキュメント, 185
き
危険な状態
装置の記号, 244
記号
装置, 244
規定に関するご注意
Canadian notice (カナダ), 249
European Union notice (欧州), 249
Japanese notices (日本), 250
Korean notices (韓国), 250
Taiwanese notices (台湾), 251
識別番号, 248
リサイクルに関するご注意, 254
レーザー, 251
キャパシティブロック、9720
概要, 232
く
クライアント
仮想インターフェイスへのアクセス, 39
クラスター
イベント、監視, 91
稼働状況に関する統計情報, 95
バージョン番号、表示, 166
ヘルスチェック, 92
ライセンスキー, 143
ライセンス、表示, 143
ログファイル, 95
クラスターインターフェイス
定義, 118
変更、ネットワーク, 122
け
警告
重量, 244
ラックに関する注意, 186
ラックのロード, 245
ケーブル配線図、9720, 235
こ
て
コアダンプ, 55
高可用性
HBA 監視, 52
NIC HA, 42
アジャイル Fusion Manager, 41
サーバー HA, 42
自動フェイルオーバーの手動での構成, 49
自動フェイルオーバー、オン/オフの切り替え, 50
手動フェイルオーバー, 51
設定に関する概要レポート, 55
設定に関する詳細情報レポート, 55
設定のチェック, 54
電源, 49
トラブルシューティング, 167
ノードの電源管理, 107
ノードのフェイルバック, 52
フェイルオーバー保護, 13
コントローラーエラーメッセージ、9730, 159
コンポーネントの監視、9720, 162
停電、システムリカバリ, 106
停電後のシステム起動, 106
テクニカルサポート, 186
HP, 185
電源、サーバー, 49
電子メールイベント通知, 58
さ
サーバー
クラッシュキャプチャ, 55
スタンバイの構成, 37
チューニング, 108
フェイルオーバー, 43
サーバーブレード
概要, 230
起動, 16
サーバーブレード、9720
追加, 149
サーバーブレードの起動, 16
し
システムの起動, 16
システムの復旧, 175
シャットダウン、ハードウェアおよびソフトウェア, 104
重量、警告, 244
使用済みの機器の廃棄、欧州連合, 254
す
ストレージ
起動, 16, 106
機能, 12
コンポーネント, 12
設置, 14
ハードウェアシャットダウン, 106
ログイン, 15
ストレージ、クラスターからの削除, 114
スペアパーツリスト、9720, 239
スペアパーツリスト、9730, 222
せ
セグメント
移行, 112
クラスターから退避, 114
と
ドキュメント
関連ドキュメント, 185
トラブルシューティング, 151
問題の報告, 154
ね
ネットワークインターフェイス
ガイドライン, 36
削除, 123
定義, 118
表示, 123
ボンディングされたインターフェイスと仮想インター
フェイス, 118
ルーティングテーブルエントリーの削除, 123
ルーティングテーブルエントリーを追加, 122
は
ハードウェア
シャットダウン, 106
電源投入, 106
パスワード、変更
GUI パスワード, 22
バックアップ
Fusion Manager の構成, 65
NDMP アプリケーション, 65
ファイルシステム, 65
バッテリーの廃棄に関するご注意, 258
ふ
ファームウェア、アップグレード, 144
ファイアウォールの構成, 22
ファイルサービングノード
稼働状態, 90
クラスターからの削除, 117
構成情報データベースとの整合性の維持, 172
手動フェイルオーバー, 51
ステータスの監視, 90
セグメントの移行, 112
チューニング, 108
電源管理, 107
統計情報, 95
トラブルシューティング, 167
フェイルバック, 52
復旧, 175
プロセスの開始または停止, 107
プロセスのステータスの表示, 107
ヘルスチェック, 92
ヘルスチェックの実行, 173
ユーザーネットワークインターフェイスの優先, 120
ローリングリブート, 107
265
ファイルシステム
セグメントの移行, 112
フェイルオーバー
NIC, 38
クラッシュキャプチャ, 55
サーバー, 43
自動, 38
自動フェイルオーバーの手動での構成, 49
手動, 51
トラブルシューティング, 167
ノードのフェイルバック, 52
へ
ヘルスチェックのレポート, 93
ヘルプ
入手, 185
ほ
ポート、開く, 22
ホストグループ, 69
9000 クライアントの追加, 70
削除, 71
ドメインルールの追加, 70
表示, 71
ホストグループツリーの作成, 70
ユーザーネットワークインターフェイスの優先, 121
ま
マンページ, 22
も
問題の報告, 154
ゆ
ユーザーネットワークインターフェイス
9000 クライアントの指定, 119
構成ルール, 122
追加, 118
定義, 118
変更, 119
優先解除, 121
優先設定, 120
ら
ラックに関する注意
警告, 186
ラックのロード、警告, 245
ラベル、装置の記号, 244
り
リサイクルに関するご注意, 254
リンク状態監視, 40
る
ルーティングテーブルエントリー
削除, 123
追加, 122
266 索引
れ
レーザー規定に関するご注意, 251
ろ
ローカライズ, 15
ローリングリブート, 107
ログイン, 15
ログファイル, 95
HP サポート用に収集, 151