HP IBRIX 9720/9730 Storage 管理者ガイド nl 概要 このガイドでは、クラスターの構成と監視、システムのアップグレードとリカバリ、ハードウェアコンポーネントの交換、 およびトラブルシューティングに関する操作を説明しています。 IBRIX ファイルシステムの機能や標準の Linux 管理ツール およびコマンドに関する説明は含まれていません。 IBRIX ファイルシステム機能の構成および使用方法については、 『HP IBRIX 9000 Storage File System ユーザーガイド』 を参照してください。 nl 本書は、ネットワークのインストールおよび管理の経験と、Linux の運用および管理作業の経験があるシステム管理者を対 象にしています。 最新の IBRIX ガイドについては、 http://www.hp.com/support/IBRIXManuals (英語) を参照してください。日本語版が用意されているマニュアルは、 http://www.hp.com/jp/manual/ (日本語) から入手できます。 nl HP 部品番号: AW549-96052 2012 年 12 月 第 10 版 © Copyright 2009, 2012 Hewlett-Packard Development Company, L.P. 本書で取り扱っているコンピューターソフトウェアは秘密情報であり、 その保有、使用、または複製には、Hewlett-Packard Company から使 用許諾を得る必要があります。 米国政府の連邦調達規則である FAR 12.211 および 12.212 の規定に従って、コマーシャルコンピューターソ フトウェア、コンピューターソフトウェアドキュメンテーションおよびコマーシャルアイテムのテクニカルデータ (Commercial Computer Software, Computer Software Documentation, and Technical Data for Commercial Items) は、ベンダーが提供する標準使用許諾規定に基づいて 米国政府に使用許諾が付与されます。 本書の内容は、将来予告なしに変更されることがあります。 HP 製品、またはサービスの保証は、当該製品、およびサービスに付随する明示 的な保証文によってのみ規定されるものとします。 ここでの記載で追加保証を意図するものは一切ありません。 ここに含まれる技術的、編 集上の誤り、または欠如について、HP はいかなる責任も負いません。 商標について Microsoft® および Windows® は、米国における Microsoft Corporation の登録商標です。 UNIX® は The Open Group の登録商標です。 保証 保証に関して: この製品に対する保証の複写が必要な際は、保証内容に関する次の Web サイトを参照してください。 http://www.hp.com/go/storagewarranty (英語) リビジョン履歴 版 日付 ソフトウェ ア 説明 バージョン 1 2009 年 12 月 5.3.1 IBRIX 9720 Storage の初回リリース。 2 2010 年 4 月 5.4 ネットワーク管理とサポートチケットを追加。 3 2010 年 8 月 5.4.1 Fusion Manager のバックアップ、アジャイル Fusion Manager 構成への移行、ソフト ウェアアップグレード手順、システムリカバリ手順を追加。 4 2010 年 8 月 5.4.1 アップグレード手順を改訂。 5 2010 年 12 月 5.5 NDMP バックアップと仮想インターフェイスの構成に関する情報を追加し、クラス ター手順を更新。 6 2011 年 3 月 5.5 セグメント排出情報を更新。 7 2011 年 4 月 5.6 アップグレード手順を改訂。 8 2011 年 9 月 6.0 アジャイル Fusion Manager、統計ツール、Ibrix Collect、イベント通知、キャパシティ ブロックの取り付け、NTP サーバー、アップグレードに関する情報を追加または更 新。 9 2012 年 6 月 6.1 9730 システム、ハードウェアの監視、セグメント排出、HP Insight Remote Support、 ソフトウェアアップグレード、イベント、統計ツールに関する情報を追加または更 新。 10 2012 年 12 月 6.2 高可用性、フェイルオーバー、サーバーのチューニング、VLAN のタグ付け、セグメ ントの移行と退避、アップグレード、SNMP に関する情報を追加または更新。 目次 1 製品の説明.............................................................................................12 システムの機能.....................................................................................................................12 システムコンポーネント........................................................................................................12 IBRIX ソフトウェアの機能.......................................................................................................12 高可用性と冗長性..................................................................................................................13 2 はじめに.................................................................................................14 IBRIX 9720/9730 Storage のセットアップ...............................................................................14 インストール手順.............................................................................................................14 追加の設定手順................................................................................................................14 システムへのログイン...........................................................................................................15 ネットワークを使用する場合.............................................................................................15 TFT キーボード / モニターを使用する場合..........................................................................16 Onboard Administrator のシリアルリンクを使用する場合.....................................................16 システムと各サーバーブレードの起動.....................................................................................16 管理インターフェイス...........................................................................................................16 GUI の使用.......................................................................................................................17 GUI のカスタマイズ..........................................................................................................20 GUI アクセスへのユーザーアカウントの追加......................................................................20 CLI の使用........................................................................................................................21 アレイ管理ソフトウェアの起動..........................................................................................21 9000 クライアントインターフェイス.................................................................................21 IBRIX ソフトウェアのマンページ.............................................................................................22 パスワードの変更..................................................................................................................22 ファイアウォール用のポートの構成........................................................................................22 NTP サーバーの構成..............................................................................................................24 IBRIX 9000 システム上での HP Insight Remote Support の構成....................................................24 HP Insight Remote Support に対する IBRIX クラスターの構成.................................................25 HP SIM 7.1 および IRS 5.7 の場合の HP Insight Remote Support の構成...................................29 HP SIM 6.3 および IRS 5.6 の場合の HP Insight Remote Support の構成..................................31 HP Insight Remote Support 構成のテスト..............................................................................34 Phone Home 構成の更新....................................................................................................34 Phone Home の無効化.......................................................................................................34 HP Insight Remote Support のトラブルシューティング..........................................................34 3 クライアントアクセス用の仮想インターフェイスの構成............................36 ネットワークと VIF に関するガイドライン..............................................................................36 ボンディングされた VIF の作成..............................................................................................37 バックアップサーバーの構成..................................................................................................37 NIC フェイルオーバーの構成.................................................................................................38 自動フェイルオーバーの構成..................................................................................................38 構成例..................................................................................................................................38 クライアント構成における VIF の指定.....................................................................................39 VLAN タギングの設定............................................................................................................39 リンク状態監視のサポート.....................................................................................................40 4 フェイルオーバーの構成..........................................................................41 アジャイル管理コンソール.....................................................................................................41 アジャイル Fusion Manager モード....................................................................................41 アジャイル Fusion Manager とフェイルオーバー.................................................................41 Fusion Manager についての情報の表示...............................................................................42 クラスターの高可用性の構成..................................................................................................42 フェイルオーバー中に発生するイベント.............................................................................43 目次 3 HA ウィザードによる自動フェイルオーバーの構成.............................................................43 自動フェイルオーバーの手動での構成................................................................................49 HA 構成の手動での変更................................................................................................50 サーバーの手動フェイルオーバー......................................................................................51 サーバーのフェイルバック ...............................................................................................52 HBA 監視の設定...............................................................................................................52 高可用性機能の設定のチェック..........................................................................................54 障害の発生したノードからのコアダンプの取得........................................................................55 クラッシュキャプチャをセットアップするための前提条件...................................................56 ノードのクラッシュキャプチャのセットアップ...................................................................57 5 クラスターイベント通知の構成................................................................58 クラスターイベント...............................................................................................................58 クラスターイベントの電子メール通知の設定...........................................................................58 イベントと電子メールアドレスの関連付け.........................................................................58 電子メール通知設定の構成................................................................................................59 イベントと電子メールアドレスの関連付けの解除................................................................59 電子メールアドレスのテスト.............................................................................................59 電子メール通知設定の表示................................................................................................60 SNMP 通知の設定..................................................................................................................60 SNMP エージェントの設定................................................................................................61 trapsink 設定の構成...........................................................................................................61 イベントと trapsink の関連付け..........................................................................................62 ビューの定義....................................................................................................................62 グループおよびユーザーの設定..........................................................................................63 SNMP 構成の要素の削除...................................................................................................64 SNMP 構成情報の表示......................................................................................................64 6 システムバックアップの構成...................................................................65 Fusion Manager 構成のバックアップ.......................................................................................65 NDMP バックアップアプリケーションの使用..........................................................................65 クラスターの NDMP パラメーターの設定...........................................................................66 NDMP プロセス管理.........................................................................................................66 NDMP セッションの表示またはキャンセル....................................................................67 NDMP サーバーの起動、停止、または再起動.................................................................67 テープおよびメディアチェンジャーデバイスの表示または再スキャン..................................67 NDMP イベント................................................................................................................68 7 9000 クライアントのホストグループの作成.............................................69 ホストグループの仕組み........................................................................................................69 ホストグループツリーの作成..................................................................................................69 ホストグループへの 9000 クライアントの追加.......................................................................70 ホストグループへのドメインルールの追加..............................................................................70 ホストグループの表示...........................................................................................................71 ホストグループの削除...........................................................................................................71 その他のホストグループ操作..................................................................................................71 8 クラスター操作の監視.............................................................................72 9720/9730 ハードウェアの監視.............................................................................................72 サーバーの監視................................................................................................................72 ハードウェアコンポーネントの監視...................................................................................75 ブレードエンクロージャーの監視..................................................................................76 サーバーの詳細の取得..................................................................................................79 ストレージとストレージコンポーネントの監視...................................................................82 ストレージクラスターの監視........................................................................................83 ストレージクラスターのドライブエンクロージャーの監視.........................................84 ストレージクラスターのプールの監視......................................................................86 4 目次 ストレージクラスターのストレージコントローラーの監視.........................................88 ストレージクラスター内のストレージスイッチの監視....................................................89 ストレージクラスター内の LUN の管理..........................................................................89 ファイルサービングノードの状態の監視.................................................................................90 クラスターイベントの監視.....................................................................................................91 イベントの表示................................................................................................................91 データベースのイベントテーブルからのイベントの削除......................................................92 クラスターの稼働状態の監視..................................................................................................92 ヘルスチェック................................................................................................................92 ヘルスチェックのレポート................................................................................................93 ログの表示............................................................................................................................95 インテグレーテッドマネジメントログ (IML) の表示および消去..................................................95 ファイルサービングノードの稼働状況に関する統計情報の表示.................................................95 9 Statistics ツールの使用.............................................................................97 Statistics ツールのインストールと設定.....................................................................................97 Statistics ツールのインストール..........................................................................................97 収集と同期の有効化..........................................................................................................97 Statistics ツールの IBRIX ソフトウェア 6.0 からのアップグレード..............................................98 履歴レポート GUI の使用.......................................................................................................98 レポートの生成................................................................................................................99 レポートの削除..............................................................................................................100 Statistics ツールの維持..........................................................................................................100 スペース要件..................................................................................................................100 Statistics ツール構成の更新..............................................................................................101 Statistics ツール構成の変更..............................................................................................101 Fusion Manager のフェイルオーバーと Statistics ツールの構成............................................101 Statistics ツールプロセスのステータスの確認....................................................................102 Statistics ツールプロセスの制御........................................................................................102 Statistics ツールのトラブルシューティング............................................................................102 ログファイル......................................................................................................................103 Statistics ツールのアンインストール......................................................................................103 10 システムのメンテナンス......................................................................104 システムのシャットダウン...................................................................................................104 IBRIX ソフトウェアのシャットダウン................................................................................104 システムハードウェアの電源切断....................................................................................106 システムの起動...................................................................................................................106 システムハードウェアの電源投入....................................................................................106 停電後の電源投入...........................................................................................................106 IBRIX ソフトウェアの起動................................................................................................106 ファイルサービングノードの電源オン/オフ..........................................................................107 ローリングリブートの実行...................................................................................................107 プロセスの開始と停止.........................................................................................................107 ファイルサービングノードおよび 9000 クライアントのチューニング.....................................108 セグメントの管理................................................................................................................112 セグメントの移行...........................................................................................................112 セグメントの退避とクラスターからのストレージの削除 ...................................................114 クラスターからノードを削除する.........................................................................................117 ネットワークのメンテナンス................................................................................................118 クラスターインターフェイスとユーザーネットワークインターフェイス.............................118 ユーザーネットワークインターフェイスの追加.................................................................118 構成データベースにネットワークインターフェイスオプションを設定する..........................119 ネットワークインターフェイスの優先設定.......................................................................120 ネットワークインターフェイスの優先解除.......................................................................121 ネットワークの変更........................................................................................................122 目次 5 Linux 9000 クライアントの IP アドレスの変更..............................................................122 クラスターインターフェイスの変更............................................................................122 ルーティングテーブルエントリーの管理......................................................................122 ルーティングテーブルエントリーの追加.................................................................122 ルーティングテーブルエントリーの削除.................................................................123 ネットワークインターフェイスの削除.........................................................................123 ネットワークインターフェイス情報の表示.......................................................................123 11 アジャイル Fusion Manager 構成への移行..............................................124 設定のバックアップ.............................................................................................................124 移行の実行..........................................................................................................................124 アジャイル Fusion Manager のフェイルオーバーとフェイルバックのテスト.............................127 オリジナルの管理コンソールノードを、アジャイル Fusion Manager をホストするファイルサー ビングノードに変換.............................................................................................................127 12 IBRIX ソフトウェアの 6.2 リリースへのアップグレード..........................129 9720 シャーシファームウェアのアップグレード...................................................................131 IBRIX ソフトウェアの 6.x から 6.2 へのオンラインアップグレード..........................................131 アップグレードの準備.....................................................................................................131 アップグレードの実行.....................................................................................................131 アップグレード後...........................................................................................................132 IBRIX ソフトウェアの 6.x から 6.2 への自動オフラインアップグレード...................................133 アップグレードの準備.....................................................................................................133 アップグレードの実行.....................................................................................................133 アップグレード後...........................................................................................................134 IBRIX ソフトウェアの 6.x から 6.2 への手動オフラインアップグレード...................................135 アップグレードの準備.....................................................................................................135 アップグレードの手動での実行........................................................................................137 アップグレード後...........................................................................................................137 Linux 9000 クライアントのアップグレード............................................................................139 Linux クライアントへのカーネルのマイナーアップデートのインストール............................139 Windows 9000 クライアントのアップグレード.....................................................................140 アップグレードの問題のトラブルシューティング..................................................................140 自動アップグレード........................................................................................................140 手動アップグレード........................................................................................................141 iLO ファームウェアが古いためオフラインアップグレードに失敗する.................................141 ノードがクラスターネットワークに登録されていない ......................................................141 ファイルシステムのマウント解除の問題...........................................................................142 13 ライセンス..........................................................................................143 ライセンス条項の表示.........................................................................................................143 ライセンスキーの取得.........................................................................................................143 14 ファームウェアのアップグレード.........................................................144 ファームウェアのアップグレードのコンポーネント...............................................................144 ファームウェアのアップグレードの手順...............................................................................145 FMT に関する追加情報の参照..........................................................................................149 9730 システムへのパフォーマンスモジュールの追加........................................................149 9720 システムへの新しいサーバーブレードの追加............................................................149 15 トラブルシューティング......................................................................151 Ibrix Collect を使用した HP サポート用情報の収集..................................................................151 ログの収集.....................................................................................................................151 アーカイブファイルの削除..............................................................................................152 アーカイブファイルのダウンロード.................................................................................152 Ibrix Collect の設定..........................................................................................................153 データ収集情報の表示.....................................................................................................154 6 目次 データ収集構成情報の表示..............................................................................................154 XML ファイル内のコマンドまたはログの追加/削除...........................................................154 9720 システムのトラブルシューティング.............................................................................154 問題の報告.....................................................................................................................154 便利なユーティリティとプロセス....................................................................................155 exds_stdiag ユーティリティ........................................................................................155 exds_netdiag ユーティリティ......................................................................................156 exds_netperf ユーティリティ.......................................................................................157 Onboard Administrator へのアクセス.....................................................................................158 ネットワーク経由で OA にアクセス.................................................................................158 OA の Web ベースの管理インターフェイスにアクセス.................................................158 シリアルポート経由で OA にアクセス.............................................................................158 サービスポート経由で OA にアクセス.............................................................................158 hpacucli の使用 – アレイコンフィギュレーションユーティリティ (ACU).............................159 POST エラーメッセージ.......................................................................................................159 IBRIX 9730 コントローラーエラーメッセージ.........................................................................159 IBRIX 9720 LUN レイアウト..................................................................................................161 IBRIX 9720 コンポーネントの監視.........................................................................................162 X9700cx シャーシ上の故障 I/O モジュールの特定.................................................................162 故障の表示.....................................................................................................................162 故障したコンポーネントの特定........................................................................................162 X9700c コントローラーの取り付け直し............................................................................166 ソフトウェアのバージョン番号の表示...................................................................................166 特定の問題のトラブルシューティング...................................................................................167 ソフトウェアサービス.....................................................................................................167 フェイルオーバー...........................................................................................................167 Windows 9000 クライアント..........................................................................................168 モード 1 ボンディングまたはモード 6 ボンディング.........................................................168 Onboard Administrator が反応しない................................................................................169 IBRIX RPC のホスト呼び出しが失敗する............................................................................169 サーバーブレード/電源 PIC の劣化.................................................................................169 LUN ステータスが「failed」............................................................................................169 HP P700m の明らかな不具合...........................................................................................170 X9700c エンクロージャーの前面パネルの障害 ID LED が黄色になっている..........................171 交換用ディスクドライブの LED が緑点灯しない................................................................171 X9700cx GSI LED が黄色になっている..............................................................................171 ファームウェア更新後、X9700cx ドライブの LED が黄色になっている...............................171 Virtual Connect ドメインの構成.............................................................................................172 ファイルサービングノード上の情報と構成情報データベースの同期........................................172 Express Query Manual Intervention Failure (MIF) のトラブルシューティング...............................173 16 9720/9730 ストレージの復旧..............................................................175 最新の IBRIX ソフトウェアのリリースの取得..........................................................................175 リカバリの準備...................................................................................................................175 9720 または 9730 ファイルサービングノードのリカバリ.......................................................176 復旧の完了 .........................................................................................................................182 トラブルシューティング......................................................................................................184 iLO リモートコンソールがキー入力に反応しない..............................................................184 17 サポートとその他の資料......................................................................185 HP のサポート窓口..............................................................................................................185 関連情報.............................................................................................................................185 HP Web サイト...................................................................................................................186 ラックに関する注意.............................................................................................................186 製品の保証..........................................................................................................................186 目次 7 A 段階的なアップグレード........................................................................187 IBRIX ソフトウェアの 6.1 リリースへのアップグレード...........................................................187 9720 シャーシファームウェアのアップグレード...............................................................187 IBRIX ソフトウェアの 6.x から 6.1 へのオンラインアップグレード......................................188 アップグレードの準備................................................................................................188 アップグレードの実行................................................................................................188 アップグレード後......................................................................................................189 IBRIX ソフトウェアの 5.6.x または 6.0.x から 6.1 へのオフラインアップグレード...............189 アップグレードの準備................................................................................................189 アップグレードの実行................................................................................................191 アップグレード後......................................................................................................191 Linux 9000 クライアントのアップグレード.......................................................................192 Linux クライアントへのカーネルのマイナーアップデートのインストール.......................193 Windows 9000 クライアントのアップグレード................................................................193 6.0 以前のファイルシステムのアップグレードによるソフトウェアスナップショットのサポー ト..................................................................................................................................193 6.1.1 より前のファイルシステムのデータ保管機能のためのアップグレード.........................195 アップグレードの問題のトラブルシューティング..............................................................195 自動アップグレード...................................................................................................195 手動アップグレード...................................................................................................196 iLO ファームウェアが古いためオフラインアップグレードに失敗する............................196 ノードがクラスターネットワークに登録されていない .................................................196 ファイルシステムのマウント解除の問題......................................................................197 Fusion Manager VIF の bond1 への移動........................................................................197 IBRIX ソフトウェアの 5.6 リリースへのアップグレード..........................................................198 自動アップグレード........................................................................................................199 手動アップグレード........................................................................................................199 アップグレードの準備................................................................................................200 ノード構成の保存......................................................................................................200 アップグレードの実行................................................................................................200 ノード構成の復元......................................................................................................200 アップグレードの完了................................................................................................201 アップグレードの問題のトラブルシューティング..............................................................201 自動アップグレード...................................................................................................201 手動アップグレード...................................................................................................202 IBRIX ソフトウェアの 5.5 リリースへのアップグレード..........................................................202 自動アップグレード........................................................................................................203 手動アップグレード........................................................................................................204 専用管理サーバーマシンまたはブレードを持つクラスターの標準アップグレード...........204 標準オンラインアップグレード..............................................................................204 標準オフラインアップグレード..............................................................................206 アジャイル管理コンソール構成を持つクラスターのアジャイルアップグレード...............208 アジャイルオンラインアップグレード....................................................................208 アジャイルオフラインアップグレード....................................................................212 アップグレードの問題のトラブルシューティング..............................................................215 B IBRIX 9730 コンポーネントおよびケーブル配線図....................................216 メインラックの背面図.........................................................................................................216 拡張ラックの背面図.............................................................................................................217 IBRIX 9730 CX I/O モジュールおよび SAS ポートコネクター..................................................217 IBRIX 9730 CX 1 と SAS スイッチの接続...............................................................................218 IBRIX 9730 CX 2 と SAS スイッチの接続...............................................................................219 IBRIX 9730 CX 3 と SAS スイッチの接続...............................................................................220 IBRIX 9730 CX 7 と SAS スイッチの接続 (拡張ラック)............................................................221 8 目次 C IBRIX 9730 スペアパーツリスト .............................................................222 HP HP HP HP HP IBRIX 9730 パフォーマンスシャーシ (QZ729A).................................................................222 IBRIX 9730 140 TB MLStorage 2xBL パフォーマンスモジュール (QZ730A)............................222 IBRIX 9730 210 TB ML Storage 2xBL パフォーマンスモジュール (QZ731A)...........................223 X9730 140 TB 6G ML Storage 2xBL パフォーマンスモジュール (QZ732A)...........................223 X9730 210TB 6G ML Storage 2xBL パフォーマンスモジュール (QZ733A)............................224 D IBRIX 9720 コンポーネントおよびケーブル配線図....................................225 ベースキャビネットおよび拡張キャビネット.........................................................................225 ベースキャビネットの前面図...........................................................................................225 キャパシティブロック 1 個のベースキャビネットの背面図................................................226 フル装備のベースキャビネットの前面図...........................................................................227 フル装備のベースキャビネットの背面図...........................................................................228 拡張キャビネットの前面図 .............................................................................................229 キャパシティブロックが 4 個の拡張キャビネットの背面図................................................230 パフォーマンスブロック (c-Class ブレードエンクロージャー)..................................................230 c-Class ブレードエンクロージャーの前面図.......................................................................231 c-Class ブレードエンクロージャーの背面図.......................................................................231 Flex-10 ネットワーク.......................................................................................................231 キャパシティブロック.........................................................................................................232 X9700c (12 ディスクドライブのアレイコントローラー).....................................................233 X9700c 前面図...........................................................................................................233 X9700c 背面図...........................................................................................................233 X9700cx (70 ディスクドライブの高密度 JBOD).................................................................234 X9700cx 前面図.........................................................................................................234 X9700cx 背面図.........................................................................................................234 配線図................................................................................................................................235 キャパシティブロックのケーブル接続 — ベースキャビネットおよび拡張キャビネット........235 Virtual Connect Flex-10 Ethernet モジュールのケーブル接続 — ベースキャビネット...............235 SAS スイッチのケーブル接続 — ベースキャビネット........................................................237 SAS スイッチのケーブル接続 — 拡張キャビネット...........................................................237 E IBRIX 9720 スペアパーツリスト .............................................................239 IBRIX 9720 Storage Base (AW548A)......................................................................................239 X9700 拡張ラック (AQ552A)................................................................................................239 X9700 サーバーシャーシ (AW549A).....................................................................................239 X9700 ブレードサーバー (AW550A).....................................................................................240 X9700 82TB キャパシティブロック (X9700c および X9700cx) (AQ551A).................................240 X9700 164TB キャパシティブロック (X9700c および X9700cx) (AW598B)...............................241 F 警告および注意事項...............................................................................243 静電気対策の情報................................................................................................................243 静電気による損傷の防止.................................................................................................243 アースの方法.............................................................................................................243 アースの方法..................................................................................................................243 装置の記号..........................................................................................................................244 重量警告.............................................................................................................................244 ラックに関する警告と注意事項............................................................................................245 デバイスに関する警告と注意事項.........................................................................................245 G 規定に関するご注意..............................................................................248 規定準拠識別番号................................................................................................................248 Federal Communications Commission notice (米国)...................................................................248 FCC rating label..............................................................................................................248 Class A equipment......................................................................................................248 Class B equipment......................................................................................................248 Modification...................................................................................................................249 目次 9 Cables...........................................................................................................................249 Canadian notice (Avis Canadien) (カナダおよびカナダ、フランス語使用地域)...........................249 Class A equipment...........................................................................................................249 Class B equipment...........................................................................................................249 European Union notice (欧州).................................................................................................249 Japanese notices (日本).........................................................................................................250 VCCI-A に関するご注意...................................................................................................250 VCCI-B に関するご注意...................................................................................................250 VCCI マーク...................................................................................................................250 電源コードに関するご注意..............................................................................................250 Korean notices (韓国)............................................................................................................250 Class A equipment...........................................................................................................250 Class B equipment...........................................................................................................250 Taiwanese notices (台湾).......................................................................................................251 BSMI Class A notice.........................................................................................................251 Taiwan battery recycle statement........................................................................................251 Turkish recycling notice (トルコ).............................................................................................251 Vietnamese Information Technology and Communications compliance marking (ベトナム).............251 レーザー規定に関するご注意................................................................................................251 English laser notice (英語).................................................................................................251 Dutch laser notice (オランダ語).........................................................................................252 French laser notice (フランス語)........................................................................................252 German laser notice (ドイツ語).........................................................................................252 Italian laser notice (イタリア語)........................................................................................253 Japanese laser notice (日本語)...........................................................................................253 Spanish laser notice (スペイン語)......................................................................................253 リサイクルに関するご注意...................................................................................................254 English recycling notice (英語)...........................................................................................254 Bulgarian recycling notice (ブルガリア語)...........................................................................254 Czech recycling notice (チェコ語)......................................................................................254 Danish recycling notice (デンマーク語)..............................................................................254 Dutch recycling notice (オランダ語)...................................................................................254 Estonian recycling notice (エストニア語)............................................................................255 Finnish recycling notice (フィンランド語)...........................................................................255 French recycling notice (フランス語)..................................................................................255 German recycling notice (ドイツ語)...................................................................................255 Greek recycling notice (ギリシャ語)...................................................................................255 Hungarian recycling notice (ハンガリー語).........................................................................255 Italian recycling notice (イタリア語)...................................................................................256 Latvian recycling notice (ラトビア語)..................................................................................256 Lithuanian recycling notice (リトアニア語)..........................................................................256 Polish recycling notice (ポーランド語)................................................................................256 Portuguese recycling notice (ポルトガル語).........................................................................256 Romanian recycling notice (ルーマニア語)..........................................................................257 Slovak recycling notice (スロバキア語)...............................................................................257 Spanish recycling notice (スペイン語)................................................................................257 Swedish recycling notice (スウェーデン語).........................................................................257 バッテリーの廃棄に関するご注意.........................................................................................258 Dutch battery notice (オランダ語)......................................................................................258 French battery notice (フランス語).....................................................................................258 German battery notice (ドイツ語)......................................................................................259 Italian battery notice (イタリア語).....................................................................................259 バッテリーに関するご注意 (日本語).................................................................................260 10 目次 Spanish battery notice (スペイン語)...................................................................................260 用語集.....................................................................................................261 索引........................................................................................................263 目次 11 1 製品の説明 HP 9720 および 9730 Storage は、スケーラブルなネットワーク接続型ストレージ (NAS) 製品 です。 このシステムは HP IBRIX ソフトウェアと HP のサーバーおよびストレージハードウェ アを結合して、ファイルサービングノードに対するクラスターを創出します。 システムの機能 9720 および 9730 Storage には、以下の特徴があります。 • 単一の名前空間においてセグメント化されたスケーラブルなファイルシステム • ファイルシステムデータにアクセスするための NFS、SMB (Server Message Block)、FTP、 HTTP サポート • 一元的な CLI および GUI によるクラスター管理 • ポリシー管理 • 継続的なリモート複製 • すべてのストレージコンポーネントに対するデュアルの冗長パス • ギガバイト/秒のスループット 重要: クラスター構成は定期的にバックアップすることが重要です。 詳細については、「Fusion Manager 構成のバックアップ」 (65 ページ) を参照してください。 システムコンポーネント 重要: IBRIX 9720/9730 Storage に含まれるすべてのソフトウェアは、システムの操作のみ を目的とするものです。 HP 担当者の指示がない場合は、ソフトウェアの追加、削除または変 更をしないでください。 9730 のシステムコンポーネントおよびケーブル接続に関する情報は、「IBRIX 9730 コンポー ネントおよびケーブル配線図」 (216 ページ) をご覧ください。 9720 のシステムコンポーネントおよびケーブル接続に関する情報は、付録 D 「IBRIX 9720 コ ンポーネントおよびケーブル配線図」をご覧ください。 システムコンポーネントの完全なリストについては、次のサイトにある『HP IBRIX 9000 Storage QuickSpecs』を参照してください。 http://www.hp.com/go/StoreAll (英語) IBRIX ソフトウェアの機能 HP IBRIX ソフトウェアは、スケールアウト型ネットワーク接続ストレージソリューションであ り、クラスター用のパラレルファイルシステムおよび統合ボリュームマネージャー、複数のコ ンポーネントの自動フェイルオーバーなどの高可用性機能、および集中管理インターフェイス を含んでいます。 IBRIX ソフトウェアは、何千ものノードに拡張可能です。 セグメント化されたファイルシステムアーキテクチャーに基づく IBRIX ソフトウェアは、複数 のアプリケーションで共有、および Fusion Manager で中央管理可能な単一のクラスター環境 に、I/O およびストレージシステムを統合します。 IBRIX ソフトウェアは、高 I/O 帯域幅、高 IOPS スループット、およびスケーラブルな構成を 必要とする高パフォーマンスコンピューティングアプリケーションとともに動作するように設 計されています。 主な機能とメリットのいくつかを次に示します。 • 12 スケーラブルな構成。 サーバーの増設によりパフォーマンスを拡張でき、ストレージデバ イスの増設により容量を拡張できます。 製品の説明 • 単一の名前空間。 すべてのディレクトリとファイルが同じ名前空間に格納されます。 • 複数の環境。 SAN 環境と DAS 環境の両方で動作します。 • 高可用性。 高可用性ソフトウェアがサーバーを保護します。 • チューニング機能。 システムを I/O ブロックのサイズに合わせてチューニングできます。 • 柔軟な構成。 セグメントを動的に移行して再バランスおよびデータ階層化を実施できま す。 高可用性と冗長性 セグメント化されたアーキテクチャーは、障害回復の基盤となります。1 つ以上のセグメント へのアクセスが失われても、ファイルシステム全体がアクセス不能になることはありません。 個々のセグメントは保守作業のため一時的にオフラインにした後、ファイルシステムに戻すこ とができます。 IBRIX ソフトウェアでは、次のような様々なポイントにおける手動および自動でのフェイルオー バー保護が可能です。これにより、継続的なデータアクセスが保証されます。 • サーバー: 障害の発生したノードは電源を遮断され、指定されたスタンバイサーバーがセ グメント管理をすべて引き継ぎます。 • セグメント: 指定されたスタンバイサーバーが、障害の発生したノード上の各セグメント のオーナーシップを引き継ぎます。 • ネットワークインターフェイス: 障害の発生したネットワークインターフェイスが再び稼 働状態になるまでの間、スタンバイネットワークインターフェイスが IP アドレスを引き継 ぎます。 • ストレージの接続: HBA で保護されたファイバーチャネルアクセスを使用しているサー バーの場合、HBA に障害が発生すると、ノードからの指定されたスタンバイサーバーへの フェイルオーバーがトリガーされます。 高可用性と冗長性 13 2 はじめに この章では、システムへのログイン、システムと各サーバーブレードの起動、パスワードの変 更、Fusion Manager 構成のバックアップに関する手順について説明します。 また、IBRIX ソフ トウェア管理インターフェイスについても説明します。 重要: システムをご使用の際は、次のガイドラインに従ってください。 • HP からの指示がない限り、オペレーティングシステムやカーネルのパラメーターを変更 したり、IBRIX 9720/9730 Storage の一部を更新したりしないでください。システムが正 常に動作しなくなる可能性があります。 • ファイルサービングノードはファイルサービング操作に応じてチューニングされていま す。 サポートされているバックアッププログラムを除き、その他のアプリケーションを ノード上で直接実行しないでください。 IBRIX 9720/9730 Storage のセットアップ HP のサービススペシャリストがお客様のサイトでシステムを設定します。次のような作業を 行います。 インストール手順 • 設置を始める前に、製品のコンポーネントがそれらの設置場所に配置されていることを確 認します。 製品の梱包を解き、各梱包に含まれているアイテムのリストと実際の内容を照 合し、製品外部に物理的な損傷がないことを確認します。次に、製品を電源に接続し、お 客様のネットワークに接続します。 • HP Enterprise NAS 製品の実装に関連するお客様のサーバー、ネットワーク、ストレージ 環境を確認し、前提条件が満たされているかどうか検証します。 • サービス計画フェーズ以降に、お客様のファイルシステムパフォーマンス、可用性、管理 に関する要件が変更されていないことを確認します。 HP Enterprise NAS 製品の実装計画 とソフトウェア構成を最終決定します。 • 配布前チェックリストに記載されている情報に基づいて、文書化された合意に基づく構成 を実装します。 • 構成の詳細を文書化します。 追加の設定手順 システムが稼働したら、続けてクラスターおよびファイルシステムに関する追加設定を行うこ とができます。 大部分の操作は管理コンソール GUI と CLI を使用して行います (ここに記載さ れている機能の一部は、システムインストールの過程で設定される場合もあります)。 クラスター: 必要に応じて次のように設定します。 14 • ファイアウォールポート。 「ファイアウォール用のポートの構成」 (22 ページ) を参照し てください。 • HP Insight Remote Support および Phone Home。 「IBRIX 9000 システム上での HP Insight Remote Support の構成」 (24 ページ) を参照してください。 • クライアントアクセス用の仮想インターフェイス。 「クライアントアクセス用の仮想イン ターフェイスの構成」 (36 ページ) を参照してください。 • 電子メールまたは SNMP を介したクラスターイベント通知。 「クラスターイベント通知 の構成」 (58 ページ) を参照してください。 • Fusion Manager バックアップ。 「Fusion Manager 構成のバックアップ」 (65 ページ) を 参照してください。 はじめに • NDMP バックアップ。 「NDMP バックアップアプリケーションの使用」 (65 ページ) を 参照してください。 • 統計ツール。 「Statistics ツールの使用」 (97 ページ) を参照してください。 • Ibrix Collect。 「Ibrix Collect を使用した HP サポート用情報の収集」 (151 ページ) を参照 してください。 ファイルシステム: 必要に応じて次の機能を設定します。 • NFS、SMB (Server Message Block)、FTP、または HTTP。 ファイルシステムデータにアク セスするために使用する方法を設定します。 • クォータ。 必要に応じて、ユーザー、グループ、ディレクトリツリーのクォータを設定し ます。 • リモート複製。 この機能を使用すると、あるクラスター上のソースファイルシステム内で 発生した変更を、同じクラスターか、または別のクラスター上のターゲットファイルシス テムに複製できます。 • データの保管と検証。 この機能を使用すると、WORM (Write-Once Read-Many) と保管さ れたファイルを管理できます。 • ウイルス対策サポート。 この機能はサポートされているウイルス対策ソフトウェアを使用 して、IBRIX ファイルシステム上でファイルをスキャンできます。 • IBRIX ソフトウェアスナップショット。 この機能により、オンラインバックアップを目的 としたファイルシステムまたはディレクトリのポイントインタイムコピーを取得できま す。また、誤って削除されたファイルを簡単に回復することも可能です。 ユーザーはス ナップショットに表示された時点でのファイルシステムまたはディレクトリにアクセスで きます。 • ファイルの割り当て。 この機能を使用すると、新しいファイルとディレクトリを格納する ためのセグメントの選択方法を指定できます。 • データ階層化。 この機能を使用すると、ファイルをファイル属性に基づいて特定の階層に 移動できます。 これらのファイルシステム機能の詳細については、『HP IBRIX 9000 Storage File System ユー ザーガイド』 を参照してください。 ローカライズのサポート Red Hat Enterprise Linux 5 では、サポートされたロケール用に UTF-8 (8 ビット Unicode Transformation Format) エンコードを使用します。 これにより、別のロケールで UTF-8 を使用 して作成されたドキュメントを表示、編集、作成することができます。IBRIX ソフトウェアで は、/etc/sysconfig/i18n 設定ファイルをユーザーのロケールに合わせて変更することが できます。 次の例では、複数の文字セットに LANG および SUPPORTED 変数を設定していま す。 LANG="ko_KR.utf8" SUPPORTED="en_US.utf8:en_US:en:ko_KR.utf8:ko_KR:ko:zh_CN.utf8:zh_CN:zh" SYSFONT="lat0-sun16" SYSFONTACM="iso15" システムへのログイン ネットワークを使用する場合 別のホストからリモートでログインする場合は、ssh を使用します。 構成済みのいずれかの サイトネットワークインターフェイス (eth1、eth2、または bond1) を使用して、すべてのサー バーにログインできます。 システムへのログイン 15 ssh で root ユーザーとしてログインすると、サーバーへのログイン後、.ssh/known_hosts ファイルによりクラスター内のサーバーを操作できます。 お客様のクラスター内のオリジナルのサーバーブレードは、パスワード不要の ssh をサポー トするよう構成されています。 1 つのサーバーに接続すると、root パスワードを再度入力し なくても他のサーバーに接続できます。 他のサーバーブレードで同じサポートを可能にした り、パスワードを入力せずにシステム自体にアクセスするには、他のサーバーの鍵を各サー バーブレードの .ssh/authorized_keys に追加します。 TFT キーボード / モニターを使用する場合 サイトのネットワークがダウンした場合、次の手順でコンソールにログインできます。 1. キーボードモニターを引き出します (「ベースキャビネットの前面図」 (225 ページ) 参照)。 2. Print Scrn または Ctrl を 1 秒以内に 2 度押し、スクリーン表示 (OSD) のメインダイアログ ボックスにアクセスします。 3. 最初のサーバー名をダブルクリックします。 4. 通常どおりログインします。 注記: デフォルトでは、最初のポートがブレード 1 の前面のドングル (つまりサーバー 1) に 接続されています。 サーバー 1 がダウンしている場合、ドングルは別のブレードに接続しま す。 Onboard Administrator のシリアルリンクを使用する場合 ターミナルサーバーに接続する場合は、Onboard Administrator のシリアルリンクを介してロ グインできます。 システムと各サーバーブレードの起動 システムを起動する前に、サーバーブレード以外のすべてのシステムコンポーネント (キャパ シティブロックやパフォーマンスモジュールなど) の電源が入っていることを確認してくださ い。 デフォルトでは、サーバーブレードは、システムパフォーマンスシャーシ (c-Class Blade エンクロージャー) に電源が供給された時点で起動します。 すべてのサーバーブレードの電源 が切れている場合、次の手順でシステムを起動できます。 1. サーバーブレード 1 の電源ボタンを押します。 2. サーバー 1 に root ユーザーとしてログインします。 3. 残りのサーバーブレードの電源を入れます。 ibrix_server -P on -h <hostname> 注記: または、残りのすべてのサーバーの電源ボタンを押します。 最初のサーバーブ レードの起動を待つ必要はありません。 管理インターフェイス クラスター処理は、IBRIX Fusion Manager によって管理します。Fusion Manager では GUI と CLI の両方を使用できます。 ほとんどの操作は、GUI と CLI のどちらからでも実行できます。 CLI からしか実行できない操作は次のとおりです。 16 • SNMP 設定 (ibrix_snmpagent、ibrix_snmpgroup、ibrix_snmptrap、 ibrix_snmpuser、ibrix_snmpview) • ヘルスチェック (ibrix_haconfig、ibrix_health、ibrix_healthconfig) • Raw ストレージ管理 (ibrix_pv、ibrix_vg、ibrix_lv) • Fusion Manager の操作 (ibrix_fm) と Fusion Manager のチューニング (ibrix_fm_tune) • ファイルシステムのチェック (ibrix_fsck) はじめに • カーネルプロファイリング (ibrix_profile) • クラスター構成 (ibrix_clusterconfig) • 構成情報データベースの整合性維持 (ibrix_dbck) • シェルタスク管理 (ibrix_shell) GUI からしか実行できない操作は次のとおりです。 • データ検証スキャンの自動更新スケジューリング • ソフトウェアスナップショットの自動更新スケジューリング GUI の使用 GUI は、Fusion Manager へのブラウザーベースのインターフェイスです。 サポートされてい るブラウザーと、ダッシュボードでチャートを表示するために必要なその他のソフトウェアに ついては、リリースノートを参照してください。 必要に応じて複数の GUI ウィンドウを開く ことができます。 HTTP を使用して GUI にアクセスする場合は、Web ブラウザーを開き、ポート 80 を指定して 次の場所に移動してください。 http://<management_console_IP>:80/fusion HTTPS を使用して GUI にアクセスする場合は、ポート 443 を指定して次の場所に移動してく ださい。 https://<management_console_IP>:443/fusion これらの URL で、<management_console_IP> は、Fusion Manager ユーザー VIF の IP アド レスを指しています。 ユーザー名とパスワードを入力するダイアログボックスが表示されます。 デフォルトの管理 ユーザーは ibrix です。 システムのインストール時にこのユーザーに割り当てられたパス ワードを入力します (このパスワードは Linux の passwd コマンドを使用して変更できます)。 ほかのユーザーも GUI にアクセスできるようにする場合は、「GUI アクセスへのユーザーア カウントの追加」 (20 ページ) を参照してください。 ログインすると、GUI ダッシュボードが開き、クラスター全体を監視できるようになります (GUI の表示と操作の詳細については、オンラインヘルプを参照してください)。 ダッシュボー 管理インターフェイス 17 ドは、システムステータス、クラスターの概要、ナビゲーターという 3 つの部分で構成されて います。 システムステータス [System Status] セクションには、直前の 24 時間以内に発生したクラスターイベントの数が表 示されます。 イベントには次の 3 つの種類があります。 アラート: ファイルシステムデータへのアクセスが失われる可能性のある中断イベント。 たとえば、セ グメントが使用不能になった場合や、サーバーがアクセス不能になった場合など。 警告: ファイルシステムへのアクセスは失われないものの、中断を招く可能性のある状態。この状態に 対処しないでいると、アラート条件にまで悪化する可能性があります。 たとえば、サーバー CPU の使 用率が非常に高い場合や、クォータ制限値に近づいている場合など。 情報: クラスターに対する変更に伴って通常生じるイベント。 たとえば、ファイルシステムをマウント した場合やセグメントを作成した場合など。 クラスターの概要 クラスターの概要では、次の情報を提供します。 [Capacity] 現在未使用の、または使用中のクラスターストレージスペースの容量。 [File systems] クラスター内のファイルシステムの現在のヘルスステータス。 概要では、それぞれの状態 (健全、警告状態、アラート状態、不明) のファイルシステムの数を示します。 [Segment Servers] クラスター内のファイルサービングノードの現在のヘルスステータス。 概要では、それぞ れの状態 (健全、警告状態、アラート状態、不明) のノード数を示します。 18 はじめに [Services] 指定したファイルシステムサービスが現在動作しているかどうかを示します。 1 つ以上のタスクが実行 中。 実行中のタスクなし。 [Statistics] 以下の項目に関する履歴パフォーマンスグラフ • ネットワーク I/O (MB/秒) • ディスク I/O (MB/秒) • CPU 使用率 (%) • メモリ使用率 (%) 各グラフの X 軸は時間、Y 軸はパフォーマンスを表します。 [Statistics] メニューを使用して、監視するサーバーの選択 (2 台まで)、Y 軸の最大値の変更、 CPU とメモリのリソース使用率分布の表示/非表示を行います。 [Recent Events] 最近のクラスターイベント。 [Recent Events] メニューを使用して、表示するイベントのタ イプを選択します。 [Cluster Overview] から特定のメニュー項目に直接アクセスすることもできます。 [Capacity]、 [Filesystems]、または [Segment Servers] のインジケーター上にマウスを移動すると、使用可能 なオプションが表示されます。 ナビゲーター ナビゲーターはウィンドウの左側にあり、クラスター階層を表示します。 ナビゲーターを使用 してクラスター構成内にドリルダウンし、ファイルシステムやストレージなどのクラスターオ ブジェクトを追加、表示、または変更したり、スナップショットや複製などのタスクを開始ま たは表示することができます。 オブジェクトを選択すると、詳細ページにそのオブジェクトの 概要が表示されます。 下部のナビゲーターでは、選択したオブジェクトの詳細を表示したり、 タスクを開始したりすることができます。 次の例では、上部のナビゲーターで [Filesystems] を 選択し、下部のナビゲーターで [Mountpoints] を選択することで、ファイルシステム ifs1 の マウントに関する詳細を表示しています。 管理インターフェイス 19 注記: GUI で操作を行う場合、操作が完了するまで回転する指の図が表示されます。 ただ し、Windows リモートデスクトップを使用して GUI にアクセスしている場合、回転する指の 図は表示されません。 GUI のカスタマイズ GUI に表が表示されているときは、ほとんどの場合、表示する列を指定でき、各列のソート順 序を指定できます。 この機能を使用できる場合は、列の上にマウスを合わせると、ラベルの色 が変化し、ポインターが表示されます。 ポインターをクリックすると、使用可能なオプション が表示されます。 次の例では、[Mountpoint] 列の内容を昇順または降順にソートでき、表示に 含める列を選択できます。 GUI アクセスへのユーザーアカウントの追加 IBRIX ソフトウェアは管理者ロールとユーザーロールをサポートしています。 管理者ロールで ログインしたユーザーは、クラスターを設定したり、リモート複製やスナップショットなどの 操作を開始することができます。 ユーザーロールでログインしたユーザーは、クラスター設定 とステータスを表示できますが、設定を変更したり操作を開始したりすることはできません。 デフォルトの管理ユーザー名は ibrix です。 デフォルトの標準ユーザー名は ibrixuser で す。 管理者ロールとユーザーロールのユーザー名は、/etc/group ファイルで定義します。 管理 ユーザーは ibrix-admin グループ内に指定し、標準ユーザーは ibrix-user グループに指 20 はじめに 定します。 これらのグループは、IBRIX ソフトウェアのインストール時に作成されます。 次に 示す /etc/group ファイル内のエントリーは、これらのグループ内のデフォルトユーザーを 示しています。 ibrix-admin:x:501:root,ibrix ibrix-user:x:502:ibrix,ibrixUser,ibrixuser 必要に応じて、Linux コマンドを使用して、これらのグループにほかのユーザーを追加するこ とができます。 例を次に示します。 adduser -G ibrix-<groupname> <username> adduser コマンドを使用するときには、必ず -G オプションを含むようにしてください。 CLI の使用 本書で述べる管理コマンドは、Fusion Manager ホスト上で実行する必要があります。これらの コマンドを実行するには、root 権限が必要です。 これらのコマンドは $IBRIXHOME⁄bin にあ ります。 コマンドの詳細については、『HP IBRIX 9000 Network Storage System CLI リファレ ンスガイド』を参照してください。 ssh を使用して Fusion Manager をホストするマシンにアクセスする場合は、Fusion Manager ユーザー VIF の IP アドレスを指定します。 アレイ管理ソフトウェアの起動 アレイのタイプによっては、GUI からアレイ管理ソフトウェアを起動できます。 ナビゲーター で [Vendor Storage] を選択し、[Vendor Storage] ページからアレイを選択して、[Launch Storage Management] をクリックします。 9000 クライアントインターフェイス 9000 クライアントから Fusion Manager にアクセスする方法は次のとおりです。 • Linux クライアント: ファイルシステムのマウントまたはアンマウントや統計情報の表示 などのタスクには、Linux クライアントコマンドを使用します。 これらのコマンドの詳細 については、『HP IBRIX 9000 Storage CLI リファレンスガイド』を参照してください。 • Windows クライアント: ファイルシステムのマウントまたはアンマウントや Windows ク ライアントの登録などのタスクには、Windows クライアント GUI を使用します。 Windows 9000 クライアント GUI の使用 Windows 9000 クライアント GUI は、Fusion Manager へのクライアントインターフェイスで す。 GUI を開くには、デスクトップアイコンをダブルクリックするか、クライアントの [ス タート] メニューから 9000 クライアントプログラムを選択します。 このクライアントプログ ラムには、機能別のタブが表示されます。 注記: Windows 9000 クライアント GUI を起動できるのは、管理者権限を持つユーザーのみ です。 • [Status]: クライアントの Fusion Manager 登録ステータスおよびマウントされているファ イルシステムを表示し、トラブルシューティングに役立つ IAD ログへのアクセスを提供し ます。 • [Registration]: Fusion Manager にクライアントを登録します。詳しくは、『HP IBRIX 9000 Storage インストールガイド』を参照してください。 • [Mount]: ファイルシステムをマウントします。 リストからクラスター名 (Fusion Manager 名) を選択し、マウントするファイルシステムの名前を入力した後、ドライブを選択して、 [Mount] をクリックします (リモートデスクトップを使用してクライアントにアクセスする ときにドライブ文字が表示されない場合は、いったんログアウトしてからログインし直し ます)。 管理インターフェイス 21 • [Umount]: ファイルシステムをアンマウントします。 • [Tune Host]: 優先する NIC (クライアント用に異なるネットワークインターフェイスを優先 していない限り、クライアントはデフォルトでクラスターインターフェイスを使用しま す)、通信プロトコル (UDP または TCP)、使用するサーバースレッドの数などのパラメー ターをチューニングできます。 • [Active Directory Settings]: 現在の Active Directory 設定を表示します。 詳しくは、クライアント GUI のオンラインヘルプを参照してください。 IBRIX ソフトウェアのマンページ IBRIX ソフトウェアでは、ほとんどのコマンドのマンページが用意されています。 マンページ を表示するには、MANPATH 変数を設定し、マンページへのパスを含め、エクスポートします。 マンページは $IBRIXHOME/man ディレクトリにあります。 たとえば、$IBRIXHOME が /usr/ local/ibrix (デフォルト) の場合は、MANPATH 変数を次のように設定し、変数をエクスポー トします。 MANPATH=$MANPATH:/usr/local/ibrix/man パスワードの変更 重要: hpspAdmin ユーザーアカウントは IBRIX ソフトウェアのインストール時に追加され、 内部で使用されます。 このアカウントを削除したり、パスワードを変更しないでください。 システム上の次のパスワードを変更できます。 • ハードウェアパスワード: 詳しくは、特定のハードウェアのマニュアルを参照してくださ い。 • root パスワード: 各サーバーで passwd(8) コマンドを使用します。 • IBRIX ソフトウェアユーザーパスワード: このパスワードはインストール時に作成され、 GUI へのログイン時に使用されます。 デフォルトは ibrix です。 このパスワードは Linux の passwd コマンドを使用して変更できます。 # passwd ibrix 新しいパスワードを入力するように求められます。 ファイアウォール用のポートの構成 重要: 予期しない結果が生じないように、HP では、ファイアウォールの構成はスケジュール されたメンテナンス時間に実行することをお勧めします。 ファイアウォールの構成時には、次の点に注意する必要があります。 22 • SELinux を無効化する必要があります。 • デフォルトでは、マウントやロックなどの操作に対して、NFS はランダムなポート番号を 使用します。 これらのポートを固定して、ファイアウォール構成ファイルに例外として表 示できるようにする必要があります。 たとえば、rpc.statd、rpc.lockd、 rpc.mountd、rpc.quotad のために固有のポートをロックする必要があります。 • すべてのネットワーク上ですべての ICMP タイプを許可するのが最善の方法ですが、必要 に応じて ICMP のタイプを 0、3、8、11 に制限することもできます。 はじめに 次の表に示すポートを必ず開いてください。 ポート 説明 22/tcp SSH 9022/tcp Onboard Administrator (OA) 用の SSH (9720/9730 ブレードのみ) 123/tcp、123/upd NTP 5353/udp マルチキャスト DNS、224.0.0.251 12865/tcp netperf ツール 80/tcp Fusion Manager からファイルサービングノードへ 443/tcp 5432/tcp Fusion Manager および IBRIX ファイルシステム 8008/tcp 9002/tcp 9005/tcp 9008/tcp 9009/tcp 9200/tcp ファイルサービングノードと NFS クライアント間 (ユーザーネットワーク) 2049/tcp、2049/udp NFS 111/tcp、111/udp RPC 875/tcp、875/udp クォータ 32803/tcp lockmanager 32769/udp lockmanager 892/tcp、892/udp マウントデーモン 662/tcp、662/udp stat 2020/tcp、2020/udp stat 送信 4000:4003/tcp カスタムアプリケーション (CMU) で使用するために予約 (使用しない場合は無 効にできる) 137/udp ファイルサービングノードと SMB クライアント間 (ユーザーネットワーク) 138/udp 139/tcp 445/tcp 9000:9002/tcp ファイルサービングノードと 9000 クライアント間 (ユーザーネットワーク) 9000:9200/udp 20/tcp、20/udp ファイルサービングノードと FTP クライアント間 (ユーザーネットワーク) 21/tcp、21/udp 7777/tcp GUI と、GUI にアクセスする必要のあるクライアント間 8080/tcp 5555/tcp、5555/udp Dataprotector 631/tcp、631/udp Internet Printing Protocol (IPP) 1344/tcp、1344/udp ICAP ファイアウォール用のポートの構成 23 NTP サーバーの構成 クラスターの初期設定時には、プライマリおよびセカンダリ NTP サーバーは、外部のタイム ソースと時刻同期を行うように構成されます。 NTP サーバーのリストは、Fusion Manager の 構成内に格納されます。 アクティブな Fusion Manager ノードは、外部ソースと時刻同期しま す。 その他のファイルサービングノードは、アクティブな Fusion Manager ノードと時刻同期 します。 外部のタイムソースが存在しない場合、アジャイル Fusion Manager ノードのローカ ルハードウェアのクロックがタイムソースとして使用されます。 この構成方法では、外部のタ イムソースが存在しない場合でも、すべてのクラスターノード上で時刻同期が行われます。 9000 クライアントでは、クラスターノードとの時刻同期は行われません。 9000 クライアン ト上で NTP サーバーを構成する必要があります。 現在構成されている NTP サーバーをリストします。 ibrix_clusterconfig -i -N NTP サーバーの新しいリストを指定します。 ibrix_clusterconfig -c -N SERVER1[,...,SERVERn] IBRIX 9000 システム上での HP Insight Remote Support の構成 重要: IBRIX ソフトウェア 6.1 リリースでは、IBRIX SNMP エージェントのデフォルトポート が 5061 から 161 に変更されています。このポート番号は変更できません。 前提条件 IBRIX システムをサポートするために必要なコンポーネントは、ファイルサービングノード上 にプリインストールされています。 HP Insight Remote Support は、Central Management Server (CMS) と呼ばれる単独の Windows システムにインストールする必要があります。 • HP Insight Manager (HP SIM): このソフトウェアは HP システムを管理するもので、システ ムが正常に稼働する時間を最大化するための最も簡単で最もコストの低い方法です。 • HP Insight Remote Support Advanced (IRSA): このバージョンは HP Systems Insight Manager (SIM) に統合されています。 リモート通報、通知/アドバイザリ、ディスパッチ、プロア クティブサービスを包括的にサポートします。 IRSA と HP SIM を合わせて CMS と呼びま す。 サポートされているソフトウェアバージョンは次のとおりです。 • HP SIM 6.3 および IRSA 5.6 • HP SIM 7.1 および IRSA 5.7 重要: HP Insight Remote Support Standard (IRSS) は IBRIX ソフトウェア 6.1 以降ではサポート されません。 ソフトウェアのダウンロードに関する製品説明と詳細については、次に示す HP Insight Remote Support Software の Web ページを参照してください。 http://h50146.www5.hp.com/services/cs/availability/irs/index.html (日本語) HP SIM の詳細については、次の Web サイトを参照してください。 http://h50146.www5.hp.com/products/software/management/hpsim/ (日本語) IRSA ドキュメントについては、次の Web サイトを参照してください。 http://www.hp.com/go/insightremoteadvanced-docs (英語) 24 はじめに 重要: HP Systems Insight Manager を使用して IBRIX MIB ファイルをコンパイルし、手動で登 録する必要があります。 1. ibrixMib.txt を /usr/local/ibrix/doc/からダウンロードします。 2. ファイル名を ibrixMib.mib に変更します。 3. HP Systems Insight Manager で、以下の手順を実行します。 a. 次のコマンドを入力して、既存の MIB の登録を解除します。 <BASE>\mibs>mxmib -d ibrixMib.mib b. ibrixMib.mib ファイルを <BASE>\mibs ディレクトリにコピーしてから、次のコ マンドを入力します。 <BASE>\mibs>mcompile ibrixMib.mib <BASE>\mibs>mxmib -a ibrixMib.cfg MIB に関する詳細については、以下に掲載されている『HP Systems Insight Manager ユーザー ガイド』の「MIB のコンパイルとカスタマイズ」を参照してください。 http://www.hp.com/go/insightmanagement/sim/ (英語) [Support & Documents] をクリックし、次に [Manuals] をクリックします。 ユーザーガイドに 移動します。 制約 次のことに留意してください。 • IBRIX システムでは、HP Insight Remote Support の実装はハードウェアイベントに制限され ます。 • 9720 CX ストレージデバイスは、HP Insight Remote Support ではサポートされていませ ん。 HP Insight Remote Support に対する IBRIX クラスターの構成 9720/9730 システムのリモートサポートを有効にするには、Virtual SAS Manager、Virtual Connect Manager、および Phone Home を設定する必要があります。 この手順の実行時には、 クラスター内のすべてのノードをアクティブにする必要があります。 注記: Phone Home を設定すると、以前の IBRIX snmp 設定の詳細がすべて削除され、Phone Home の設定詳細が SNMP 設定に適用されます。 Phone Home を有効にすると、 ibrix_snmpagent を使用して snmp エージェントの設定を編集または変更することができな くなります。 ただし、ibrix_snmptrap を使用して trapsink IP を追加したり、ibrix_event を使用して trapsink IP にイベントを関連付けたりすることはできます。 Onboard Administrator の登録 Onboard Administrator は自動的に登録されます。 Virtual SAS Manager の構成 9730 システムでは、SAS スイッチの SNMP サービスは、デフォルトでは無効になっていま す。 すべての SAS スイッチで SNMP サービスを手動で有効にし、trapsink IP を提供するに は、次の手順を実行します。 1. OA から Virtual SAS Manager を開きます。 [OA IP] > [Interconnet Bays] > [SAS Switch] > [Management Console] を選んでください。 2. Virtual SAS Manager で、[Maintain] タブを開き、[SAS Blade Switch] をクリックして [SNMP Settings] を選びます。 ダイアログボックスで、SNMP サービスを有効にし警告に必要な情 報を入力してください。 IBRIX 9000 システム上での HP Insight Remote Support の構成 25 Virtual Connect Manager の構成 IBRIX 9720/9730 システム上で Virtual Connect Manager を構成するには、次の手順を実行し ます。 1. Onboard Administrator から、[OA IP] > [Interconnet Bays] > [HP VC Flex-10] > [Management Console] を選びます。 2. HP Virtual Connect Manager で、[SNMP Configuration] タブを開きます。 3. SNMP Trap Destination を構成します。 4. 26 はじめに • [Destination Name] および [IP Address] (CMS IP) を入力します。 • [SNMP Trap Format] に [SNMPv1] を選びます。 • [Community String] に [public] を指定します。 すべてのトラップカテゴリ、VCM トラップおよびトラップレベルを選びます。 Phone Home の設定 GUI で Phone Home を設定するには、上部のナビゲーターで [Cluster Configuration] を選択し、 下部のナビゲーターで [Phone Home] を選択します。 [Phone Home Setup] パネルに現在の設定 が表示されます。 IBRIX 9000 システム上での HP Insight Remote Support の構成 27 [Enable] をクリックして、 [Phone Home Settings] ダイアログボックスの設定を行います。 [Software Entitlement ID] フィールドは、現在使用されていないのでスキップしてください。 Phone Home に必要な時間は、クラスター内のデバイス数によって異なります。クラスターが 大きいほど時間がかかります。 CLI から Phone Home 設定を構成するには、次のコマンドを使用します。 ibrix_phonehome -c -i <IP Address of the Central Management Server> [-z Software Entitlement Id] [-r Read Community] [-w Write Community] [-t System Contact] [-n System Name] [-o System Location] 例を次に示します。 28 はじめに ibrix_phonehome -c -i 99.2.4.75 -P US -r public -w private -t Admin -n SYS01.US -o Colorado 次に、使用している HP SIM のバージョンに合わせて HP Insight Remote Support を構成します。 • HP SIM 7.1 および IRS 5.7 の場合: 「HP SIM 7.1 および IRS 5.7 の場合の HP Insight Remote Support の構成」 (29 ページ) を参照してください。 • HP SIM 6.3 および IRS 5.6 の場合: 「HP SIM 6.3 および IRS 5.6 の場合の HP Insight Remote Support の構成」 (31 ページ) を参照してください。 HP SIM 7.1 および IRS 5.7 の場合の HP Insight Remote Support の構成 HP HP 1. 2. Insight Remote Support を構成するには、次の手順を実行します (ここで使用されている、 Systems Insight Manager (SIM) の画像は、英語版の表示です)。 システムのサーバーとシャーシに対する使用権を構成します。 HP SIM 上でデバイスを検出します。 サーバーおよびシャーシの使用権の構成 下部のナビゲーターで [Phone Home] を展開します。 [Chassis]、または [Servers] を選択する と、GUI にはそのデバイスタイプに対する現在の使用権が表示されます。 次の例は、クラス ター内のサーバーに対する使用権を示しています。 使用権を構成するには、デバイスを選択し、[Modify] をクリックして、そのデバイスタイプの ダイアログボックスを開きます。 次の例は [Server Entitlement] ダイアログボックスを示してい ます。 Customer-Entered (顧客入力) のシリアル番号と製品番号は、HP サポートでの保証内容 確認に使用されます。 CLI からデバイスの使用権を設定する場合は、次のコマンドを使用します。 これらのコマンド は、クラスターに存在するデバイスごとに実行する必要があります。 サーバーの使用権の設定: IBRIX 9000 システム上での HP Insight Remote Support の構成 29 ibrix_phonehome -e -h <Host Name> -b <Customer Entered Serial Number> -g <Customer Entered Product Number> Host Name パラメーターには、ibrix_fm -l コマンドによって表示される内容を正確に入 力してください。 シャーシの使用権の設定: ibrix_phonehome -e -C <OA IP Address of the Chassis> -b <Customer Entered Serial Number> -g <Customer Entered Product Number> 注記: ん。 GUI の [Phone Home] > [Storage selection] は、9720/9730 システムでは使用できませ HP SIM のデバイスの検出 HP Systems Insight Manager (SIM) は、SNMP プロトコルを使用して IBRIX システムを自動的に 検出および識別します。 HP SIM で、[オプション] -> [検出] -> [新規]の順に開きます。 ダイア ログボックスで、[システムのグループ単位での検出]を選択して、検出名と Fusion Manager の IP アドレスを入力します。 [認証] -> [SMTP] タブで、読み取りコミュニティ文字列を入力します。 この文字列は、Phone Home の読み取りコミュニティ文字列と一致する必要があります。 文字列が特定できない場 合、Fusion Manager IP は「Unknown」として検出されます。 30 はじめに デバイスは、次の表の記述のように検出されます。 デバイス 検出されたターゲット Fusion Manager IP システムタイプ: システムサブタイプ: 製品モデル: Fusion Manager 9000 HP 9000 Solution システムタイプ: システムサブタイプ: 製品モデル: Storage Device 9000、Storage、HP ProLiant HP 9720 NetStor FSN(ProLiant BL460 G6) HP 9720 NetStor FSN(ProLiant BL460 G6) HP 9730 NetStor FSN(ProLiant BL460 G7) HP 9730 NetStor FSN(ProLiant BL460 G7) nl nl ファイルサービング ノード nl nl nl nl nl nl nl nl nl nl 次の例は、HP SIM 7.1 で検出されたデバイスを示しています。 ファイルサービングノードと OA IP は、Fusion Manager IP アドレスに関連付けられています。 HP SIM で、[Fusion Manager] を選択して、[システム] タブを開きます。 次に、[Associations] を選択してデバイスを表示します。 [Systems by Type] -> [Storage System] -> [Scalable Storage Solutions] -> [All X9000 Systems ]の下 に、すべての IBRIX デバイスが表示されます。 HP SIM 6.3 および IRS 5.6 の場合の HP Insight Remote Support の構成 HP SIM のデバイスの検出 HP Systems Insight Manager (SIM) は、SNMP プロトコルを使用して IBRIX システムを自動的に 検出および識別します。 HP SIM で、[オプション] -> [検出] -> [新規]の順に開き、[システムの グループ単位での検出]を選択します。 [新規検出] で、検出名と監視対象のデバイスの IP アド レスを入力します (ここで使用されている、HP Systems Insight Manager (SIM) の画像は、英語 版の表示です)。 詳細については、HP SIM 6.3 のマニュアルを参照してください。 注記: クラスター内の各デバイスは個別に検出する必要があります。 IBRIX 9000 システム上での HP Insight Remote Support の構成 31 [認証] -> [SMTP] タブで、読み取りコミュニティ文字列を入力します。 この文字列は、Phone Home の読み取りコミュニティ文字列と一致する必要があります。 文字列が特定できない場 合、デバイスは「Unknown」として検出されます。 次の例は、HP SIM 6.3 で検出されたデバイスを示しています。 ファイルサービングノードは、 ProLiant サーバーとして検出されています。 デバイス使用権の構成 IBRIX システムに対するリモートサポートが有効になるように、CMS を構成します。 詳細につ いては、『HP Insight Remote Support Advanced A.05.60 操作ガイド』の「HP Insight Remote Support Advanced の [Settings] タブを使用したクライアントおよび CMS 情報の更新」を参照 してください。 32 はじめに HP SIM で、次のカスタムフィールド設定を入力します。 • 9720/9730 Onboard Administrator のカスタムフィールド設定 Onboard Administrator (OA) は OA IP アドレスによって検出されます。 OA が検出された ら、HP Systems Insight Manager のシステムプロパティを編集します。 [Contract and Warranty Information] ページの [Entitlement Information] セクションで、次の情報を更新し ます。 • ◦ [顧客入力製品番号] には、IBRIX エンクロージャーの製品番号を入力します。 ◦ [カスタム配送 ID] には、[9000] と入力します。 ◦ [システム国別情報] を選択します。 ◦ [顧客連絡先] および [顧客設置先情報] に、適切な詳細情報を入力します。 [契約及び保証情報] [Entitlement Information] の下で、[顧客入力シリアル番号]、[顧客入力製品番号]、[システム 国別情報]、[カスタム配送 ID] を指定します。 デバイス使用権の確認 HP SIM で使用権情報を確認するには、次の手順を実行します。 1. [Remote Support Configuration and Service] に移動して、[Entitlement] タブを選択します。 2. 検出されたデバイスを確認します。 注記: HP SIM で検出されたシステムが [Entitlement] タブに表示されない場合は、 [Synchronize RSE] をクリックします。 3. 4. 5. [Action List] で [Entitle Checked] を選択します。 [Run Action] をクリックします。 使用権のチェックが完了したら、[Refresh] をクリックします。 注記: HP SIM で検出されたシステムが [Entitlement] タブに表示されない場合は、 [Synchronize RSE] をクリックします。 IBRIX 9000 システム上での HP Insight Remote Support の構成 33 使用権を設定したデバイスは、[Remote Support System List] ダイアログボックスの [ENT] 列に 緑色で表示されます。 デバイスが赤で表示されている場合、[顧客入力] のシリアル番号と部品番号が正しいことを確 認して、デバイスを再検出します。 HP Insight Remote Support 構成のテスト トラップが正しく機能していることを確認するために、次のコマンドを使用して汎用のテスト トラップを送信します。 snmptrap -v1 -c public <CMS IP> .1.3.6.1.4.1.232 <Managed System IP> 6 11003 1234 .1.3.6.1.2.1.1.5.0 s test .1.3.6.1.4.1.232.11.2.11.1.0 i 0 .1.3.6.1.4.1.232.11.2.8.1.0 s "IBRIX remote support testing" たとえば、CMS の IP アドレスが 99.2.2.2 で、IBRIX ノードが 99.2.2.10 の場合は、次のよう に入力します。 snmptrap -v1 -c public 99.2.2.2 .1.3.6.1.4.1.232 99.2.2.10 6 11003 1234 .1.3.6.1.2.1.1.5.0 s test .1.3.6.1.4.1.232.11.2.11.1.0 i 0 .1.3.6.1.4.1.232.11.2.8.1.0 s "IBRIX remote support testing" Phone Home 構成の更新 クラスター内のデバイスを追加または削除したら、Phone Home 構成を同期化する必要があり ます。 この操作によって、新しく追加したデバイス (サーバー、ストレージ、シャーシ) に対 して Phone Home を有効化し、クラスター内に存在しなくなったデバイスの詳細を削除しま す。 GUI では、上部のナビゲーターで [Cluster Configuration] を選択し、下部のナビゲーター で [Phone Home] を選択して、[Phone Home Setup] パネルの [Rescan] をクリックします。 CLI では、次のコマンドを入力します。 ibrix_phonehome –s Phone Home の無効化 Phone Home を無効にすると、クラスターとハードウェアからすべての Phone Home 情報が削 除され、ソフトウェアは監視されなくなります。 GUI で Phone Home を無効化するには、 [Phone Home Setup] パネルで [Disable] をクリックします。 CLI では、次のコマンドを入力し ます。 ibrix_phonehome -d HP Insight Remote Support のトラブルシューティング HP SIM でデバイスが検出されない クラスターのネットワークとデバイスが CMS にアクセスできることを確認します。 これらが CMS にアクセスできない場合、デバイスは正しく検出されません。 34 はじめに SNMP トラップホストの最大数がすでに設定済みである このエラーが報告された場合、trapsink IP アドレスの最大数がすでに設定されています。 OA デバイスの場合、trapsink IP アドレスの最大数は 8 です。デバイスから trapsink IP アドレスを 手動で削除して、Phone Home の構成に戻り、CMS の IP アドレスを trapsink IP アドレスとし て追加できるように設定します。 Phone Home でクラスターノードが構成されていない Phone Home の構成中にクラスターノードがダウンした場合、ログファイルには次のメッセー ジが表示されます。 SEVERE: Sent event server.status.down: Server <server name> down ノードが稼働したら、Phone Home を再スキャンしてノードを構成に追加します。 「Phone Home 構成の更新」 (34 ページ) を参照してください。 Fusion Manager IP が「Unknown」として検出される HP SIM に入力されている読み取りコミュニティ文字列が、Phone Home の読み取りコミュニ ティ文字列と一致していることを確認します。 さらに、VIF IP で snmpwalk を実行して、情報を確認します。 # snmpwalk -v 1 -c <read community string> <FM VIF IP> .1.3.6.1.4.1.18997 9720 OA の検出時に重大なエラーが発生する 3GB SAS スイッチに、169.x.x.x の範囲の内部 IP が存在する場合、HP SIM からアクセスでき ません。 これらのスイッチは監視されませんが、その他の OA コンポーネントは監視されま す。 検出されたデバイスが CMS では「Unknown」として報告される ファイルサービングノードで次のコマンドを実行し、HP Insight Remote Support サービスが実 行しているかどうか確認します。 # service snmpd start # service hpsmhd start # service hp-snmp-agents start サービスが実行されていない場合は、起動します。 # service snmpd start # service hpsmhd start # service hp-snmp-agents start アラートが CMS に到達しない ノードが構成されており、システムが正しく検出されているのにアラートが CMS に到達しな い場合は、ファイルサービングノードの cma.conf 構成ファイルに trapif エントリーが存 在しているかどうか確認します。 デバイスの [Entitlement] タブが緑色で表示されない [Entitlement] タブが緑色で表示されない場合は、[顧客入力] のシリアル番号と部品番号または デバイスを確認します。 SIM による検出 SIM による検出では、どのデバイスの検出にも [システムのグループ単位での検出]オプション を使用します。 IBRIX 9000 システム上での HP Insight Remote Support の構成 35 3 クライアントアクセス用の仮想インターフェイスの構 成 IBRIX ソフトウェアでは、Fusion Manager トラフィックやファイルサービングノード間のトラ フィックを伝送するために、クラスターネットワークインターフェイスを使用します。 この ネットワークは、クラスターのインストール時に bond0 として構成されます。 Fusion Manager のフェイルオーバーをサポートするために、クラスターネットワークインターフェイス用に仮 想インターフェイスが作成されます。 クラスターネットワークインターフェイスでもファイルサービングノードとクライアント間の トラフィックを伝送できますが、HP では、この目的のために 1 つ以上のユーザーネットワー クインターフェイスを構成することをお勧めします。 ユーザーネットワークの高可用性を実現するには、ネットワークに対してボンディングされた 仮想インターフェイス (VIF) を構成し、VIF に対するフェイルオーバーを設定する必要がありま す。 この方法によって、クライアントトラフィックの中断を回避できます。 必要に応じて、 VIF をホストしているファイルサービングノードはバックアップサーバーにフェイルオーバー できるので、クライアントはバックアップサーバーを介して引き続きファイルシステムにアク セスすることができます。 IBRIX システムは、クラスターおよびユーザーネットワークでの VLAN タギングの使用もサポー トしています。 「VLAN タギングの設定」 (39 ページ) に例を示します。 ネットワークと VIF に関するガイドライン 高可用性を実現するには、クライアントアクセスに使用するユーザーインターフェイスを、ボ ンディングされた仮想インターフェイス (VIF) として構成する必要があります。 次のことに留 意してください。 • ファイルシステムの提供またはフェイルオーバーのために通信する必要のあるノードは、 同じネットワークインターフェイスに存在している必要があります。 また、フェイルオー バーのペアとして設定されているノードは、同じネットワークインターフェイスに接続さ れている必要があります。 • ユーザーネットワークには Gigabit Ethernet ポート (またはそれ以上) を使用してください。 • NFS、SMB、FTP、HTTP クライアントは、同じユーザー VIF を使用できます。 VIF を提供 するサーバーはバックアップペア内に構成する必要があり、これらのサーバー上にはフェ イルオーバー用に NIC を構成する必要もあります。 この構成を GUI から実行する方法に ついては、管理者ガイドの「クラスターの高可用性の構成」を参照してください。 • Linux および Windows 9000 クライアントの場合、VIF をホストするサーバーをバックアッ プペア内に構成する必要があります。 ただし、9000 クライアントはバックアップ NIC をサポートしていません。 したがって、9000 クライアントは代わりに VIF の親ボンド、 または別の VIF に接続します。 親ボンド (たとえば、bond0) にルートが定義されていることを確認します。 1. コマンドプロンプトから次のコマンドを入力して、HP IBRIX 9000 のインストール時 に定義された親インターフェイス/ボンドのそれぞれのデフォルト Linux OS ルート/ ゲートウェイをチェックします。 • # route このコマンドの出力が次のように表示されます。 36 クライアントアクセス用の仮想インターフェイスの構成 デフォルトのターゲットは、Linux のデフォルトゲートウェイ/ルートです。 HP IBRIX 9000 のインストール時に定義されたデフォルトのターゲットでは、オペレーティン グシステムでデフォルトゲートウェイが定義されていますが、IBRIX については定義 されていません。 コマンドプロンプトから次のように入力して、IBRIX が制御しているネットワークイ ンターフェイスを表示します。 2. # ibrix_nic -l IFNAME に [ROUTE] 列のデータが表示されていないかどうかに注目します。 3. 親クラスターボンドのデフォルトルートと SMB/NFS で使用する FSN に割り当てら れたユーザー VIFS に IFNAME を割り当てるには、コマンドプロンプトから次の ibrix_nic コマンドを入力します。 # ibrix_nic -r -n IFNAME -h HOSTNAME-A -R <ROUTE_IP> 4. 「バックアップサーバーの構成」 (37 ページ) の説明に従って、バックアップ監視を 構成します。 ボンディングされた VIF の作成 注記: この章の例では、統一されたネットワークを使用し、bond0 上にボンディングされた VIF を作成しています。 クラスターが別のネットワークレイアウトを使用する場合は、bond1 のようなユーザーネットワークボンド上にボンディングされた VIF を作成してください。 次の手順を使用して、ボンディングされた VIF (この例では bond0:1) を作成します。 1. サーバー上で高可用性 (自動フェイルオーバー) が構成されている場合、これを無効にしま す。 Fusion Manager で次のコマンドを実行します。 # ibrix_server –m -U 2. bond0:1 VIF を識別します。 # ibrix_nic –a -n bond0:1 –h node1,node2,node3,node4 3. 各ノード上の bond0:1 VIF に IP アドレスを割り当てます。 このコマンドでは、-I は IP アドレスを指定し、-M はネットマスクを指定し、-B はブロードキャストアドレスを指定 しています。 # # # # ibrix_nic ibrix_nic ibrix_nic ibrix_nic –c –c –c –c –n –n –n –n bond0:1 bond0:1 bond0:1 bond0:1 –h –h –h –h node1 node2 node3 node4 –I –I –I –I 16.123.200.201 16.123.200.202 16.123.200.203 16.123.200.204 –M –M –M –M 255.255.255.0 255.255.255.0 255.255.255.0 255.255.255.0 -B -B -B -B 16.123.200.255 16.123.200.255 16.123.200.255 16.123.200.255 バックアップサーバーの構成 クラスター内のサーバーはバックアップペア内で構成されます。 クラスターをインストールし た時点でこの手順が実行されていない場合は、bond0:1 インターフェイスに対するバックアッ プサーバーを割り当てます。 たとえば、以下の手順では、node1 は node2 のバックアップ、 node2 は node1 のバックアップになります。同様に、node3 は node4 のバックアップ、node4 は node3 のバックアップになります。 ボンディングされた VIF の作成 37 1. VIF を追加します。 # ibrix_nic –a -n bond0:2 –h node1,node2,node3,node4 2. 各 VIF にバックアップサーバーを設定します。 # # # # ibrix_nic ibrix_nic ibrix_nic ibrix_nic –b –b –b –b –H –H –H –H node1/bond0:1,node2/bond0:2 node2/bond0:1,node1/bond0:2 node3/bond0:1,node4/bond0:2 node4/bond0:1,node3/bond0:2 NIC フェイルオーバーの構成 NFS、SMB、FTP、または HTTP によって使用される VIF 上で、NIC 監視を構成する必要があり ます。 重要: NIC 監視の構成時には、スタンバイサーバーの構成時に使用したのと同じバックアッ プペアを使用します。 例を次に示します。 # # # # ibric_nic ibric_nic ibric_nic ibric_nic –m –m –m –m -h -h -h -h node1 node2 node3 node4 -A -A -A -A node2/bond0:1 node1/bond0:1 node4/bond0:1 node3/bond0:1 自動フェイルオーバーの構成 ファイルサービングノードで自動フェイルオーバーを有効にするには、次のコマンドを実行し ます。 ibrix_server —m [-h SERVERNAME] 構成例 この例では、ib50-81 と ib50-82 という 2 つのノードを使用しています。この 2 つのノー ドは、お互いをバックアップするバックアップペアを形成しています。 [root@ib50-80 ~]# ibrix_server -l Segment Servers =============== SERVER_NAME BACKUP STATE ----------- ------- -----------ib50-81 ib50-82 Up ib50-82 ib50-81 Up HA ID GROUP --- ------------------------------------ ----on 132cf61a-d25b-40f8-890e-e97363ae0d0b servers on 7d258451-4455-484d-bf80-75c94d17121d servers ib50-81 のすべての VIF は、ib50-82 にバックアップ (スタンバイ) VIF を持っています。同 様に、ib50-82 のすべての VIF は、ib50-81 にバックアップ (スタンバイ) VIF を持っていま す。NFS、SMB、FTP、HTTP クライアントは、どちらのホストの bond0:1 にも接続できます。 必要に応じて、選択したサーバーは反対側のホストの bond0:2 にフェイルオーバーされます。 これらのクライアントがサポートされていなかったり、NIC フェイルオーバーが必要な場合 は、9000 クライアントがどちらかのホストの bond1 に接続できます。 次の出力例には、関 連するフィールドのみが表示されています。 38 クライアントアクセス用の仮想インターフェイスの構成 クライアント構成における VIF の指定 クライアントを構成する場合、クライアントアクセスに使用する VIF を指定しなければならな いことがあります。 NFS/SMB: サーバーの VIF IP アドレスを指定して (たとえば、bond0:1)、接続を確立します。 または、DNS ラウンドロビンを構成して、NFS または SMB のクライアントからサーバーへの 配信を確保することもできます。 どちらの場合でも、NFS/SMB クライアントは、それぞれの 共有に接続するときに使用した最初の IP を、通常は次の再起動までキャッシュします。 FTP: [Add FTP Shares] ダイアログボックスまたは ibrix_ftpshare コマンドで FTP 共有を追 加する場合、クライアントがその共有にアクセスするために使用する IP アドレスとして、VIF を指定します。 HTTP: [Create Vhost] ダイアログボックスまたは ibrix_httpvhost コマンドで仮想ホストを 作成する場合、Vhost に関連付けられた共有にクライアントがアクセスするために使用する IP アドレスとして、VIF を指定します。 9000 クライアント: 次のコマンドを使用して、適切なユーザーネットワークを優先指定しま す。 指定したインターフェイス経由でクライアントが接続するターゲットホストのそれぞれに ついて、このコマンドを 1 回ずつ実行します。 ibrix_client -n -h SRCHOST -A DESTNOST/IFNAME 例を次に示します。 ibrix_client -n -h client12.mycompany.com -A ib50-81.mycompany.com/bond1 注記: バックアップ NIC は 9000 クライアントの優先ネットワークインターフェイスとして 使用できないため、HA (高可用性) とクライアント通信が相互に機能するように、ユーザーネッ トワークインターフェイスを 1 つ以上追加してください。 VLAN タギングの設定 VLAN 機能は、同じ物理ネットワークハードウェア上で複数の論理ネットワークを実行するた めのハードウェアサポートを提供します。 異なる VLAN に複数のパケットを許可して、同じ 物理インターフェイスを行き来できるようにするには、各パケットに、VLAN タグが含まれる フィールドが追加されている必要があります。 このタグは小さな整数で、これによりパケット が属する VLAN を識別します。 中継するスイッチは、「タグ付けされた」パケットを受信す ると、タグの値に基づき、適切な転送方法を判断できます。 IBRIX システムは、正しくセットアップされていれば、ファイルサービングノードのネットワー クインターフェイスへと転送される VLAN タグをサポートします。 ファイルサービングノー ドが VLAN タグをこのような方法でネイティブに処理できることで、ノードが単一のボンディ ングされたインターフェイス経由で複数の VLAN 接続を同時にサポートできるようになりま す。 Linux の ifconfig などのネットワーキングツールでは、デバイスラベルを使用して、 bond#.<VLAN_id> という形式で、ネットワークインターフェイスとそれに関連付けられた VLAN タグが表示されます。 たとえば、IBRIX によって作成された最初のボンドに 30 の VLAN タグが付いていると、bond0.30 というラベルが付けられます。 VLAN タグが関連付けられているインターフェイスの上位に VIF を追加することもできます。 この場合、インターフェイスのデバイスラベルは、bond#.<VLAN_id>.<VVIF_label> とい クライアント構成における VIF の指定 39 う形式になります。 たとえば、ラベルが 2 の VIF が bond0.30 インターフェイスに追加され ると、新しいインターフェイスデバイスラベルは bond0.30:2 になります。 次のコマンドは、10.10.x.y サブネットを使用して統一されたネットワークトポロジーのボ ンディングされた VIF とバックアップノードの構成を表示します。 VLAN タギングが、51 サ ブネットのホスト ib142–129 と ib142–131 に構成されています。 VLAN タグ付きの bond0.51 インターフェイスを追加します。 # ibrix_nic -a -n bond0.51 -h ib142-129 # ibrix_nic -a -n bond0.51 -h ib142-131 各ノード上の bond0:51 VIF に IP アドレスを割り当てます。 # ibrix_nic -c -n bond0.51 -h ib142-129 -I 15.226.51.101 -M 255.255.255.0 # ibrix_nic -c -n bond0.51 -h ib142-131 -I 15.226.51.102 -M 255.255.255.0 インターフェイスの上位に bond0.51:2 VIF を追加します。 # ibrix_nic -a -n bond0.51:2 -h ib142-131 # ibrix_nic -a -n bond0.51:2 -h ib142-129 バックアップノードを設定します。 # ibrix_nic -b -H ib142-129/bond0.51,ib142-131/bond0.51:2 # ibrix_nic -b -H ib142-131/bond0.51,ib142-129/bond0.51:2 ユーザー FM VIF を作成します。 ibrix_fm -c 15.226.51.125 -d bond0.51:1 -n 255.255.255.0 -v user VLAG タギングの詳細については、『HP IBRIX Storage Network Best Practices Guide』を参照し てください。 リンク状態監視のサポート SMB または NFS 用に使用されるユーザーネットワークインターフェイスまたは VIF のリンク 状態監視は構成しないでください。 リンク状態監視は、9300 Gateway システムと共に提供さ れるような、iSCSI ストレージネットワークインターフェイスで使用する場合のみサポートさ れます。 40 クライアントアクセス用の仮想インターフェイスの構成 4 フェイルオーバーの構成 この章では、アジャイル管理コンソール、ファイルサービングノード、ネットワークインター フェイス、および HBA に対してフェイルオーバーを構成する方法について説明します。 アジャイル管理コンソール アジャイル Fusion Manager ではクラスター構成が維持され、クラスターの管理および監視の ためのグラフィカルインターフェイス (GUI) とコマンドラインインターフェイス (CLI) が用意 されています。 アジャイル Fusion Manager は、クラスターのインストール時にすべてのファ イルサービングノードにインストールされます。 Fusion Manager は 1 つのノード上でアク ティブになり、それ以外のノード上ではパッシブになります。 これはアジャイル Fusion Manager 構成と呼ばれます。 アジャイル Fusion Manager モード アジャイル Fusion Manager は、次のいずれかのモードになります。 • active: このモードでは、Fusion Manager がコンソール操作を制御します。 すべてのクラ スター管理および構成コマンドは、アクティブな Fusion Manager から実行する必要があ ります。 • passive: このモードでは、Fusion Manager はアクティブな Fusion Manager の動作状況を 監視します。 アクティブな Fusion Manager に障害が発生した場合、パッシブな Fusion Manager が選択されてアクティブなコンソールになります。 • nofmfailover: このモードでは、Fusion Manager はコンソール操作に参加しません。 この モードは、アクティブな Fusion Manager の手動フェイルオーバー、IBRIX ソフトウェアの アップグレード、サーバーブレードの交換などの操作に使用します。 モードの変更 Fusion Manager を passive モードまたは nofmfailover モードに移行するには、次のコマンドを 使用します。 ibrix_fm -m passive | nofmfailover [-A | -h <FMLIST>] Fusion Manager がアクティブコンソールから変更された場合、IBRIX ソフトウェアは新しいア クティブコンソールを選択します。 現在 active モードである Fusion Manager は、passive モー ドまたは nofmfailover モードのいずれかに移行できます。 nofmfailover モードの Fusion Manager は passive モードにしか移行できません。 アクティブな Fusion Manager を実行しているローカルノードを除き、-A オプションによっ て、Fusion Manager のすべてのインスタンスが指定したモードに移行します。 -h オプション では、<FMLIST> 内にある Fusion Manager インスタンスが指定したモードに移行します。 アジャイル Fusion Manager とフェイルオーバー アジャイル Fusion Manager 構成を使用すると、Fusion Manager サービスの高可用性が実現し ます。 アクティブな Fusion Manager に障害が発生すると、クラスターの仮想インターフェイ スがダウンします。 クラスターの仮想インターフェイスがダウンしたことをパッシブな Fusion Manager が検出すると、その Fusion Manager がアクティブコンソールになります。 この Fusion Manager がクラスターの仮想インターフェイスを再構築し、Fusion Manager サービス をローカルで起動して、active モードに移行させ、Fusion Manager の操作を引き継ぎます。 アクティブな Fusion Manager のフェイルオーバーは、次の機能に影響します。 • ユーザーネットワーク: クライアントの使用している仮想インターフェイスもフェイルオー バーされます。 新しいアクティブな Fusion Manager が仮想インターフェイスの管理を引 き継いでいるときに、ユーザーがわずかな時間の再接続に気付く場合もあります。 • GUI: フェイルオーバーのあと、Fusion Manager の VIF に再接続する必要があります。 アジャイル管理コンソール 41 Fusion Manager の手動フェイルオーバー アクティブな Fusion Manager を手動でフェイルオーバーするには、コンソールを nofmfailover モードにします。 コンソールをホストしているノードで、次のコマンドを入力します。 ibrix_fm -m nofmfailover コマンドはただちに有効になります。 フェイルオーバーした Fusion Manager は、次のコマンドを使用して passive モードに移行す るまで、nofmfailover モードのままです。 ibrix_fm -m passive 注記: ん。 Fusion Manager を nofmfailover モードから active モードに移行することはできませ Fusion Manager についての情報の表示 モード情報を表示するには、次のコマンドを使用します。 ibrix_fm –i 注記: Fusion Manager がアジャイル構成でインストールされていない場合、次のように出力 されます。 nl FusionServer: fusion manager name not set! (active, quorum is not configured). Fusion Manager は、インストール時に、Fusion Manager 構成情報に登録されます。 登録され ているすべての管理コンソールのリストを表示するには、次のコマンドを使用します。 ibrix_fm –l クラスターの高可用性の構成 IBRIX の高可用性は、サーバー、NIC、および HBA の監視を提供します。 サーバー HA。 サーバーはバックアップペアで構成され、ペアの各サーバーが他方のサーバー のバックアップとして動作します。 バックアップペア内のサーバーが同じストレージを認識で きる必要があります。 サーバーがフェイルオーバーすると、そのサーバーのセグメントと Fusion Manager サービス (サーバーがアクティブ FM をホスティングしている場合) のオーナー シップがバックアップサーバーに移動します。 NIC HA。サーバー HA が有効であると、NIC HA によって追加のトリガーが提供され、サー バーがバックアップサーバーへとフェイルオーバーします。 たとえば、bond0:2 などのユー ザー VIF を作成してサーバーの SMB 要求を処理するようにし、bond0:2 のスタンバイ NIC としてバックアップサーバーを任命します。サーバーの bond0:2 で問題が発生すると、その サーバーとそのセグメントのオーナーシップおよび FM サービスがバックアップサーバーに フェイルオーバーし、そのサーバーが bond0:2 経由の SMB 要求を処理するようになります。 NIC のみをバックアップサーバーのスタンバイ NIC にフェイルオーバーすることもできます。 HBA 監視。 この方法では、HBA 経由でストレージへのサーバーアクセスが保護されます。 多 くのサーバーがコントローラーが 2 つ付属する HBA を装備しているため、設計によって冗長 性が提供されます。 このようなサーバーでは、IBRIX HBA 監視のセットアップは一般的には使 用されません。 ただし、1 つの HBA しか装備していないサーバーで HBA の監視を必要とす る場合は、その 1 つの HBA がオフラインになったり障害が発生したりしたためにサーバーが ストレージを認識できなくなると、サーバーとそのセグメントがフェイルオーバーします。 自動サーバーフェイルオーバーをセットアップできますが、必要があれば手動フェイルオー バーを実行できます。 サーバーがフェイルオーバーした場合は、サーバーを手動でフェイル バックする必要があります。 42 フェイルオーバーの構成 自動 HA が有効化されている場合は、サーバーから 1 分間隔でブロードキャストされるハート ビートメッセージを Fusion Manager がリスンします。 Fusion Manager は、ハートビートの受 信が 5 回続けて失敗すると、サーバーフェイルオーバーを開始します。 NIC HA も有効化され ている場合は、フェイルオーバー条件がさらに迅速に検出されます。Fusion Manager が監視対 象の NIC がダウンしていることを示すハートビートメッセージを受信し、Fusion Manager が NIC に到達できないと、サーバーフェイルオーバーが開始します。 HBA 監視が有効化されて いる場合は、Fusion Manager は、ハートビートメッセージが監視対象の HBA または HBA の ペアで障害が発生したことを示していると、サーバーをフェイルオーバーします。 フェイルオーバー中に発生するイベント サーバーがバックアップにフェイルオーバーすると、次のアクションが発生します。 1. バックアップサーバーの電源がオンになっており、アクセス可能であることを Fusion Manager が確認します。 2. Fusion Manager がサーバーのセグメントのオーナーシップをバックアップへ移行し、その 移行をすべてのサーバーと 9000 クライアントに通知します。 これは、持続的な変更で す。 サーバーがアクティブな FM をホスティングしている場合、別のサーバーへ移行しま す。 3. NIC 監視が構成されている場合、Fusion Manager は、スタンバイ NIC をアクティブ化し、 IP アドレス (または VIF) をその NIC に転送します。 フェイルオーバーしたサーバーにマウントされていたクライアントでは、サーバーのフェイル オーバーの実行時に短時間、サービスが中断することがあります。 使用しているプロトコルに よって、フェイルオーバー後もクライアントが操作を実行できる場合と、同じ VIF を使用して ファイルシステムを再マウントする必要がある場合があります。 いずれの場合にも、異なる サーバーのファイルシステムにアクセスするようになったことをクライアントが意識すること はありません。 フェイルオーバーの進行状況を確認するには、GUI の [Status] タブを表示するか、または ibrix_server -l コマンドを実行します。 Fusion Manager がセグメントのオーナーシップ を移行している間のノードの稼働ステータスは、フェイルオーバー開始時にノードの電源がオ ンになっていたなら Up-InFailover、オフになっていたなら Down-InFailover になりま す。 フェイルオーバーが完了すると、プライマリの稼働ステータスは Up-FailedOver また は Down-FailedOver に変化します。 稼働状態の詳細については、「ファイルサービング ノードの状態の監視」 (90 ページ) を参照してください。 自動フェイルオーバーと手動フェイルオーバーのどちらで発生したイベントも、GUI 上で報告 されます。 自動フェイルオーバーは、HA ウィザード、またはコマンドラインから構成できます。 HA ウィザードによる自動フェイルオーバーの構成 HA ウィザードは、バックアップサーバーペアを構成し、オプションで、ペアの各サーバーの スタンバイ NIC を構成します。 さらに、各サーバーの iLO などの電源も構成します。 Fusion Manager は、電源を使用して、フェイルオーバー時にサーバーの電源をオフにします。 GUI のナビゲーターで [Servers] を選択します。 クラスターの高可用性の構成 43 [High Availability] をクリックし、ウィザードを開始します。 一般的に、システムのインストー ル時にバックアップサーバーが構成されてサーバー HA が有効になり、[Server HA Pair] ダイ アログボックスには、[Servers] で選択したサーバーのバックアップペア構成が表示されます。 必要があれば、サーバーのバックアップペアを構成できます。 このウィザードでは、選択され たサーバーと同じストレージを認識できる、クラスター内のサーバーを識別します。 該当する サーバーをリストから選択します。 このウィザードはさらに、各サーバーの iLO の IP アドレスも検出しようとします。 ウィザー ドが IP アドレスを検出できない場合は、IP アドレスをダイアログボックスに入力する必要が あります。 情報の入力が完了したら、[Enable HA Monitoring and Auto-Failover for both servers] をクリックします。 [NIC HA Setup] ダイアログボックスを使用して、SMB や NFS などのデータサービスに使用す る NIC を設定します。 サーバーとそのバックアップの NIC HA ペアを指名し、それらの NIC の監視を有効にすることもできます。 44 フェイルオーバーの構成 たとえば、サーバー ib69s1 が処理する SMB シェアへのアクセスにクライアントが使用する ユーザー VIF を作成できます。 ユーザー VIF は、そのサーバーのアクティブな物理ネットワー クに基づきます。 そのためには、ダイアログボックスの ib69s1 のセクションの [Add NIC] を クリックします。 [Add NIC] ダイアログボックスに NIC の名前を入力します。 下記の例では、クラスターは統 一されたネットワークを使用し、アクティブなクラスター FM/IP である bond0 のみが存在し ます。 bond0:0 は管理 IP/VIF であり、使用できません。 bond0 をベースとして使用して、 VIF bond0:1 を作成することにします。 [OK] をクリックすると、ユーザー VIF が作成されま す。 クラスターの高可用性の構成 45 新しいアクティブなユーザー NIC が [NIC HA Setup] ダイアログボックスに表示されます。 次に、VIF の NIC 監視を有効にします。 新しいユーザー NIC を選択し、[NIC HA] をクリック します。 [NIC HA Config] ダイアログボックスで、[Enable NIC Monitoring] のチェックをオン にします。 46 フェイルオーバーの構成 [Standby NIC] フィールドで [New Standby NIC] を選択して、バックアップサーバー ib69s2 の スタンバイを作成します。 利用可能で有効なものをスタンバイとして指定する必要がありま す。 わかりやすくするために、bond0:1 を [Name] として指定しましたが、これは、サーバー ib69s1 の NIC に割り当てた名前と一致しています。 [OK] をクリックすると、NIC HA 構成が 完了します。 必要があれば、ユーザー VIF をさらに作成し、スタンバイ NIC を割り当てることができます。 たとえば、ユーザー VIF をサーバー ib69s2 の別のシェアに追加し、サーバー ib69s1 のスタン バイ NIC を割り当てる場合が考えられます。 eth4 などの物理インターフェイスを指定し、 それに対応するバックアップサーバーにスタンバイ NIC を作成することもできます。 GUI の [NICs] パネルには、選択したサーバーの NIC が表示されます。 次の例では、サーバー ib69s1 に 4 つの NIC、すなわち、 bond0 というアクティブなクラスター FM/IP、bond0:0 という管理 IP/VIF (このサーバーはアクティブ FM をホストしています)、bond0:1 というこの クラスターの高可用性の構成 47 例で作成された NIC、および bond0:2 というサーバー ib69s2 上のアクティブ NIC に対する スタンバイ NIC が存在します。 ib69s2 というバックアップサーバーの [NICs] パネルには、bond0:1 が非アクティブのスタン バイ NIC で、bond0:2 がアクティブの NIC であることが示されています。 HA 構成の変更 NIC の構成を変更するには、[Servers] パネルでサーバーを選択し、下のナビゲーターから [NICs] を選択します。 [NICs] パネルで、[Modify] をクリックします。 [Modify NIC Properties] ダイア ログボックスの [General] タブで、IP アドレスや NIC のそれ以外のプロパティを変更できま す。 [NIC HA] タブでは、HA 監視や NIC のフェイルオーバーを有効または無効にしたり、ス タンバイ NIC を変更または削除したりできます。クラスターでサポートしていれば、リンク 状態監視も有効にできます。 「リンク状態監視のサポート」 (40 ページ) を参照してくださ い。 サーバーの電源を表示するには、[Servers] パネルでサーバーを選択し、下のナビゲーターから [Power] を選択します。 [Power Source] パネルには、HA の構成時にサーバーに構成された電 源が表示されます。 サーバーの電源の追加や削除、サーバーの電源のオンまたはオフ、サー バーのリセットが可能です。 48 フェイルオーバーの構成 自動フェイルオーバーの手動での構成 自動フェイルオーバーを手動で構成するには、次の手順を実行します。 1. ファイルサービングノードをバックアップペアとして構成します。 2. バックアップペアのサーバーの電源を指定します。 3. NIC 監視を構成します。 4. 自動フェイルオーバーを有効にします。 1. サーバーバックアップペアの構成 ファイルサービングノードはバックアップペアとして構成します。ペアとなる各サーバーは、 もう一方のサーバーのバックアップとなります。 この手順は通常、クラスターのインストール 時に実行されます。 以下の制限が適用されます。 • ペア内の両方のサーバーで同じファイルシステムがマウントされている必要があり、両方 のサーバーが同じストレージを認識できる必要があります。 • SAN 環境では、セグメントの物理ボリューム (マルチポート RAID アレイなど) へのアクセ スが可能になるように、サーバーとそのバックアップが同じストレージインフラストラク チャを使用する必要があります。 統一されたネットワーク構成を使用しているクラスターでは、bond0:1 インターフェイスに 対するバックアップノードを割り当てます。 たとえば、以下の手順では、node1 は node2 の バックアップ、node2 は node1 のバックアップになります。同様に、node3 は node4 のバッ クアップ、node4 は node3 のバックアップになります。 1. VIF を追加します。 ibrix_nic –a -n bond0:2 –h node1,node2,node3,node4 2. 各 VIF にスタンバイサーバーを設定します。 # ibrix_nic –b –H node1/bond0:1,node2/bond0:2 ibrix_nic –b –H node2/bond0:1,node1/bond0:2 ibrix_nic –b –H node3/bond0:1,node4/bond0:2 ibrix_nic –b –H node4/bond0:1,node3/bond0:2 nl nl nl 2. 電源の指定 自動フェイルオーバーを実装するか、強制手動フェイルオーバーを実行するか、またはファイ ルサービングノードの電源のオン/オフをリモートで切り替える場合は、ノードおよびバック アップに対してプログラマブル電源を設定する必要があります。 プログラマブル電源を使用す ると、自動フェイルオーバーの場合は障害が発生したサーバーの電源を Fusion Manager から 一元的に切断でき、強制手動フェイルオーバーの場合は手動で電源を切断できるため、障害が 発生したファイルサービングノードとバックアップの間で、いわゆる「スプリットブレイン」 (クラスターの分離) が発生するのを防止できます。 IBRIX ソフトウェアは、iLO、IPMI、OpenIPMI、OpenIPMI2 の各種統合電源に対応しています。 クラスターの高可用性の構成 49 次のタイプの統合電源を設定する場合は、準備のための設定が必要となります。 • 自動フェイルオーバーの場合は、Fusion Manager から電源への LAN アクセスが可能であ ることを確認します。 • ベンダーのドキュメントで指定されているとおりに、環境および必要なドライバーとユー ティリティをインストールします。 電源へのアクセスを保護する場合は、使用する UID とパスワードを設定しておきます。 次のコマンドを使用して、電源を指定します。 ibrix_powersrc -a -t {ipmi|openipmi|openipmi2|ilo} -h HOSTNAME -I IPADDR -u USERNAME -p PASSWORD たとえば、ノード ss01 に対して、IP アドレス 192.168.3.170 の iLO 電源を登録するには、 次のように入力します。 ibrix_powersrc -a -t ilo -h ss01 -I 192.168.3.170 -u Administrator -p password 3. NIC 監視の設定 NFS、SMB、FTP、または HTTP によって使用されるユーザー VIF 上で、NIC 監視を構成する必 要があります。 重要: NIC 監視の構成時には、バックアップサーバーの構成時に使用したのと同じバックアッ プペアを使用します。 バックアップペア内のサーバーを、お互いの NIC モニターとして指定します。 双方向に監視 を宣言する必要があるため、ペア内のサーバーごとにコマンドを入力します。 ibrix_nic -m -h MONHOST -A DESTHOST/IFNAME 次の例では、bond0:1 による NIC の監視をセットアップします。 ibric_nic ibric_nic ibric_nic ibric_nic nl nl nl –m –m –m –m -h -h -h -h node1 node2 node3 node4 -A -A -A -A node2/bond0:1 node1/bond0:1 node4/bond0:1 node3/bond0:1 nl 次の例では、サーバー s2.hp.com がサーバー s1.hp.com をユーザーネットワークインターフェ イス eth1 経由で監視するようセットアップします。 ibrix_nic -m -h s2.hp.com -A s1.hp.com/eth1 4. 自動フェイルオーバーの有効化 自動フェイルオーバーは、デフォルトではオフになっています。 自動フェイルオーバーをオン にすると、Fusion Manager がファイルサービングノードからのハートビートメッセージを監視 し始めます。 自動フェイルオーバーのオン/オフは、すべてのファイルサービングノードか、 または選択したノードに対して切り替えることができます。 自動フェイルオーバーをオンにします。 ibrix_server -m [-h SERVERNAME] HA 構成の手動での変更 電源を更新する 電源の IP アドレスまたはパスワードを変更した場合は、その変更に合わせて構成情報データ ベースを更新する必要があります。 ユーザー名とパスワードのオプションは、リモートで管理 される電源の場合のみ必要です。 Fusion Manager が BMC をスキップするように、-s オプ ションを追加します。 ibrix_powersrc -m [-I IPADDR] [-u USERNAME] [-p PASSWORD] [-s] -h POWERSRCLIST 次のコマンドでは、電源 ps1 の IP アドレスを変更します。 50 フェイルオーバーの構成 ibrix_powersrc -m -I 192.168.3.153 -h ps1 電源からサーバーとの関連付けを解除する ファイルサービングノードと電源の関連付けを解除するには、電源上のスロット 1 (デフォル トで関連付けられるスロット) から関連付けを解除します。 次のコマンドを使用します。 ibrix_hostpower -d -s POWERSOURCE -h HOSTNAME 電源を削除する ストレージ容量を節約するには、使用されなくなった電源を削除します。 複数の電源を削除す る場合はカンマで区切ります。 ibrix_powersrc -d -h POWERSRCLIST NIC 監視を削除する NIC 監視を削除するには、次のコマンドを使用します。 ibrix_nic -m -h MONHOST -D DESTHOST/IFNAME NIC スタンバイを削除する NIC のスタンバイを削除するには、次のコマンドを使用します。 ibrix_nic -b -U HOSTNAME1/IFNAME1 たとえば、ファイルサービングノード s1.hp.com 上のインターフェイス eth2 に割り当てられ ているスタンバイを削除するには、次のように入力します。 ibrix_nic -b -U s1.hp.com/eth2 自動フェイルオーバーをオフにする ibrix_server -m -U [-h SERVERNAME] 単一のファイルサービングノードを指定するには、-h SERVERNAME オプションを含めます。 サーバーの手動フェイルオーバー フェイルオーバーするサーバーは、バックアップペアに所属している必要があります。 この手 順は、サーバーの電源を切断してから実行することも、またサーバーを稼働させたまま実行す ることもできます。 手動フェイルオーバーは、自動フェイルオーバーが有効かどうかに関係な く、任意のタイミングで実行できます。 手動フェイルオーバーの場合は、プログラマブル電源 を使用する必要はありません。 ただし、サーバーに電源が指定されている場合は、フェイル オーバーの前に電源を停止できます。 GUI または CLI を使用して、ファイルサービングノードのフェイルオーバーを行います。 • GUI では、[Servers] パネルでノードを選択し、[Summary] パネルの [Failover] をクリック します。 • CLI では、ibrix_server -f を実行し、HOSTNAME としてフェイルオーバーするノード を指定します。 必要な場合は、-p オプションを追加して、セグメントを移行する前にノー ドの電源を切断します。 ibrix_server -f [-p] -h HOSTNAME [Summary] パネルをチェックするか、次のコマンドを実行して、フェイルオーバーが成功した かどうかを確認します。 ibrix_server -l STATE フィールドの内容は、フェイルオーバーのステータスを示します。 このフィールドに表 示されるステータスが Down-InFailover または Up-InFailover から変化しない場合は、 フェイルオーバーが完了していません。その場合は、HP サポートにお問い合わせください。 STATE フィールドに表示される値の詳細については、「フェイルオーバー中に発生するイベン ト」 (43 ページ) を参照してください。 クラスターの高可用性の構成 51 サーバーのフェイルバック サーバーの自動または手動フェイルオーバーが行われた後、フェイルオーバーされたセグメン トおよびネットワークインターフェイスのオーナーシップをプライマリサーバーに復元するに は、サーバーを手動でフェイルバックする必要があります。 サーバーをフェイルバックする前 に、そのサーバーのすべてのストレージリソースおよびネットワークを認識できることを確認 します。 サーバーがストレージを認識できない場合は、サーバーが所有しているセグメントに アクセスできません。 GUI からノードをフェイルバックするには、[Servers] パネルでノードを選択し、[Summary] パ ネルの [Failback] をクリックします。 CLI では、次のコマンド (HOSTNAME はフェイルオーバーするノード) を実行します。 ibrix_server -f -U -h HOSTNAME ノードをフェイルバックした後に、[Summary] パネルをチェックするか ibrix_server -l コマンドを実行して、フェイルバックが完全に完了したかどうかを確認します。 フェイルバッ クが完了していない場合は、HP サポートにお問い合わせください。 注記: フェイルオーバーを行ってからフェイルバックを行うまでの時間が短すぎて、プライ マリサーバーが完全に復旧されていない場合は、フェイルバックが失敗する可能性がありま す。 両方のサーバーが稼働していることを確認し、60 秒間待機してからフェイルバックを開 始することをお勧めします。 プライマリサーバーが稼働しているかどうかを確認するには、 ibrix_server -l コマンドを使用します。 フェイルバックを実行する前のステータスは、 Up-FailedOver でなくてはなりません。 HBA 監視の設定 高可用性機能は、HBA の障害検出時に自動フェイルオーバーを開始するように設定できます。 HBA 監視は、スタンバイ切り替え機能が搭載されたデュアルポート HBA と、シングルポート HBA のどちらに対しても設定可能です。スタンドアロン構成のほか、ソフトウェアを介したス タンバイ切り替え用のペア構成にも対応しています。 IBRIX ソフトウェアは、HBA のハード ウェアに組み込まれている、またはソフトウェアで実装されている HBA フェイルオーバーに は関与しません。そのようなフェイルオーバーの場合は、Fusion Manager が一切関与すること なく、まだ機能しているポートにトラフィックが移されます。 HBA では、一部のパラメーター値に Worldwide 名を使用します。 これらは、Worldwide ノー ド名 (WWNN) か Worldwide ポート名 (WWPN) のいずれかです。 WWPN は、HBA が SAN ファブリックにログインするときに提示する名前です。 Worldwide 名は 16 桁で構成され、2 桁ずつペアになっています。 IBRIX ソフトウェアでは、Worldwide 名を 21.00.00.e0.8b.05.05.04 のようにドットで区切られたペアとして記述します。 HBA 監視を設定するには、HBA を最初に検出してから、ご使用の HBA ハードウェアに応じて 次のいずれかの手順を実施します。 52 • スタンバイ切り替え機能が搭載されていないシングルポート HBA の場合: 障害の監視対象 となるすべてのポートに対して HBA 監視をオンにします。 • スタンバイ切り替え機能が搭載されているデュアルポート HBA か、またはソフトウェア 操作でスタンバイペアとして設定されているシングルポート HBA の場合: ポートのスタン バイペアを構成情報データベースに登録し、ペアになっているすべてのポートに対して HBA 監視をオンにします。 スタンバイペアのうち 1 つのポートに対してのみ監視をオン にした場合は、そのポートに障害が発生すると、HBA がトラフィックをまだ機能している ポートに自動的に切り替えたとしても、Fusion Manager がサーバーをフェイルオーバーす ることになります。 両方のポートに対して監視をオンにした場合は、ペアに含まれている 両方のポートに障害が発生したときにのみ Fusion Manager がフェイルオーバーを開始し ます。 フェイルオーバーの構成 HBA 監視とファイルサービングノードの自動フェイルオーバーの両方が設定されている場合、 Fusion Manager は次の 2 通りの状況下でフェイルオーバーを行います。 • 監視対象のスタンバイペアに含まれる両方のポートに障害が発生した場合: すべてのスタ ンバイペアを構成情報データベースに登録したので、Fusion Manager は両方のポートに障 害が発生したときにのみフェイルオーバーが必要と判断します。 • 監視対象のシングルポート HBA に障害が発生した場合: 障害が発生したポートのスタンバ イが指定されていないため、Fusion Manager は即時にフェイルオーバーを開始します。 HBA の検出 HBA 監視を設定する前に、HBA を検出する必要があります。また、HBA を交換したときや、 クラスターに新しい HBA を追加したときにも、HBA の検出が必要になります。 検出によっ て、ポートの WWPN が構成情報データベースに追加されます。 ibrix_hba -a [-h HOSTLIST] スタンバイペアの HBA ポートの追加 スタンバイペアの HBA ポートを構成情報データベースに登録すると、それらに障害が発生し たときに Fusion Manager が次のロジックを適用できるようになります。 • 1 つのポートだけに障害が発生した場合は、何も行いません。 HBA のハードウェア設定 またはソフトウェア設定に従って、まだ機能しているポートにトラフィックが自動的に切 り替えられます。 • ペアに含まれている両方のポートに障害が発生した場合は、サーバーのセグメントをスタ ンバイサーバーにフェイルオーバーします。 2 つの HBA ポートをスタンバイペアとして指定するには、次のコマンドを使用します。 bin/ibrix_hba -b -P WWPN1:WWPN2 -h HOSTNAME WWPN は、2 桁ずつドットで区切られた 16 進数値として入力します。 次のコマンドでは、 ファイルサービングノード s1.hp.com 上の HBA のポート 42.00.12.34.56.78.9a.bc に対し、 ポート 20.00.12.34.56.78.9a.bc をスタンバイとして指定します。 ibrix_hba -b -P 20.00.12.34.56.78.9a.bc:42.00.12.34.56.78.9a.bc -h s1.hp.com HBA 監視のオン/オフ クラスターでシングルポート HBA を使用している場合は、すべてのポートに対して監視をオ ンにすることにより、HBA 障害発生時の自動フェイルオーバーを設定します。 次のコマンド を使用します。 ibrix_hba -m -h HOSTNAME -p PORT たとえば、ノード s1.hp.com 上のポート 20.00.12.34.56.78.9a.bc に対して HBA 監視をオン にするには、次のように入力します。 ibrix_hba -m -h s1.hp.com -p 20.00.12.34.56.78.9a.bc 1 つの HBA ポートに対して HBA 監視をオフにするには、-U オプションを含めます。 ibrix_hba -m -U -h HOSTNAME -p PORT スタンバイポートのペアの削除 構成情報データベースからポートペアの情報を削除しても、スタンバイペアがポートから削除 されるわけではありません。 スタンバイペアは、HBA のハードウェアに組み込まれているか、 またはソフトウェアによって実装されています。 スタンバイペアの HBA ポートを構成情報データベースから削除するには、次のコマンドを入 力します。 ibrix_hba -b -U -P WWPN1:WWPN2 -h HOSTNAME たとえば、ノード s1.hp.com 上のポートペア 20.00.12.34.56.78.9a.bc および 42.00.12.34.56.78.9a.bc を削除するには、次のように入力します。 クラスターの高可用性の構成 53 ibrix_hba -b -U -P 20.00.12.34.56.78.9a.bc:42.00.12.34.56.78.9a.bc -h s1.hp.com 構成情報データベースからの HBA の削除 HBA を異なるマシンに切り替える場合は、事前に構成情報データベースから HBA を削除して おきます。 ibrix_hba -d -h HOSTNAME -w WWNN HBA 情報の表示 クラスター内の HBA に関する情報を表示するには、次のコマンドを使用します。 すべてのホ ストに関する情報を表示するには、 -h HOSTLIST 引数を省略します。 ibrix_hba -l [-h HOSTLIST] 次のようなフィールドが出力されます。 フィールド 説明 Host HBA がインストールされているサーバー。 Node WWN この HBA の WWNN。 Port WWN この HBA の WWPN。 Port State ポートの稼働状態。 Backup Port WWN このポートのスタンバイポートの WWPN (スタンバイペア HBA の場合のみ)。 Monitoring このポートに対して HBA 監視が有効化されているかどうか。 高可用性機能の設定のチェック 高可用性機能が特定のファイルサービングノードに対して設定されているかどうかを判別する には、ibrix_haconfig コマンドを使用します。 このコマンドでは、次の機能が設定されて いるかどうかをチェックし、結果の概要レポートまたは詳細情報レポートを出力します。 • プログラマブル電源 • スタンバイサーバーまたはスタンバイセグメント • クラスターおよびユーザーネットワークインターフェイスモニター • 各ユーザーネットワークインターフェイスのスタンバイネットワークインターフェイス • HBA ポート監視 • 自動フェイルオーバーのステータス (オン/オフ) 概要レポートでは、各高可用性機能のステータスをテスト対象のファイルサービングノードお よび (オプションとして) スタンバイごとに返します。 • Passed: 機能が設定されていることを意味します。 • Warning: 機能が設定されていないことを意味します。ただし、明確な結果が得られたわ けではありません。 たとえば、HBA を検出できなかった場合、HBA 監視機能が設定され ていないか、またはテスト対象のサーバー上に HBA が物理的に存在していないことを意 味しますが、そのどちらであるかは不明確です。 • Failed: 機能が設定されていないことを意味します。 詳細レポートには、すべてのテスト対象ファイルサービングノードに関する全体的な結果ス テータスが示され、各高可用性機能に対して実行したチェックの詳細が記述されます。 デフォ ルトでは、結果が Failed または Warned になったチェックに関する詳細情報だけがレポート に示されます。 レポートを拡張して、結果が Passed になったチェックに関する詳細情報も報 告させることができます。 54 フェイルオーバーの構成 概要レポートの表示 すべてのファイルサービングノードの概要を表示するには、ibrix_haconfig -l コマンド を使用します。 特定のファイルサービングノードをチェックするには、-h HOSTLIST 引数を 含めます。 スタンバイをチェックするには、-b 引数を含めます。 チェックで不合格となった ファイルサービングノードの結果だけを表示するには、-f 引数を含めます。 ibrix_haconfig -l [-h HOSTLIST] [-f] [-b] たとえば、ファイルサービングノード xs01.hp.com および xs02.hp.com の概要レポートを表 示するには、次のように入力します。 ibrix_haconfig -l -h xs01.hp.com,xs02.hp.com Host HA Configuration Power Sources Backup Servers Auto Failover Nics Monitored Standby Nics HBAs Monitored xs01.hp.com FAILED PASSED PASSED PASSED FAILED PASSED FAILED xs02.hp.com FAILED PASSED FAILED FAILED FAILED WARNED WARNED 詳細情報レポートの表示 詳細情報レポートを表示するには、ibrix_haconfig -i コマンドを使用します。 ibrix_haconfig -i [-h HOSTLIST] [-f] [-b] [-s] [-v] -h HOSTLIST オプションには、チェック対象のノードのリストを指定します。 スタンバイも チェックするには、-b オプションを含めます。 チェックで不合格となったファイルサービン グノードの結果だけを表示するには、-f 引数を含めます。 ファイルシステムとそれらのセグ メントに関する情報をレポートに含めるには、-s オプションを指定します。 結果が Passed になった構成チェックに関する詳細情報を表示するには、-v オプションを含めます。 たとえば、ファイルサービングノード xs01.hp.com の詳細情報レポートを表示するには、次の ように入力します。 ibrix_haconfig -i -h xs01.hp.com --------------- Overall HA Configuration Checker Results --------------FAILED --------------- Overall Host Results --------------Host HA Configuration Power Sources Backup Servers Auto Failover Nics Monitored Standby Nics HBAs Monitored xs01.hp.com FAILED PASSED PASSED PASSED FAILED PASSED FAILED --------------- Server xs01.hp.com FAILED Report --------------Check Description ================================================ Power source(s) configured Backup server or backups for segments configured Automatic server failover configured Result ====== PASSED PASSED PASSED Cluster & User Nics monitored Cluster nic xs01.hp.com/eth1 monitored FAILED User nics configured with a standby nic PASSED HBA ports monitored Hba port 21.01.00.e0.8b.2a.0d.6d monitored Hba port 21.00.00.e0.8b.0a.0d.6d monitored FAILED FAILED Result Information ================== Not monitored Not monitored Not monitored 障害の発生したノードからのコアダンプの取得 クラッシュキャプチャ機能は、Fusion Manager によるノードのフェイルオーバーの開始時に、 障害の発生したノードからコアダンプを収集します。 このコアダンプを、ノード障害の原因の 分析に使用できます。 機能が有効な場合、クラッシュキャプチャは自動と手動の両方のフェイ ルオーバーに対応します。 フェイルバックは、この機能の影響を受けません。 デフォルトで 障害の発生したノードからのコアダンプの取得 55 は、クラッシュキャプチャは無効です。 このセクションでは、クラッシュキャプチャを有効に するための前提条件と手順を説明します。 注記: クラッシュキャプチャを有効にすると、フェイルオーバーがクラッシュカーネルをロー ドできるようにするために、遅延 (最大 240 秒) が追加されます。 このフェイルオーバープロ セスにより、続行前にクラッシュカーネルがロードされることが保証されます。 クラッシュキャプチャが有効になっていると、ノード障害時に、システムが次のアクションを 実行します。 1. Fusion Manager が、フェイルオーバー開始時に障害の発生したノードのコアダンプを開始 し、ノードの状態を Up, InFailover へと変更します。 2. 障害の発生したノードは、クラッシュカーネルをブートします。 ノードの状態が Dumping, InFailover へと変更されます。 3. 障害の発生したノードはフェイルオーバーを続行し、状態が Dumping, FailedOver へ と変更されます。 4. コアダンプが作成された後に、障害の発生したノードがリブートし、状態が Up, FailedOver へと変更されます。 クラッシュキャプチャをセットアップするための前提条件 障害状態のファイルサーバーノードでクラッシュを自動的にキャプチャするためには、 ROM-Based Setup Utility (RBSU) で、以下のパラメーターを設定する必要があります。 1. RBSU の開始 – サーバーをリブートしてから、F9 キーを押します。 2. メインメニューの [System Options] オプションを選択し、Enter キーを押します。 [Virtual Serial Port] オプションを強調表示し (下図参照)、Enter キーを押します。 COM1 ポートを 強調表示し、Enter キーを押します。 3. 4. 56 メインメニューの [BIOS Serial Console & EMS] オプションを強調表示し、Enter キーを押 します。 メインメニューの [BIOS Serial Console Port] オプションを強調表示し、Enter キー を押します。 COM1 ポートを強調表示し、Enter キーを押します。 メインメニューの BIOS Serial Console Baud Rate オプションを強調表示し、Enter キーを押 します。 115200 Serial Baud Rate を選択します。 フェイルオーバーの構成 5. 6. メインメニューの [Server Availability] オプションを強調表示し、Enter キーを押します。 [ASR Timeout] オプションを強調表示し、Enter キーを押します。 30 Minutes を選択し、 Enter キーを押します。 RBSU を終了するには、メインメニューが表示されるまで Esc を押します。 次に、メイン メニューで F10 を押します。 サーバーが自動的に再起動します。 ノードのクラッシュキャプチャのセットアップ 重要: このセクションの手順を開始する前に、「クラッシュキャプチャをセットアップする ための前提条件」 (56 ページ) の手順を実行します。 ノードのクラッシュキャプチャをセットアップするには、次の手順を実行します。 1. クラッシュキャプチャを有効にするために、 次のコマンドを実行します。 ibrix_host_tune –S { -h HOSTLIST | -g GROUPLIST } -o trigger_crash_on_failover=1 2. Fusion Manager を調整して DUMPING ステータスタイムアウトを設定するために、次の コマンドを入力します。 ibrix_fm_tune -S -o dumpingStatusTimeout=240 このコマンドは、クラッシュカーネルがロードされるまでフェイルオーバーを遅延するの に必要です。このコマンドを実行しないと、Fusion Manager によって障害の発生したノー ドが停止されます。 障害の発生したノードからのコアダンプの取得 57 5 クラスターイベント通知の構成 クラスターイベント クラスターイベントは次の 3 つのカテゴリに分類されます。 アラート: ファイルシステムデータへのアクセスが失われる可能性のある中断イベント。 警告: ファイルシステムへのアクセスは失われないものの、中断を招く可能性のある状態。この状態に 対処しないでいると、アラート条件にまで悪化する可能性があります。 情報: クラスターに対する変更に伴って通常生じるイベント。 次の表は、各カテゴリに分類されるイベントの例を示しています。 イベントタイプ トリガーポイント ALERT 名前 ユーザーが GUI へのログインに失敗した。 login.failure ファイルシステムがアンマウントされている。 filesystem.unmounted ファイルサービングノードがダウンまたは再起動し ている。 server.status.down ファイルサービングノードが予期せず終了した。 server.unreachable WARN ユーザーが GUI を使用してセグメントを移行した。 segment.migrated INFO ユーザーが正常に GUI にログインした。 login.success ファイルシステムが作成された。 filesystem.cmd ファイルサービングノードが削除された。 server.deregistered GUI を使用して NIC が追加された。 nic.added GUI を使用して NIC が削除された。 nic.removed 管理コンソールを使用して物理ストレージが検出お よび追加された。 physicalvolume.added 管理コンソールを使用して物理ストレージが削除さ れた。 physicalvolume.deleted クラスターイベントは、電子メールまたは SNMP トラップによって通知することができます。 サポートされているイベントのリストを表示するには、ibrix_event –q コマンドを使用し ます。 クラスターイベントの電子メール通知の設定 イベント通知は、イベントタイプ別に設定するか、1 つ以上の特定のイベントについて設定す ることができます。 クラスターイベントの自動電子メール通知を設定するには、イベントを電 子メール受信者と関連付けた後、電子メール設定を構成して通知プロセスを開始します。 イベントと電子メールアドレスの関連付け すべての Alert (アラート) イベント、すべての Warning (警告) イベント、またはすべての Info (情報) イベントを電子メールアドレスに関連付けることができるほか、特定のタイプのすべて 58 クラスターイベント通知の構成 のイベントと別のタイプのサブセットの組み合わせや、すべてのタイプのサブセットなど、任 意の組み合わせのクラスターイベントを電子メールアドレスに関連付けることができます。 Alert イベントの通知しきい値は、容量の 90% です。 しきい値でトリガーされる通知は、監視 対象のシステムリソースがしきい値を超過すると送信され、リソース使用率がしきい値を 10% 下回るとリセットされます。 たとえば、使用率が最初に 90% 以上に達すると、通知が送信さ れます。 次の通知が送信されるのは、使用率が 80% 以下に低下した場合 (イベントのリセッ ト) か、その後、使用率が 90% 以上に上昇した場合だけです。 すべてのタイプのイベントを受信者に関連付けるには、-e 引数を省略して、次のコマンドを 実行します。 ibrix_event -c [-e ALERT|WARN|INFO|EVENTLIST] -m EMAILLIST 特定のタイプを関連付けるには ALERT、WARN、INFO の各キーワードを使用し、特定のイベ ントを関連付けるには <replaceable>EVENTLIST</replaceable> を使用します。 次のコマンドでは、すべてのタイプのイベントを [email protected] に関連付けます。 ibrix_event -c -m [email protected] 次のコマンドでは、すべての ALERT イベントと 2 種の INFO イベントを [email protected] に関 連付けます。 ibrix_event -c -e ALERT,server.registered,filesystem.space.full -m [email protected] 電子メール通知設定の構成 電子メール通知設定を構成するには、SMTP サーバーおよびヘッダー情報を指定し、通知プロ セスのオン/オフを切り替えます。 ibrix_event -m on|off -s SMTP -f from [-r reply-to] [-t subject] サーバーは電子メールの送受信が可能で、From アドレスおよび Reply-to アドレスを認識でき るように設定されている必要があります。 必ず有効な電子メールアドレスを指定してくださ い。SMTP サーバーのアドレスには特に注意してください。 アドレスが有効でないと、SMTP サーバーが電子メールを受け付けません。 次のコマンドでは、mail.hp.com SMTP サーバーが使用され、通知がオンになるように電子メー ル設定を構成します。 ibrix_event -m on -s mail.hp.com -f [email protected] -r [email protected] -t Cluster1 Notification 注記: GUI には、電子メール通知プロセスの状態に関係なく、クラスターイベントが表示さ れます。 イベントと電子メールアドレスの関連付けの解除 イベントと電子メールアドレスの関連付けを解除するには、次のコマンドを使用します。 ibrix_event -d [-e ALERT|WARN|INFO|EVENTLIST] -m EMAILLIST たとえば、[email protected] に対するイベント通知の関連付けを解除するには、次のように入力 します。 ibrix_event -d -m [email protected] [email protected] に対する Alert 通知をすべてオフにするには、次のように入力します。 ibrix_event -d -e ALERT -m [email protected] [email protected] および [email protected] に対して server.registered 通知および filesystem.created 通知をオフにするには、次のように入力します。 ibrix_event -d -e server.registered,filesystem.created -m [email protected],[email protected] 電子メールアドレスのテスト テストメッセージを使用して電子メールアドレスをテストするには、通知をオンにする必要が あります。 アドレスが有効であれば、成功を示すメッセージがコマンドによって表示され、設 クラスターイベントの電子メール通知の設定 59 定を含む電子メールが受信者へ送信されます。 アドレスが有効でない場合、コマンドは address failed 例外を返します。 ibrix_event -u -n EMAILADDRESS 電子メール通知設定の表示 ibrix_event -L コマンドを使用すると、電子メール設定および構成済みの通知に関する包 括的な情報を表示できます。 ibrix_event -L Email Notification SMTP Server From Reply To : : : : Enabled mail.hp.com [email protected] [email protected] EVENT ------------------------------------asyncrep.completed asyncrep.failed LEVEL ----ALERT ALERT TYPE ----EMAIL EMAIL DESTINATION [email protected] [email protected] SNMP 通知の設定 9000 ソフトウェアは、SNMP (Simple Network Management Protocol) v1、v2、および v3 をサ ポートしています。 コミュニティパスワードストリングの使用によって SNMPV2 セキュリティが強制されていま したが、V3 では、USM および VACM が導入されました。 本書では、これらのモデルの詳細 について触れません。 詳細については、RFC 3414 および 3415 (http://www.ietf.org ) を参照 してください。 次のことに留意してください。 • SNMPV3 環境では、すべてのメッセージにユーザー名が含まれます。 USM は、ユーザー を認証し、メッセージの暗号化と復号化を通じてメッセージのプライバシーを保護する役 割を担います。 認証、プライバシー、およびパスワードはオプションです。セキュリティ に関する懸念があまりない場合は、デフォルト設定が使用されます。 • ユーザーの妥当性が確認されると、それらのユーザーに対して、どのオブジェクトへのア クセスを許可するかを VACM が決定します。 VACM には、管理対象オブジェクトへの ユーザーアクセスを制御するアクセススキーム、アクセス可能なオブジェクトを定義する ためのコンテキストマッチング、MIB ビューの各機能があります。MIB ビューは、IOD サ ブツリーおよび関連付けられたビットマスクエントリー (特定のユーザーがアクセスでき る MIB 内のオブジェクトを定義するエントリー) のサブセットによって定義されます。 SNMP の設定手順は次のとおりです。 • エージェントの設定 (すべての SNMP バージョン) • trapsink の設定 (すべての SNMP バージョン) • trapsink とイベント通知の関連付け (すべての SNMP バージョン) • 定義の表示 (V3 のみ) • グループおよびユーザーの設定 (V3 のみ) IBRIX ソフトウェアでは、プライベート IBRIX ソフトウェア MIB をサポートする SNMP エー ジェントが実装されています。 このエージェントはポーリングが可能で、設定済みの trapsink に SNMP トラップを送信する機能を持ちます。 SNMP 通知は、電子メール通知と同様の手順で設定できます。 イベント発生時にエージェン トがトラップを送信できるようにするために、イベントを trapsink に関連付けて、trapsink ご とに SNMP 設定を構成する必要があります。 60 クラスターイベント通知の構成 注記: Phone Home が有効になっている場合、ibrix_snmpagent を使用して IBRIX SNMP エージェントの設定を編集または変更することはできません。 ただし、ibrix_snmtrap に よって trapsink IP を追加したり、ibrix_event によって trapsink IP とイベントを関連付けた りすることはできます。 SNMP エージェントの設定 SNMP エージェントは、Fusion Manager のインストール時に自動的に作成されます。 このエー ジェントは初期状態で SNMPv2 エージェントとして設定されますが、デフォルトではオフに なっています。 一部の SNMP パラメーターおよびデフォルトの SNMP ポートは、どのバージョンの SNMP で も同じです。 デフォルトのエージェントポートは 161 です。SYSCONTACT、SYSNAME、およ び SYSLOCATION は、MIB-II エージェントのオプションパラメーターです。これらのパラメー ターにはデフォルト値がありません。 注記: IBRIX 6.1 リリースでは、デフォルトの SNMP エージェントポートが 5061 から 161 に変更されました。 このポート番号を変更することはできません。 -c オプションおよび -s オプションは、すべてのバージョンの SNMP に共通です。 -c オプ ションは、コミュニティ名とパスワードのオン/オフを切り替えます。 暗号化はデフォルトで はオフになっています。 -s オプションは、エージェントのオン/オフを切り替えます。この オプションでエージェントをオンにするときは、SNMP ポート上でリスナーが起動されます。 オフにするときは、リスナーが停止されます。 デフォルトの設定はオフです。 v1 および v2 の更新コマンドの形式は次のとおりです。 ibrix_snmpagent -u –v {1|2} [-p PORT] [-r READCOMMUNITY] [-w WRITECOMMUNITY] [-t SYSCONTACT] [-n SYSNAME] [-o SYSLOCATION] [-c {yes|no}] [-s {on|off}] SNMPv1 および v2 の更新コマンドは、オプションのコミュニティ名をとります。 読み取り 専用アクセスに使用され、エージェントに割り当てられるデフォルトの <replaceable>READCOMMUNITY</replaceable> 名は、慣習上、public となります。 読み 取り/書き込みアクセスの場合、デフォルトの <replaceable>WRITECOMMUNITY</replaceable> 名は設定されません (private という名前がよく使われます)。 次のコマンドでは、v2 エージェントを更新して、書き込みコミュニティ名 private、エー ジェントのシステム名、およびそのシステムの物理位置を反映させます。 ibrix_snmpagent -u –v 2 -w private -n agenthost.domain.com -o DevLab-B3-U6 SNMPv3 のコマンド形式には、エージェントのホスト名のデフォルト値を別のエンジン ID で オーバーライドする engine id オプションが追加されています。 さらに、v3 エージェント が管理ステーションからの v1/v2 の読み取り/書き込み要求を処理できるようにするかどうか を指定する -y オプションおよび -z オプションも追加されています。 形式は次のとおりで す。 ibrix_snmpagent -u –v 3 [-e engineId] [-p PORT] [-r READCOMMUNITY] [-w WRITECOMMUNITY] [-t SYSCONTACT] [-n SYSNAME] [-o SYSLOCATION] [-y {yes|no}] [-z {yes|no}] [-c {yes|no}] [-s {on|off}] trapsink 設定の構成 エージェントは、トラップと呼ばれる非同期通知を管理ステーションに送信します。trapsink とは、エージェントがこれらのトラップを送信するターゲットホストです。 trapsink は、名前 または IP アドレスで指定されます。 IBRIX ソフトウェアでは複数の trapsink をサポートしてい るため、どのバージョンの SNMP についても任意の数の trapsink を定義できますが、バージョ ンに関係なく 1 つのホストに対して定義できる trapsink は 1 つだけです。 SNMP 通知の設定 61 trapsink を設定するには、ターゲットホストと SNMP バージョンの指定が最低限必要です。 その他のすべてのパラメーターは省略可能であり、多くのパラメーターには省略時に適用され るデフォルト値があります。 v1/v2 trapsink を作成するためのコマンド形式は次のとおりです。 ibrix_snmptrap -c -h HOSTNAME -v {1|2} [-p PORT] [-m COMMUNITY] [-s {on|off}] ポートを指定しない場合は、デフォルトのポートとしてポート 162 が使用されます。コミュ ニティを指定しない場合は、デフォルトのコミュニティ名として public が使用されます。 -s オプションでは、エージェントによるトラップ送信のオン/オフを切り替えます。 デフォ ルトはオンです。 たとえば、v2 trapsink を新しいコミュニティ名で作成するには、次のよう に入力します。 ibrix_snmptrap -c -h lab13-116 -v 2 -m private v3 trapsink の場合は、追加のオプションでセキュリティ設定を定義します。 USERNAME には、 trapsink ホスト上で定義されている v3 ユーザーを指定します。この値は必須です。 トラップ メッセージに関連付けられるセキュリティレベルは、認証パスワードが指定されているのか、 認証パスワードとプライバシーパスワードの両方が指定されているのか、それともパスワード が指定されていないのかによって異なります。 トラップ受信側で管理対象オブジェクトのサブ セットが定義されている場合は、CONTEXT_NAME が必須となります。 形式は次のとおりです。 ibrix_snmptrap -c -h HOSTNAME -v 3 [-p PORT] -n USERNAME [-j {MD5|SHA}] [-k AUTHORIZATION_PASSWORD] [-y {DES|AES}] [-z PRIVACY_PASSWORD] [-x CONTEXT_NAME] [-s {on|off}] 次のコマンドでは、ユーザー名を指定して v3 trapsink を作成し、デフォルトアルゴリズムに 適用するパスワードを指定します。 パスワードを指定する場合は、パスワードを少なくとも 8 文字以上の長さにする必要があります。 ibrix_snmptrap -c -h lab13-114 -v 3 -n trapsender -k auth-passwd -z priv-passwd イベントと trapsink の関連付け trapsink へのイベントの関連付けは電子メール受信者へのイベントの関連付けに似ていますが、 電子メールアドレスの代わりに trapsink のホスト名または IP アドレスを指定する必要がありま す。 SNMP イベントを trapsink に関連付けるには、ibrix_event コマンドを使用します。 形式は 次のとおりです。 ibrix_event -c -y SNMP [-e ALERT|INFO|EVENTLIST] -m TRAPSINK たとえば、すべての Alert (アラート) イベントと 2 つの Info (情報) イベントを IP アドレス 192.168.2.32 の trapsink に関連付けるには、次のように入力します。 ibrix_event -c -y SNMP -e ALERT,server.registered, filesystem.created -m 192.168.2.32 イベントと trapsink の関連付けを解除するには、ibrix_event -d コマンドを使用します。 ibrix_event -d -y SNMP [-e ALERT|INFO|EVENTLIST] -m TRAPSINK ビューの定義 MIB ビューは、OID サブツリーと関連するビットマスクを対にしたコレクションです。ビット マスクでは、MIB ビューを定義する上でどのサブ識別子が重要かを指定します。 ビットマスク を使用することにより、個々の OID サブツリーをビューに含めるか、または除外することが できます。 管理対象オブジェクトのインスタンスは、次の場合にビューに所属するとみなされます。 • 62 ビュー内の OID サブツリーと同数以上のサブ識別子がインスタンスの OID に含まれてい る場合。 クラスターイベント通知の構成 • 対応するサブ識別子のビットマスクがゼロ以外のときにインスタンス内の各サブ識別子と サブツリーが一致する場合。 Fusion Manager では、すべての OID へのアクセスをブロックする excludeAll ビューが自 動的に作成されます。 このビューは削除できません。ibrix_snmpgroup コマンドでグルー プに対してビューを指定していない場合は、このビューがデフォルトの読み取り/書き込み ビューとなります。 キャッチオール OID およびマスクは次のとおりです。 OID = .1 Mask = .1 次に例を示します。この例では、インスタンス.1.3.6.1.2.1.1 が一致し、インスタン ス.1.3.6.1.4.1 も一致しますが、インスタンス.1.2.6.1.2.1 は一致しません。 OID = .1.3.6.1.4.1.18997 Mask = .1.1.1.1.1.1.1 OID = .1.3.6.1.2.1 Mask = .1.1.0.1.0.1 OID サブツリー値とマスク値のペアを新規または既存のビューに追加するには、次の形式を使 用します。 ibrix_snmpview -a -v VIEWNAME [-t {include|exclude}] -o OID_SUBTREE [-m MASK_BITS] サブツリーは、指定したビューに追加されます。 たとえば、9000 ソフトウェアのプライベー ト MIB を hp という名前のビューに追加するには、次のように入力します。 ibrix_snmpview -a -v hp -o .1.3.6.1.4.1.18997 -m .1.1.1.1.1.1.1 グループおよびユーザーの設定 グループでは、単一または複数のユーザーを対象として、管理対象オブジェクトのアクセス制 御ポリシーを定義します。 すべてのユーザーがグループに所属している必要があります。 ユー ザーおよびグループの概念があるのは、SNMPv3 の場合だけです。 グループには、セキュリ ティレベルと特定の読み取りビューおよび書き込みビューが割り当てられます。セキュリティ レベルにより認証とプライバシーが適用され、読み取りビューおよび書き込みビューによりグ ループメンバーが読み書きできる管理対象オブジェクトが定義されます。 グループを作成するコマンドでは、SNMPv3 セキュリティレベル、読み取りビューと書き込み ビュー、およびコンテキスト名を割り当てます。 コンテキストとは、SNMP エンティティに よるアクセスが可能な管理対象オブジェクトの集合です。 コンテキストマッチの方法は、関連 するオプション -m で指定します。 形式は次のとおりです。 ibrix_snmpgroup -c -g GROUPNAME [-s {noAuthNoPriv|authNoPriv|authPriv}] [-r READVIEW] [-w WRITEVIEW] たとえば、グループ group2 を作成し、認証が必須で、暗号化なし、hp ビューへのアクセス が読み取りアクセスになるように設定するには、次のように入力します。 ibrix_snmpgroup -c -g group2 -s authNoPriv -r hp ユーザーを作成してグループに追加するコマンドの形式は次のとおりです。 ibrix_snmpuser -c -n USERNAME -g GROUPNAME [-j {MD5|SHA}] [-k AUTHORIZATION_PASSWORD] [-y {DES|AES}] [-z PRIVACY_PASSWORD] 認証およびプライバシーの設定はオプションです。 認証パスワードは、グループのセキュリ ティレベルが authNoPriv または authPriv に設定されている場合に必須となります。 プライバ シーパスワードは、グループのセキュリティレベルが authPriv の場合に必須となります。 省略 すると、MD5 が認証アルゴリズムとして使用され、DES がプライバシーアルゴリズムとして 使用されます。パスワードはなしになります。 たとえば、user3 を作成して group2 に追加し、認証用のパスワードを指定して、暗号化な しに設定するには、次のように入力します。 SNMP 通知の設定 63 ibrix_snmpuser -c -n user3 -g group2 -k auth-passwd -s authNoPriv SNMP 構成の要素の削除 削除操作用の構文はすべての SNMP コマンド間で共通しており、-d フラグに続けて削除対象 のオブジェクトを指定するようになっています。 次のコマンドでは、trapsink になったホスト のリストを削除します。 ibrix_snmptrap -d -h lab15-12.domain.com,lab15-13.domain.com,lab15-14.domain.com SNMP オブジェクトの削除に関しては、次の 2 つの制限があります。 • グループから参照されているオブジェクトは削除できません。 • ユーザーから参照されているグループは削除できません。 SNMP 構成情報の表示 情報を表示する場合の構文はすべての SNMP コマンド間で共通しており、-l フラグを使用し ます。 例を次に示します。 ibrix_snmpgroup -l このコマンドでは、すべての SNMP グループについて定義済みのグループ設定のリストを表 示します。 グループ名をオプションとして指定すると、そのグループについてのみ定義済みの 設定が表示されます。 64 クラスターイベント通知の構成 6 システムバックアップの構成 Fusion Manager 構成のバックアップ Fusion Manager 構成は、クラスター構成が変更されるたびに自動的にバックアップされます。 バックアップは、アクティブな Fusion Manager をホストしているノードで実行されます。 バックアップファイルは、そのノード上の <ibrixhome>/tmp/fmbackup.zip に格納され ます。 新しいバックアップファイルが使用可能になると、アクティブな Fusion Manager がパッシブ な Fusion Manager に通知します。 パッシブな Fusion Manager は、自分がホストされている ノード上の <ibrixhome>/tmp/fmbackup.zip に、そのファイルをコピーします。 Fusion Manager が maintenance モードの場合は、新しいバックアップファイルが作成されたときに も通知され、アクティブな Fusion Manager からこれを取得します。 バックアップファイルはいつでも追加のコピーを作成できます。 次のコマンドを実行すると、 fmbackup.zip ファイルが $IBRIXHOME/log ディレクトリに作成されます。 $IBRIXHOME/bin/db_backup.sh 1 日に一度、cron ジョブによって、$IBRIXHOME/log ディレクトリが $IBRIXHOME/log/ daily サブディレクトリに格納されます。 cron ジョブでは、$IBRIXHOME/tmp と $IBRIXHOME/log の両方に、Fusion Manager 構成の新しいバックアップも作成されます。 バックアップを強制的に実行する必要がある場合は、次のコマンドを使用します。 ibrix_fm -B 重要: サーバーを障害から復旧するときや、不要な構成変更を取り消すときには、バックアッ プファイルが必要となります。 クラスター構成の変更時には必ず、別のクラスターのノードな どの安全で隔離された場所に、fmbackup.zip のコピーを保存するようにしてください。 NDMP バックアップアプリケーションの使用 NDMP バックアップ機能を使用して、IBRIX ソフトウェアのファイルシステム全体またはファ イルシステムの一部を、バックアップしたり復旧したりすることができます。 サポートされて いる任意の NDMP バックアップアプリケーションを使用して、バックアップおよびリカバリ 操作を実行できます (NDMP 用語では、バックアップアプリケーションとはデータ管理アプリ ケーション (DMA) のことを指します)。 DMA は、クラスターとは別の管理ステーションで実 行され、構成可能なソケットポートを経由してクラスターのファイルサービングノードと通信 します。 NDMP バックアップ機能は以下をサポートしています。 • NDMP プロトコル、バージョン 3 および 4 • NDMP の双方向操作 • 2 つのネットワークストレージシステム間の、NDMP の双方向操作 各ファイルサービングノードは NDMP サーバーとして機能し、NDMP サーバーデーモン (ndmpd) プロセスを実行します。 DMA でバックアップまたは復旧操作を開始するときに、操作に使用 するノードとテープデバイスを指定できます。 NDMP 機能を構成して使用するときの注意事項を次に示します。 • NDMP 操作用にシステムを構成する場合は、テープデバイスを SAN に接続して、バック アップ/リストア操作に使用するファイルサービングノードに適切なデバイスが表示され ていることを確認します。 • バックアップ操作の実行時には、ファイルシステムのスナップショットを取得し、そのス ナップショットをバックアップします。 Fusion Manager 構成のバックアップ 65 • ディレクトリツリークォータが有効な場合、ハードクォータ制限を超えると、元の場所へ の NDMP リストアに失敗します。 NDMP リストア操作では、まず一時ファイルが作成さ れ、次にその一時ファイルにファイルがリストアされます。 これが成功したら、既存の ファイル (同じターゲットディレクトリに存在する場合) が一時ファイルによって上書きさ れます。 ディレクトリツリーのハードクォータ制限を超えると、NDMP は一時ファイル を作成できなくなり、リストア操作に失敗します。 クラスターの NDMP パラメーターの設定 クラスター内で DMA と NDMP サーバーとの間の通信を有効にするには、特定の NDMP パラ メーターを設定する必要があります。 GUI でパラメーターを設定するには、ナビゲーターで [Cluster Configuration] を選択し、次に [NDMP Backup] を選択します。 [NDMP Configuration Summary] に、パラメーターのデフォルト値が表示されます。 [Modify] をクリックして、 [Configure NDMP] ダイアログボックスでクラスターのパラメーターを設定します。 各フィー ルドの詳細については、オンラインヘルプを参照してください。 CLI を使用して NDMP パラメーターを設定するには、次のコマンドを使用します。 ibrix_ndmpconfig –c [-d IP1,IP2,IP3,...] [-m MINPORT] [-x MAXPORT] [-n LISTENPORT] [-u USERNAME] [-p PASSWORD] [-e {0=disable,1=enable}] –v [{0=10}] [-w BYTES] [-z NUMSESSIONS] NDMP プロセス管理 通常、すべての NDMP 操作は DMA から制御します。 ただし、DMA で問題を解決できなかっ たり、DMA が NDMP 環境について間違った情報を得ていると疑われる場合は、X9000 ソフ トウェアで特定の操作を実行できます。 66 • ファイルサービングノードで 1 つ以上の NDMP セッションをキャンセルします。 セッ ションをキャンセルすると、すべての生成されたセッションプロセスが停止し、必要に応 じてそのリソースが解放されます。 • 1 つ以上のファイルサービングノードで、NDMP サーバーをリセットします。 このステッ プによってすべての生成されたセッションプロセスが停止し、ndmpd とセッションモニ システムバックアップの構成 ターデーモンが停止して、NDMP によって保管されるすべてのリソースが解放され、デー モンが再起動します。 NDMP セッションの表示またはキャンセル アクティブな NDMP セッションに関する情報を表示するには、ナビゲーターで [Cluster Configuration] を選択し、[NDMP Backup] -> [Active Sessions] の順に選択します。 [Active NDMP Sessions] パネルに、セッションごとに、そのセッションで使用されるホスト、バックアップア プリケーションによって生成される識別子、セッションのステータス (データバックアップ中、 データ復元中、アイドル状態)、開始時間、DMA によって使用される IP アドレスが表示されま す。 セッションをキャンセルするには、セッションを選択して、[Cancel Session] をクリックしま す。 セッションをキャンセルすると、すべての生成されたセッションプロセスが停止し、必要 に応じてそのリソースが解放されます。 完了したセッションについて同様の情報を表示するには、[NDMP Backup] -> [Session History] の順に選択します。 CLI を使用してアクティブなセッションを表示: ibrix_ndmpsession –l 完了したセッションを表示: ibrix_ndmpsession –l -s [-t YYYY-MM-DD] -t オプションは、指定した日付、またはその日付より前に発生したセッションに履歴を制限 します。 特定のファイルサービングノードのセッションをキャンセル: ibrix_ndmpsession –c SESSION1,SESSION2,SESSION3,... –h HOST NDMP サーバーの起動、停止、または再起動 ファイルサービングノードの起動時に、NDMP サーバーも自動的に起動します。 必要に応じ て次のコマンドを使用し、1 つ以上のファイルサービングノードの NDMP サーバーを起動、 停止、または再起動することができます。 ibrix_server –s –t ndmp –c { start | stop | restart} [-h SERVERNAMES] テープおよびメディアチェンジャーデバイスの表示または再スキャン バックアップ用に現在構成されているテープおよびメディアチェンジャーデバイスを表示する には、ナビゲーターで [Cluster Configuration] を選択して、[NDMP Backup] -> [Tape Devices] の 順に選択します。 NDMP バックアップアプリケーションの使用 67 テープまたはメディアチェンジャーデバイスを SAN に追加した場合は、[Rescan Device] をク リックしてリストを更新します。 デバイスを削除して、それをリストから削除する場合は、そ のデバイスが接続しているすべてのサーバーを再起動します。 CLI を使用してテープおよびメディアチェンジャーデバイスを表示するには、次のコマンドを 使用します。 ibrix_tape –l デバイスを再スキャンするには、次のコマンドを使用します。 ibrix_tape –r NDMP イベント NDMP サーバーは、INFO、WARN、ALERT という 3 つのタイプのイベントを生成できます。 これらのイベントは GUI に表示され、ibrix_event コマンドによって表示できます。 INFO イベント: 主要な NDMP 操作の開始および終了を特定し、進行状況も報告します。 例を 次に示します。 7012:Level 3 backup of /mnt/ibfs7 finished at Sat Nov 7 21:20:58 PST 2011 7013:Total Bytes = 38274665923, Average throughput = 236600391 bytes/sec. WARN イベント: NDMP アクセス、環境、または NDMP 操作による問題を示します。 これら のイベントは必ず確認して、必要な修正処理を実行してください。 例を次に示します。 0000:Unauthorized NDMP Client 16.39.40.201 trying to connect 4002:User [joe] md5 mode login failed. ALERT イベント: NDMP 操作が失敗したことを示します。 例を次に示します。 1102: Cannot start the session_monitor daemon, ndmpd exiting. 7009:Level 6 backup of /mnt/shares/accounts1 failed (writing eod header error). 8001:Restore Failed to read data stream signature. これらのタイプのイベントの発生時に電子メールまたは SNMP の通知を送信するように、シ ステムを構成することができます。 68 システムバックアップの構成 7 9000 クライアントのホストグループの作成 ホストグループは、9000 クライアントの名前付きセットです。 ホストグループは、クライア ントの一元管理に役立ちます。 ホストグループには、異なるクライアントセットを含めること ができます。グループのすべてのメンバーに対して次の操作を実行できます。 • マウントポイントの作成と削除 • ファイルシステムのマウント • ネットワークインターフェイスの優先設定 • ホストパラメーターのチューニング • 割り当てポリシーの設定 ホストグループを使用するかどうかは任意です。 ホストグループを設定していない場合、クラ イアントへのファイルシステムのマウント、ホスト設定値のチューニング、および割り当てポ リシーの適用は個々のクライアントに対して実行できます。 ホストグループの仕組み CLI または GUI を使用してデフォルトの clients ホストグループに対してコマンドを実行す ると、許可されている操作をすべての 9000 クライアントに対して実行できます。これがホス トグループ機能の最もシンプルな使い方です。 clients ホストグループには、クラスター内 で構成されているすべての 9000 クライアントが含まれます。 注記: 実行したコマンドは、クライアントが次回、Fusion Manager に接続するまでの間、 Fusion Manager に保存されます。 (クライアントを強制的に Fusion Manager に接続させるに は、クライアント上で IBRIX ソフトウェアサービスをいったん停止してから再開するか、クラ イアントを再起動するか、もしくは ibrix_lwmount -a または ibrix_lwhost --a を実 行します)。 クライアントが Fusion Manager に接続すると、クライアントの所属先のホストグ ループに対して実行されたコマンドに関する情報が Fusion Manager からクライアントに渡さ れます。 クライアントは渡された情報に基づいて、操作を実行します。 ホストグループを使用して、クライアントのセットごとに異なる操作を実行することもできま す。 これを行うには、必要なホストグループを含むホストグループツリーを作成します。 ホ ストグループへのクライアントの割り当ては手動で実行できるほか、IBRIX 9000 クライアント の登録時にクライアントのクラスターサブネットに基づいて自動で実行することもできます。 自動割り当て機能を使用するには、ホストグループに対応するクラスターサブネットを指定す るドメインルールを作成します。 ホストグループツリーの作成 clients ホストグループがホストグループツリーの root 要素となります。 ツリー内の各ホス トグループの親は 1 つだけですが、親には複数の子を持たせることができます。 ホストグルー プツリーでは、下位レベルのノードに対して実行した操作が、上位レベルのノードに対して実 行した操作より優先されます。 したがって、グローバルなクライアント設定を指定した後で、 個々のクライアントについては、必要に応じてそれらの設定をオーバーライドすることが可能 です。 たとえば、ファイルシステム ifs1 のマウントをすべてのクライアントに対して許可し、Tuning 1 という名前のホストチューニングセットを適用した後、これらのグローバル設定を特定のホ ストグループでオーバーライドできます。 これを行うには、ifs1 を clients ホストグルー プにマウントし、ifs2 をホストグループ A に、ifs3 をホストグループ C、ifs4 をホスト グループ D にそれぞれマウントします (マウントの順序は任意です)。 次に、clients ホスト グループに対して Tuning 1 を設定し、ホストグループ B に対して Tuning 2 を設定します。 こ れにより、ホストグループ B のすべてのクライアントで ifs1 のマウントが可能になり、Tuning 2 が適用されます。ホストグループ A のクライアントでは ifs2 のマウントが可能になり、 ホストグループの仕組み 69 Tuning 1 が適用されます。ホストグループ C および D のクライアントでは、それぞれ ifs3 と ifs4 のマウントが可能になり、Tuning 1 が適用されます。次の図は、ホストグループツ リー内のこれらの設定例を示しています。 root の下層に 1 レベルのホストグループを作成するには、新しいホストグループを作成するだ けです。 root ノードが親であることを宣言する必要はありません。 それより下位のレベルの ホストグループを作成するには、ホストグループの親要素を宣言する必要があります。 ホスト 名をグループ名として使用しないでください。 CLI を使用してホストグループツリーを作成するには、次の手順を実行します。 1. 最初のレベルのツリーを作成します。 ibrix_hostgroup -c -g GROUPNAME 2. グループの親を指定することで、ほかのすべてのレベルを作成します。 ibrix_hostgroup -c -g GROUPNAME [-p PARENT] ホストグループへの 9000 クライアントの追加 ホストグループには 9000 クライアントを追加できます。クライアントを異なるホストグルー プに移動することもできます。 すべてのクライアントはデフォルトの clients ホストグルー プに所属しています。 ホストをホストグループに追加または移動するには、ibrix_hostgroup コマンドを次のよう に使用します。 ibrix_hostgroup -m -g GROUP -h MEMBER たとえば、指定したホストを finance グループに追加するには、次のように入力します。 ibrix_hostgroup -m -g finance -h cl01.hp.com ホストグループへのドメインルールの追加 自動でのホストグループ割り当てを設定するには、ホストグループのドメインルールを定義し ます。 ドメインルールは、ホストグループのメンバーシップを特定のクラスターサブネット上 のクライアントに限定します。 Fusion Manager では、クライアントの作成時にユーザーが指 定したクライアントの IP アドレスを使用して、サブネットのマッチングを行い、クライアント をドメインルールに応じたホストグループにソートします。 このようにホストグループに対してドメインルールを設定しておくと、異なるクライアントサ ブネット上のマウントポリシー、チューニングポリシー、割り当てポリシー、および優先ネッ トワークの一元管理に役立ちます。 ドメインルールは、クライアントネットワークに対応する サブネット IP アドレスです。 ホストグループにドメインルールを追加すると、指定したサブ ネット上の 9000 クライアントだけがホストグループのメンバーになるように限定されます。 ドメインルールは任意のタイミングで追加できます。 ドメインルールをホストグループに追加するには、ibrix_hostgroup コマンドを次のように 使用します。 ibrix_hostgroup -a -g GROUPNAME -D DOMAIN 70 9000 クライアントのホストグループの作成 たとえば、ドメインルール 192.168 を finance グループに追加するには、次のように入力 します。 ibrix_hostgroup -a -g finance -D 192.168 ホストグループの表示 すべてのホストグループまたは特定のホストグループを表示するには、次のコマンドを使用し ます。 ibrix_hostgroup -l [-g GROUP] ホストグループの削除 ホストグループを削除すると、そのホストグループのメンバーがそのホストグループの親に再 割り当てされます。 この場合、移動先のホストグループで設定されているマウント、チューニング、ネットワーク インターフェイスの優先設定、および割り当てポリシーを IBRIX クライアントに強制的に適用 するには、クライアント上で 9000 ソフトウェアサービスをいったん停止して再開するか、次 のコマンドをローカルで実行します。 • ibrix_lwmount -a: マウントまたは割り当てポリシーをクライアントに強制的に適用 • ibrix_lwhost --a: ホストチューニングをクライアントに強制的に適用 CLI を使用してホストグループを削除するには、次のように入力します。 ibrix_hostgroup -d -g GROUPNAME その他のホストグループ操作 ホストグループに対しては、さらに次の各操作が可能です。詳細についてはリンク先を参照し てください。 • マウントポイントの作成または削除、ファイルシステムのマウントまたはアンマウント (『HP IBRIX 9000 Storage File System ユーザーガイド』 の「ファイルシステムの作成とマ ウント」を参照) • ホストチューニングパラメーターの変更 (「ファイルサービングノードおよび 9000 クラ イアントのチューニング」 (108 ページ) を参照) • 優先するネットワークインターフェイスの設定 (「ネットワークインターフェイスの優先 設定」 (120 ページ) を参照) • 割り当てポリシーの設定 (『HP IBRIX 9000 Storage File System ユーザーガイド』 の「ファ イル割り当ての使用」を参照) ホストグループの表示 71 8 クラスター操作の監視 9720/9730 ハードウェアの監視 GUI は、9720 および 9730 システムに含まれるサーバー、シャーシおよびシステムストレー ジのステータス、ファームウェアバージョン、デバイス情報を表示します。 管理コンソールに は、シャーシ、サーバー、およびストレージのハードウェアコンポーネントの最上位レベルス テータスが表示されます。 任意のシャーシ、サーバー、およびストレージのコンポーネントを 展開し、サブコンポーネントのステータスを表示することもできます。 サーバーの監視 システムに含まれるサーバーおよびシャーシに関する情報を表示するには、次の手順を実行し ます。 1. ナビゲーターツリーから [Servers] を選択します。 Servers パネルは各シャーシに含まれるサーバーを一覧表示します。 2. 詳細を表示するサーバーを選択します。 シャーシ内のサーバーに関する情報が右のペインに表示されます。 選択したサーバーのサマリー情報を表示するには、下部のナビゲーターツリー内の [Summary] ノードを選択します。 72 クラスター操作の監視 下部のナビゲーターから、[NICs] などの確認したいサーバーコンポーネントを選択します。 9720/9730 ハードウェアの監視 73 サーバーに関するトップレベルのオプションを以下に記載します。 注記: [Hardware] ノードに関する情報については、「ハードウェアコンポーネントの監視」 (75 ページ) に記載されています。 • • 74 [HBAs]。 HBAs パネルには、以下の情報が表示されます。 ◦ Node WWN (ノード WWN) ◦ Port WWN (ポート WWN) ◦ Backup (バックアップ) ◦ Monitoring (監視) ◦ State (状態) [NICs]。 NICs パネルは、オフラインのものも含め、そのサーバーのすべての NIC を表示 します。 NICs パネルには、以下の情報が表示されます。 ◦ Name (名前) ◦ IP ◦ Type (種類) ◦ State (状態) クラスター操作の監視 • • • ◦ Route (ルート) ◦ Standby Server (スタンバイサーバー) ◦ Standby Interface (スタンバイインターフェイス) [Mountpoints]。 Mountpoints パネルには、以下の情報が表示されます。 ◦ Mountpoint (マウントポイント) ◦ Filesystem (ファイルシステム) ◦ Access (アクセス) [NFS]。 NFS パネルには、以下の情報が表示されます。 ◦ Host (ホスト) ◦ Path (パス) ◦ Options (オプション) [CIFS]。 CIFS パネルには、以下の情報が表示されます。 注記: GUI では、CIFS から SMB へ名称が変更されていません。 CIFS は単純に、SMB の異なる名前です。 • • • ◦ Name (名前) ◦ Value (値) [Power]。 Power パネルには、以下の情報が表示されます。 ◦ Host (ホスト) ◦ Name (名前) ◦ Type (種類) ◦ IP Address (IP アドレス) ◦ Slot ID (スロット ID) [Events]。 Events パネルには、以下の情報が表示されます。 ◦ Level (レベル) ◦ Time (時間) ◦ Event (イベント) [Hardware]。 Hardware パネルには、以下の情報が表示されます。 ◦ ハードウェアコンポーネントの名前 ◦ そのハードウェアコンポーネントに関する収集された情報。 Hardware パネルに関する詳細については、「ハードウェアコンポーネントの監視」 (75 ページ) を参照してください。 ハードウェアコンポーネントの監視 シャーシの前面にはサーバーベイがあり、背面にはファンや電源、Onboard Administrator モ ジュール、相互接続モジュール (VC モジュールや SAS スイッチ) などのコンポーネントがあり 9720/9730 ハードウェアの監視 75 ます。 次の Onboard Administrator の図は、IBRIX 9730 システムのシャーシエンクロージャー です。 GUI からこれらのコンポーネントを監視するには、次の手順を実行します。 1. 上部のナビゲーターツリーで [Servers] をクリックします。 2. 下部のナビゲーターツリーで [Hardware] をクリックすると、[Servers] パネルで選択した サーバーが含まれるシャーシに関する情報が、次のように表示されます。 ブレードエンクロージャーの監視 シャーシ内のブレードエンクロージャーの要約情報を表示するには、次の手順に従います。 1. [Hardware] ノードを展開します。 2. [Hardware] ノードの下にある [Blade Enclosure] ノードを選択します。 ブレードエンクロージャーに関する以下の要約情報が表示されます。 • Status (ステータス) • Type (種類) • Name (名前) • UUID • Serial Number (シリアル番号) [Blade Enclosure] ノードをクリックし、いずれかのサブノードをクリックすると、ブレードエ ンクロージャーのハードウェアコンポーネントの詳細情報が表示されます。 76 クラスター操作の監視 [Blade Enclosure] ノードの下にあるいずれかのサブノードを選択すると、追加情報が提示され ます。 たとえば、[Fan] ノードを選択すると、ブレードエンクロージャーのファンに関する追 加情報が、[Fan] パネルに表示されます。 [Blade Enclosure] ノードの下にあるサブノードは、ブレードエンクロージャー内の各ハードウェ アコンポーネントに関する情報を提供します。 9720/9730 ハードウェアの監視 77 表 1 ブレードエンクロージャーの詳細情報の取得 パネル名 提供される情報 [Bay] • Status (ステータス) • Type (種類) • Name (名前) • UUID • Serial Number (シリアル番号) • Model (モデル) • Properties (プロパティ) [Temperature Sensor]: [Temperature Sensor] パネルには、 • Status (ステータス) ベイ、OA モジュール、またはブレードエンクロージャー • Type (種類) の情報が表示されます。 • UUID • Properties (プロパティ) [Fan]: [Fan] パネルにはブレードエンクロージャーの情報 • Status (ステータス) が表示されます。 • Type (種類) • Name (名前) • UUID • Location (場所) • Properties (プロパティ) [OA Module] • Status (ステータス) • Type (種類) • Name (名前) • UUID • Serial Number (シリアル番号) • Model (モデル) • Firmware Version (ファームウェアバージョン) • Location (場所) • Properties (プロパティ) [Power Supply] • Status (ステータス) • Type (種類) • Name (名前) • UUID • Serial Number (シリアル番号) • Location (場所) [Shared Interconnect] • Status (ステータス) • Type (種類) • Name (名前) • UUID • Serial Number (シリアル番号) • Model (モデル) • Firmware Version (ファームウェアバージョン) • Location (場所) • Properties (プロパティ) 78 クラスター操作の監視 サーバーの詳細の取得 管理コンソールには、シャーシ内の各サーバーの詳細情報が表示されます。 サーバーのサマ リー情報を取得するには、[Hardware] ノードの下の [Server] ノードを選択します。 各サーバーの次の概要情報が表示されます。 • Status (ステータス) • Type (種類) • Name (名前) • UUID • Serial Number (シリアル番号) • Model (モデル) • Firmware Version (ファームウェアバージョン) • Message (メッセージ)1 • Diagnostic Message (診断メッセージ)1 1 状況に応じて動的にカラムが表示されます。 [Server] ノードの下のノードをクリックして、サーバー内のハードウェアコンポーネントの詳 細情報を取得します。 9720/9730 ハードウェアの監視 79 表 2 サーバーの詳細情報の取得 パネル名 提供される情報 [CPU] • Status (ステータス) • Type (種類) • Name (名前) • UUID • Model (モデル) • Location (場所) [ILO Module (ILO モジュール)] • Status (ステータス) • Type (種類) • Name (名前) • UUID • Serial Number (シリアル番号) • Model (モデル) • Firmware Version (ファームウェアバージョン) • Properties (プロパティ) [Memory DiMM (メモリ DiMM)] • Status (ステータス) • Type (種類) • Name (名前) • UUID • Location (場所) • Properties (プロパティ) [NIC] • Status (ステータス) • Type (種類) • Name (名前) • UUID • Properties (プロパティ) [Power Management Controller (パワーマネジメントコン • Status (ステータス) トローラー)] • Type (種類) • Name (名前) • UUID • Firmware Version (ファームウェアバージョン) [Storage Cluster (ストレージクラスター)] • Status (ステータス) • Type (種類) • Name (名前) • UUID [Drive]: ストレージクラスター内の各ドライブに関する 情報が表示されます。 • Status (ステータス) • Type (種類) • Name (名前) • UUID • Serial Number (シリアル番号) • Model (モデル) Firmware Version (ファームウェアバージョン) 80 クラスター操作の監視 表 2 サーバーの詳細情報の取得 (続き) パネル名 提供される情報 • • Location (場所) • Properties (プロパティ) [Storage Controller] (サーバーに対して表示) • Status (ステータス) • Type (種類) • Name (名前) • UUID • Serial Number (シリアル番号) • Model (モデル) • Firmware Version (ファームウェアバージョン) • Location (場所) • Message (メッセージ) • Diagnostic Message (診断メッセージ) [Volume]: 各サーバーのボリューム情報が表示されます。 • Status (ステータス) • Type (種類) • Name (名前) • UUID • Properties (プロパティ) [Storage Controller] (ストレージクラスターに対して表示) • Status (ステータス) • Type (種類) • UUID • Serial Number (シリアル番号) • Model (モデル) • Firmware Version (ファームウェアバージョン) • Message (メッセージ) • Diagnostic Message (診断メッセージ) [Battery] (各ストレージコントローラーに対して表示) • Status (ステータス) • Type (種類) • UUID • Properties (プロパティ) [IO Cache Module] (ストレージコントローラーに対して • Status (ステータス) 表示) • Type (種類) • UUID • Properties (プロパティ) [Temperature Sensor]: 各温度センサーの情報が表示され • Status (ステータス) ます。 • Type (種類) • Name (名前) • UUID • Locations (場所) • Properties (プロパティ) 9720/9730 ハードウェアの監視 81 ストレージとストレージコンポーネントの監視 ナビゲーターツリーから [Vendor Storage] を選び、お使いのシステムのストレージおよびスト レージコンポーネントに関するステータスやデバイス情報を表示してください。 [Summary] パネルには、選択したベンダーストレージの詳細が次のように表示されます。 管理コンソールには、次の図に示すように、ベンダーストレージに関する幅広い情報が表示さ れます。 82 クラスター操作の監視 下部のナビゲーターツリーで以下のコンポーネントへとドリルダウンすると、さらに詳細な情 報が表示されます。 • [Servers]。 [Servers] パネルには、接続されているストレージのホスト名のリストが表示さ れます。 • [Storage Cluster]。 [Storage Cluster] パネルには、ストレージクラスターに関する詳細情報 が表示されます。 詳細については、「ストレージクラスターの監視」 (83 ページ) を参照 してください。 • [Storage Switch]。 [Storage Switch] パネルには、ストレージスイッチに関する詳細情報が 表示されます。 詳細については、「ストレージクラスター内のストレージスイッチの監 視」 (89 ページ) を参照してください。 • [LUNs]。 [LUNs] パネルには、ストレージクラスター内の LUN に関する情報が表示されま す。 詳細については、「ストレージクラスター内の LUN の管理」 (89 ページ) を参照し てください。 ストレージクラスターの監視 管理コンソールには、各ストレージクラスターの詳細情報が表示されます。 [Storage Clusters] ノードの下に表示されるサブノードのいずれかをクリックすると、追加情報が得られます。 • [Drive Enclosure]。 [Drive Enclosure] パネルには、ドライブエンクロージャーに関する詳細 情報が表示されます。 [Drive Enclosure] ノードを展開すると、電源とサブエンクロージャー に関する情報が表示されます。 詳細については、「ストレージクラスターのドライブエン クロージャーの監視」 (84 ページ) を参照してください。 • [Pool]。 [Pool] パネルには、ストレージクラスター内のプールに関する情報が表示されま す。 [Pool] ノードを展開すると、プール内のボリュームに関する情報が表示されます。 詳細については、「ストレージクラスターのプールの監視」 (86 ページ) を参照してくだ さい。 • [Storage Controller]。 [Storage Controller] パネルには、ストレージコントローラーに関す る詳細情報が表示されます。 [Storage Controller] ノードを展開すると、ストレージコント ローラーのバッテリーおよび I/O キャッシュモジュールに関する情報が表示されます。 詳細については、「ストレージクラスターのストレージコントローラーの監視」 (88 ペー ジ) を参照してください。 9720/9730 ハードウェアの監視 83 ストレージクラスターのドライブエンクロージャーの監視 各 9730 CX はシングルドライブエンクロージャーです。 このエンクロージャーには 2 つのサ ブエンクロージャーがあり、[Drive Enclosure] ノードの下に表示されます。 [Sub Enclosure] ノー ドのいずれかをクリックすると、そのサブエンクロージャーの情報が表示されます。 [Drive Enclosure] ノードを展開すると、電源とサブエンクロージャーに関する追加情報が提供 されます。 表 3 ドライブエンクロージャーに関して提供される詳細情報 ノード 参照する項 Power Supply 「ストレージクラスターの電源の監視」 (84 ページ) Sub Enclosure 「サブエンクロージャーの監視」 (85 ページ) ストレージクラスターの電源の監視 各ドライブエンクロージャーは電源も備えています。 [Power Supply] ノードを選択すると、ド ライブエンクロージャー内の各電源に関する、以下の情報が表示されます。 • 84 Status (ステータス) クラスター操作の監視 • Type (種類) • Name (名前) • UUID 次の図に示す [Power Supply] パネルには、エンクロージャー内の 4 つの電源に関する情報が 提供されます。 サブエンクロージャーの監視 [Sub Enclosure] ノードを展開すると、各サブエンクロージャーの以下のコンポーネントに関す る情報が得られます。 • • [Drive]: [Drive] パネルは、サブエンクロージャー内のドライブに関する以下の情報を提供 します。 ◦ Status (ステータス) ◦ Volume Name (ボリューム名) ◦ Type (種類) ◦ UUID ◦ Serial Number (シリアル番号) ◦ Model (モデル) ◦ Firmware Version (ファームウェアバージョン) ◦ Location (場所)。 この列には、ドライブの所在情報が表示されます。 たとえば、リス ト内のいずれかのドライブの位置を Port: 52 Box 1 Bay: 7 とします。このドラ イブを見つけるには、ベイ 7 を調べます。ポート番号は、スイッチ番号とスイッチ ポートを示しています。 ポート 52 の場合、ドライブはスイッチ 5 のポート 2 に接 続されています。Port: 72 Box 1, Bay 6 の場合、ドライブはベイ 6 にあるス イッチ 7 上のポート 2 に接続されています。 ◦ Properties (プロパティ) [Fan]。 [Fan] パネルは、サブエンクロージャー内のファンに関する以下の情報を提供しま す。 ◦ Status (ステータス) ◦ Type (種類) ◦ Name (名前) ◦ UUID ◦ Properties (プロパティ) 9720/9730 ハードウェアの監視 85 • • [SEP]。 [SEP] パネルは、サブエンクロージャー内のプロセッサーに関する以下の情報を提 供します。 ◦ Status (ステータス) ◦ Type (種類) ◦ Name (名前) ◦ UUID ◦ Serial Number (シリアル番号) ◦ Model (モデル) ◦ Firmware Version (ファームウェアバージョン) [Temperature Sensor]。 [Temperature Sensor] パネルは、サブエンクロージャー内の温度セ ンサーに関する以下の情報を提供します。 ◦ Status (ステータス) ◦ Type (種類) ◦ Name (名前) ◦ UUID ◦ Properties (プロパティ) ストレージクラスターのプールの監視 管理コンソールには、ストレージクラスター内の各プールを表す [Pool] ノードが一覧されま す。 [Pool] ノードのいずれかを選択すると、プールに関する情報が表示されます。 86 クラスター操作の監視 [Pool] ノードを選択すると、以下の情報が [Pool] パネルに表示されます。 • Status (ステータス) • Type (種類) • Name (名前) • UUID • Properties (プロパティ) プール内のボリュームの詳細情報を得るには、[Pool] ノードを展開し、[Volume] ノードを選択 します。 プール内のボリュームに関する以下の情報が表示されてます。 • Status (ステータス) • Type (種類) • Name (名前) • UUID • Properties (プロパティ) 次の図の [Volume] パネルには、2 つのボリューム、LUN_15 および LUN_16 の情報が表示さ れています。 9720/9730 ハードウェアの監視 87 ストレージクラスターのストレージコントローラーの監視 管理コンソールに、ストレージクラスター内の各ストレージコントローラーを表す [Storage Controller] ノードが表示されます。 [Storage Controller] ノードを選択すると、選択したスト レージコントローラーに関する以下の情報が表示されます。 • Status (ステータス) • Type (種類) • UUID • Serial Number (シリアル番号) • Model (モデル) • Firmware Version (ファームウェアバージョン) • Location (場所) • Message (メッセージ) • Diagnostic Message (診断メッセージ) [Storage Controller] ノードを展開すると、そのストレージコントローラーのバッテリーおよび I/O キャッシュモジュールに関する情報が得られます。 ストレージコントローラーのバッテリーの監視 [Battery] パネルには、以下の情報が表示されます。 • Status (ステータス) • Type (種類) • UUID • Properties (プロパティ)。 バッテリーの残量と充電ステータスに関する情報を提示します。 次の図の [Battery] パネルは、残量 100% のバッテリーに関する情報を表示しています。 ストレージコントローラーの IO キャッシュモジュールの監視 [IO Cache Module] パネルには、ストレージコントローラーの I/O キャッシュモジュールに関 する、以下の情報が表示されます。 • Status (ステータス) • Type (種類) • UUID • Properties (プロパティ)。 読み取り、書き込み、およびキャッシュサイズのプロパティに 関する情報を提供します。 次の図の [IO Cache Module] パネルは、読み取り/書き込みプロパティを有効にした I/O キャッ シュモジュールを示しています。 88 クラスター操作の監視 ストレージクラスター内のストレージスイッチの監視 [Storage Switch] パネルには、ストレージスイッチに関する以下の情報が表示されます。 • Status (ステータス) • Type (種類) • Name (名前) • UUID • Serial Number (シリアル番号) • Model (モデル) • Firmware Version (ファームウェアバージョン) • Location (場所) ストレージスイッチのプロセッサー (SEP) に関する情報を表示するには、[Storage Switch] ノー ドを展開し、[SEP] ノードを選択します。 SEP に関する以下の情報が表示されます。 • Status (ステータス) • Type (種類) • UUID • Model (モデル) • Firmware Version (ファームウェアバージョン) 次の図の [SEP] パネルには、ストレージクラスターの SEP プロセッサーが表示されています。 ストレージクラスター内の LUN の管理 [LUNs] パネルには、ストレージクラスター内の LUN に関する情報が表示されます。 以下の情 報が [LUNs] パネルに表示されます。 • Volume Name (ボリューム名) • LUN ID • RAID Group UUID (RAID グループ UUID) • Logical Volume Name (論理ボリューム名) • Physical Volume Name (物理ボリューム名) • Physical Volume UUID (物理ボリューム UUID) 以下の [LUNs] パネルには、ストレージクラスターの LUN が表示されています。 9720/9730 ハードウェアの監視 89 ファイルサービングノードの状態の監視 GUI のダッシュボードには、ファイルサービングノードの稼働ステータスに関する情報が表示 されます。これには、CPU、I/O、およびネットワークパフォーマンス情報が含まれます。 CLI を使用してこの情報を表示するには、次のサンプル出力に示すように、ibrix_server -l コマンドを使用します。 ibrix_server -l SERVER_NAME ----------node1 node2 STATE -----------Up, HBAsDown Up, HBAsDown CPU(%) -----0 0 NET_IO(MB/s) -----------0.00 0.00 DISK_IO(MB/s) ------------0.00 0.00 BACKUP ------ HA -off off ファイルサービングノードの稼働状態は、Normal、Alert、Error のいずれかです。 この状態は さらに、ノードのフェイルオーバーステータスと監視対象の NIC および HBA のステータスを 示すカテゴリに分類されます。 状態 説明 Normal Up: 稼働中。 Alert Up-Alert: ログの記録対象となる状況がサーバーに発生したことを意味します。 イベントは GUI の [Status] タブに表示されます。また、該当する場合は、電子メール通知が送信されます。 Up-InFailover: サーバーの電源がオンで、サーバーが Fusion Manager から認識できる状態になって おり、Fusion Manager がサーバーのセグメントをスタンバイサーバーに現在フェイルオーバーして いることを意味します。 Up-FailedOver: サーバーの電源がオンで、サーバーが Fusion Manager から認識できる状態になっ ており、フェイルオーバーが完了していることを意味します。 Error Down-InFailover: サーバーの電源がオフで、サーバーが Fusion Manager からアクセスできない状態 になっており、Fusion Manager がサーバーのセグメントをスタンバイサーバーに現在フェイルオー バーしていることを意味します。 Down-FailedOver: サーバーの電源がオフで、サーバーが Fusion Manager からアクセスできない状 態になっており、フェイルオーバーが完了していることを意味します。 Down: サーバーの電源がオフで、サーバーが Fusion Manager からアクセスできない状態になって おり、サーバーのセグメントへのアクセスを提供するスタンバイサーバーが存在しないことを意味 します。 さらに、監視対象の NIC および HBA のステータスが STATE フィールドに報告されます。 HBA および NIC が複数個あって、そのうちいくつかが動作を停止している場合、HBAsDown か NicsDown のいずれかの状態が報告されます。 90 クラスター操作の監視 クラスターイベントの監視 IBRIX ソフトウェアのイベントは、重大度レベルに応じて、以下のカテゴリのいずれか 1 つに 割り当てられます。 • アラート: ファイルシステムデータへのアクセスが失われる可能性のある中断イベント。 たとえば、セグメントが使用不能になった場合や、サーバーが到達不能になった場合な ど。 • 警告: ファイルシステムへのアクセスは失われないものの、中断を招く可能性のある状 態。この状態に対処しないでいると、アラート条件にまで悪化する可能性があります。 た とえば、CPU の使用率が非常に高い場合や、クォータ制限値に近づいている場合など。 • 情報: クラスターに対する変更 (セグメントの作成やファイルシステムのマウント) に伴っ て通常生じるか、または脅威のないイベント。 発生したイベントは、構成情報データベースのイベントテーブルに書き込まれます。 ファイル のサイズが適切に維持されるように、古いイベントを定期的に削除することをお勧めします。 「データベースのイベントテーブルからのイベントの削除」 (92 ページ) を参照してください。 電子メールによるイベント通知 (「クラスターイベントの電子メール通知の設定」 (58 ページ) を参照) か、または SNMP トラップによるイベント通知 (「SNMP 通知の設定」 (60 ページ) を参照) を設定できます。 イベントの表示 GUI のダッシュボードには、過去 24 時間以内に発生したイベントの数が示されます。 GUI ナ ビゲーターの [Events] をクリックすると、イベントのレポートが表示されます。 特定のファイ ルシステムまたはサーバーに関して報告されたイベントを表示することもできます。 CLI では、ibrix_event コマンドを使用して、クラスターイベントに関する情報を表示しま す。 アラートタイプごとにイベントを表示するには、次のコマンドを使用します。 ibrix_event -q [-e ALERT|WARN|INFO] ibrix_event -l コマンドでは、短形式でイベントが表示されるので、イベントの説明が 1 行の長さに合わせて切り捨てられます。 –n オプションでは、表示するイベントの数を指定し ます。 デフォルトは 100 です。 $ ibrix_event -l -n 3 EVENT ID TIMESTAMP -------- --------------1983 Feb 14 15:08:15 1982 Feb 14 15:08:15 1981 Feb 14 15:08:15 LEVEL ----INFO INFO INFO TEXT ---File system ifs1 created Nic eth0[99.224.24.03] on host ix24–03.ad.hp.com up Ibrix kernel file system is up on ix24-03.ad.hp.com ibrix_event -i コマンドでは、長形式でイベントが表示され、イベントの説明も完全に表 示されます。 $ ibrix_event -i -n 2 Event: ======= EVENT ID : 1981 TIMESTAMP : Feb 14 15:08:15 LEVEL : INFO TEXT : Ibrix kernel file system is up on ix24–03.ad.hp.com FILESYSTEM : HOST : ix24–03.ad.hp.com USER NAME : OPERATION : SEGMENT NUMBER : PV NUMBER : NIC : HBA : RELATED EVENT : 0 Event: クラスターイベントの監視 91 ======= EVENT ID : 1980 TIMESTAMP : Feb 14 15:08:14 LEVEL : ALERT TEXT : category:CHASSIS, name: 9730_ch1, overallStatus:DEGRADED, component:OAmodule, uuid:09USE038187WOAModule2, status:MISSING, Message: The Onboard Administrator module is missing or has failed., Diagnostic message: Reseat the Onboard Administrator module. If reseating the module does not resolve the issue, replace the Onboard Administrator module., eventId:000D0004, location:OAmodule in chassis S/N:USE123456W, level:ALERT FILESYSTEM : HOST : ix24–03.ad.hp.com USER NAME : OPERATION : SEGMENT NUMBER : PV NUMBER : NIC : HBA : RELATED EVENT : 0 ibrix_event -l および -i コマンドには、特定のファイルシステム、サーバー、アラート レベル、開始または終了時間に関連付けられたレコードを返すためのフィルターとして機能す るオプションを含めることができます。 詳細については、『HP IBRIX 9000 Network Storage System CLI リファレンスガイド』 を参照してください。 データベースのイベントテーブルからのイベントの削除 ibrix_event -p コマンドを使用して、イベントテーブルのイベントを、古いイベントから 削除します。 デフォルトでは、最初の 7 日間のメッセージが削除されます。 日数を変更する には、-o DAYS_COUNT オプションを含めます。 ibrix_event -p [-o DAYS_COUNT] クラスターの稼働状態の監視 ファイルサービングノードおよび 9000 クライアントの稼働状態を監視するには、 ibrix_health コマンドを実行します。 このコマンドでは、ホストのパフォーマンスをいく つかの機能項目についてチェックし、結果の概要情報レポートまたは詳細情報レポートを出力 します。 ヘルスチェック ibrix_health コマンドでは、次のヘルスチェックをファイルサービングノードに対して実 行します。 • テストホストとネットワークを共有しているリモートファイルサービングノードに対して ping を送信します。 リモートサーバーが ping に応答する場合は、Linux または IBRIX ソフ トウェアに問題が生じたためにリモートサーバーがテストホストに接続されていない可能 性があります。 リモートサーバーが ping に応答しない場合は、リモートサーバーがダウ ンしているか、ネットワークに問題が生じている可能性があります。 • テストホストがネットワークインターフェイスモニターとして割り当てられている場合 は、監視対象インターフェイスに ping を送信して接続の稼働状態を確認します (ネット ワークインターフェイスの監視の詳細については、「構成データベースにネットワークイ ンターフェイスオプションを設定する」 (119 ページ) を参照してください)。 • 指定したホストが物理ボリュームを読み取ることができるかどうかをチェックします。 ibrix_health コマンドでは、次のヘルスチェックをファイルサービングノードと 9000 ク ライアントの両方に対して実施します。 • テストホスト上の情報マップと構成情報データベースの整合性を確認します。 -b オプションを含めると、スタンバイサーバーの稼働状態もチェックされます (スタンバイが 構成されている場合)。 92 クラスター操作の監視 ヘルスチェックのレポート 概要レポートでは、テストしたすべてのファイルサービングノードおよび 9000 クライアント の全体的なヘルスチェック結果が表示され、その後ろに個々の結果が表示されます。 -b オプ ションを指定すると、テストしたすべてのファイルサービングノードのスタンバイサーバーを 含めた全体的な結果が表示されます。 結果は次のいずれかとなります。 • Passed: すべてのテスト対象ホストおよびスタンバイサーバーがいずれのヘルスチェック にも合格したことを意味します。 • Failed: テスト対象のホストのうち、1 つ以上のホストがヘルスチェックで不合格になっ たことを意味します。 この結果の計算は、スタンバイサーバーのヘルスステータスを考慮 せずに行われます。 • Warning: 注意が必要となる可能性のある非最適条件が 1 つ以上のテスト対象ホストまた はスタンバイサーバーに見つかったことを意味します。 詳細情報レポートには、概要レポートと同じ情報に加え、次の追加データが含まれます。 • テスト結果の概要 • 稼働状態、パフォーマンスデータ、バージョンデータなどのホスト情報 • デフォルトと異なるホストチューニング • ヘルスチェックの結果 デフォルトでは、結果が Failed または Warned になったヘルスチェックに関するデータだけ が、詳細情報レポートの Result Information フィールドに表示されます。 オプションとして、 結果が Passed になったチェックに関するデータや、ファイルシステムおよびセグメントに関 する詳細情報も報告されるように詳細情報レポートを拡張できます。 概要ヘルスレポートの表示 概要ヘルスレポートを表示するには、ibrix_health -l コマンドを使用します。 ibrix_health -l [-h HOSTLIST] [-f] [-b] このコマンドでは、デフォルトですべてのホストのレポートを出力します。 特定のホストを表 示するには、-h HOSTLIST 引数を含めます。 チェックで不合格となったホストの結果だけを 表示するには、-f 引数を含めます。 スタンバイサーバーをヘルスチェックの対象に含めるに は、-b 引数を含めます。 ibrix_health -l コマンドの出力例を以下に示します。 [root@bv18-03 ~]# ibrix_health -l Overall Health Checker Results - PASSED ======================================= Host Summary Results ==================== Host Result Type State Network ------- ------ ------ ----- ---------bv18-03 PASSED Server Up 10.10.18.3 bv18-04 PASSED Server Up 10.10.18.4 Last Update ----------Thu Oct 25 14:23:12 MDT 2012 Thu Oct 25 14:23:22 MDT 2012 詳細ヘルスレポートの表示 詳細ヘルスレポートを表示するには、ibrix_health -i コマンドを使用します。 ibrix_health -i -h HOSTLIST [-f] [-s] [-v] -f オプションでは、チェックで不合格になったホストの結果だけが表示されます。 ファイル システムとそれらのセグメントに関する情報をレポートに含めるには、-s オプションを指定 します。 -v オプションでは、結果が Passed または Warning になったチェックに関する詳細 情報だけがレポートに示されます。 たとえば、ファイルサービングノード bv18-04 の詳細ヘルスレポートを表示するには、次の ように入力します。 クラスターの稼働状態の監視 93 [root@bv18-04 ~]# ibrix_health -i -h bv18-04 Overall Health Checker Results - PASSED ======================================= Host Summary Results ==================== Host Result Type State Network Last Update ------- ------ ------ ----- ---------- ----------bv18-04 PASSED Server Up 10.10.18.4 Thu Oct 25 13:59:40 MDT 2012 Report ====== Overall Result ============== Result Type State Module Up time Last Update Network Thread Protocol ------ ------ ----- ------ --------- ---------------------------- ---------- ------ -------PASSED Server Up Loaded 1699630.0 Thu Oct 25 13:59:40 MDT 2012 10.10.18.4 64 true CPU Information =============== Cpu(System,User,Util,Nice) Load(1,3,15 min) Network(Bps) Disk(Bps) -------------------------- ---------------- ------------ --------0, 0, 0, 0 0.09, 0.05, 0.01 1295 1024 Memory Information ================== Mem Total Mem Free Buffers(KB) Cached(KB) Swap Total(KB) Swap Free(KB) --------- -------- ----------- ---------- -------------- ------------8045992 4190584 243312 2858364 14352376 14352376 Version/OS Information ====================== Fs Version IAD Version OS OS Version Kernel Version Architecture Processor ---------- ----------- ------------ ------—------—------—------—------—------—------—------—-------- ------------ --------6.2.338(internal rev 130683 in SVN) 6.2.338 GNU/Linux Red Hat Enterprise Linux Server release 5.5 (Tikanga) 2.6.18-194. el5 x86_64 x86_64 Remote Hosts ============ Host Type Network Protocol Connection State ------- ------ ---------- -------- ---------------bv18-03 Server 10.10.18.3 true S_SET S_READY S_SENDHB bv18-04 Server 10.10.18.4 true S_NEW Check Results ============= Check : bv18-04 can ping remote segment server hosts ==================================================== Check Description Result Result Information ------------------------------ ------ -----------------Remote server bv18-03 pingable PASSED Check : Iad's monitored nics are pingable ========================================= Check Description Result Result Information --------------------------------------------------- ------ -----------------User nic bv18-04/bond1:2 pingable from host bv18-03 PASSED Check : Physical volumes are readable ===================================== Check Description Result Result Information --------------------------------------------------------------- ------ -----------------Physical volume 0wndzX-STuL-wSIi-wc7w-12hv-JZ2g-Lj2JTf readable PASSED /dev/mpath/mpath2 Physical volume aoA402-I1ek-G9B2-HHyR-H5Y8-eexU-P6knhd readable PASSED /dev/mpath/mpath1 Physical volume h7krR6-2pxA-M8bD-dkdf-3PK7-iwFE-L17jcD readable PASSED /dev/mpath/mpath0 Physical volume voXTso-a2KQ-MWCN-tGcu-1OBs-ejWG-YrKLEe readable PASSED /dev/mpath/mpath3 Check : Iad and Fusion Manager consistent ========================================= Check Description Result Result Information ------------ ------ -----------------bv18-03 engine uuid matches on Iad and Fusion Manager PASSED bv18-03 IP address matches on Iad and Fusion Manager PASSED bv18-03 network protocol matches on Iad and Fusion Manager PASSED bv18-03 engine connection state on Iad is up PASSED bv18-04 engine uuid matches on Iad and Fusion Manager PASSED bv18-04 IP address matches on Iad and Fusion Manager PASSED bv18-04 network protocol matches on Iad and Fusion Manager PASSED bv18-04 engine connection state on Iad is up PASSED ibrixFS file system uuid matches on Iad and Fusion Manager PASSED ibrixFS file system generation matches on Iad and Fusion Manager PASSED ibrixFS file system number segments matches on Iad and Fusion Manager PASSED ibrixFS file system mounted state matches on Iad and Fusion Manager PASSED Superblock owner for segment 4 of filesystem ibrixFS on bv18-04 matches nl on Iad and Fusion Manager Superblock owner for segment 3 of filesystem ibrixFS on bv18-04 matches PASSED on Iad and Fusion Manager Superblock owner for segment 2 of filesystem ibrixFS on bv18-04 matches PASSED on Iad and Fusion Manager Superblock owner for segment 1 of filesystem ibrixFS on bv18-04 matches PASSED on Iad and Fusion Manager PASSED nl nl nl 94 クラスター操作の監視 ログの表示 Fusion Manager、ファイルサービングノード、および 9000 クライアントのそれぞれについて ログが用意されています。 ログファイルの内容の意味については、HP サポートにお問い合わ せください。 HP サポートでは、ログを tar 形式で圧縮し、電子メールに添付して HP に送信 するようにお願いすることがあります。 インテグレーテッドマネジメントログ (IML) の表示および消去 IML は、サーバーブレードに発生したハードウェアエラーを記録します。 hpasmcli(4) コマ ンドを使うと、イベントを表示または消去できます。 ファイルサービングノードの稼働状況に関する統計情報の表示 ファイルサービングノードは、定期的に、次のような統計情報を Fusion Manager に報告しま す。 • Summary: CPU 使用率、ディスクスループット、ネットワークスループット、稼働状態な ど、稼働状況に関する一般的な統計情報。 稼働状態の詳細については、「ファイルサービ ングノードの状態の監視」 (90 ページ) を参照してください。 • IO: 読み取りおよび書き込みに関する総統計値。 • Network: ネットワークの入出力に関する総統計値。 • Memory: メモリの使用可能容量、空き容量、およびスワップメモリに関する統計情報。 • CPU: プロセッサーおよび CPU アクティビティに関する統計情報。 • NFS: NFS クライアントおよびサーバーアクティビティに関する統計情報。 GUI では、これらの統計情報のほとんどがダッシュボードに表示されます。 詳細については、 「GUI の使用」 (17 ページ) を参照してください。 CLI を通じて統計情報を表示するには、次のコマンドを使用します。 ibrix_stats -l [-s] [-c] [-m] [-i] [-n] [-f] [-h HOSTLIST] 特定の統計情報のみを表示したり、特定のファイルサービングノードに関する統計情報のみを 表示するには、次のオプションを使用します。 -s 統計情報の概要 -c CPU の統計情報 -m メモリの統計情報 -i I/O の統計情報 -n ネットワークの統計情報 -f NFS の統計情報 -h レポートに含めるファイルサービングノード 出力の例を次に示します。 ---------Summary-----------HOST Status CPU Disk(MB/s) Net(MB/s) lab12-10.hp.com Up 0 22528 616 ---------IO-----------HOST Read(MB/s) Read(IO/s) Read(ms/op) Write(MB/s) Write(IO/s) Write(ms/op) lab12-10.hp.com 22528 2 5 0 0.00 ---------Net-----------HOST In(MB/s) In(IO/s) Out(MB/s) Out(IO/s) lab12-10.hp.com 261 3 355 2 ---------Mem-----------HOST MemTotal(MB) MemFree(MB) SwapTotal(MB) SwapFree(MB) lab12-10.hp.com 1034616 703672 2031608 2031360 ---------CPU----------HOST User System Nice Idle IoWait Irq SoftIrq lab12-10.hp.com 0 0 0 0 97 1 0 ---------NFS v3-------ログの表示 95 HOST lab12-10.hp.com 96 Null Getattr Setattr Lookup Access Readlink Read Write 0 0 0 0 0 0 0 0 HOST lab12-10.hp.com Create Mkdir Symlink Mknod Remove Rmdir Rename 0 0 0 0 0 0 0 HOST lab12-10.hp.com Link Readdir Readdirplus Fsstat Fsinfo Pathconf Commit 0 0 0 0 0 0 0 クラスター操作の監視 9 Statistics ツールの使用 Statistics ツールでは、クラスターや個別のファイルサービングノードのパフォーマンス履歴 データが報告されます。 ネットワーク、オペレーティングシステム、および、NFS、メモリ、 およびブロックデバイスを含むファイルシステムのデータを表示できます。 Statistic データは 各ファイルサービングノードから Fusion Manager に送信され、Fusion Manager が処理やレ ポート生成を制御します。 Statistics ツールのインストールと設定 Statistics ツールには 2 つの主要なプロセスがあります。 • Manager プロセス: このプロセスはアクティブな Fusion Manager で実行されます。 Agent プロセスを実行しているファイルサービングノードからクラスター全体の統計情報を収集 および集約し、ローカルの統計情報も収集します。 Manager は、集約した統計情報に基 づくレポートを生成し、すべてのファイルサービングノードからレポートを収集します。 さらに、Agent プロセスの開始と停止も制御します。 • Agent プロセス: このプロセスはファイルサービングノードで実行されます。 ローカルシ ステムの統計情報を収集および集約し、これらの統計情報からレポートを生成します。 重要: Statistics ツールはリモートファイルコピー (rsync) を使用して、統計情報データをファ イルサービングノードから Fusion Manager に移動します。Fusion Manager でデータが処理さ れ、レポートが生成され、表示されます。 すべてのファイルサービングノードからアクティブ な Fusion Manager に対して、SSH キーが自動的に設定されます。 Statistics ツールのインストール Statistics ツールは、IBRIX ソフトウェアをファイルサービングノードにインストールするとき に、自動的にインストールされます。 Statistics ツールを手動でインストールまたは再インス トールするには、次のコマンドを使用します。 ibrixinit –tt 次のことに留意してください。 • インストールのログは /tmp/stats-install.log にあります。 • デフォルトでは、Statistics ツールをインストールしても Statistics ツールのプロセスは開始 されません。 プロセスの開始および停止方法については、「Statistics ツールプロセスの制 御」 (102 ページ) を参照してください。 • インストール時に Fusion Manager デーモンが実行されていない場合、Statstool はパッシ ブとしてインストールされます。 Fusion Manager がアクティブまたはパッシブ状態になっ たら、Statstool 管理コンソールは Fusion Manager の状態に合わせて自動的に変更されま す。 収集と同期の有効化 収集と同期を有効にするには、ノード間の同期化を構成します。 アクティブな Fusion Manager ノードで、すべてのファイルサービングノードのノード名を指定して、次のコマンドを実行し ます。 /usr/local/ibrix/stats/bin/stmanage setrsync <node1_name> ... <nodeN_name> 例を次に示します。 # stmanage setrsync ibr-3-31-1 ibr-3-31-2 ibr-3-31-3 Statistics ツールのインストールと設定 97 注記: 個別のノードに対してこのコマンドを実行しないでください。 同じコマンド内にすべ てのノードを指定する必要があります。どのような順序で指定しても構いません。 必ずノード 名を使用します。IP アドレスを使用しないでください。 rsync のメカニズムをテストする場合は、「アクセステスト」 (102 ページ) を参照してくださ い。 Statistics ツールの IBRIX ソフトウェア 6.0 からのアップグレード バージョン 6.1 以降にアップグレードしても、統計情報の履歴は保管されます。 ibrix_upgrade および auto_ibrixupgrade スクリプトを使用して IBRIX ソフトウェアを アップグレードすると、Statstool ソフトウェアがアップグレードされます。 次のことに留意してください。 • アップグレードの開始前に統計プロセスを実行していた場合、アップグレードが正常に完 了した後で、これらのプロセスは自動的に再開されます。 アップグレードの開始前に統計 プロセスを実行していなかった場合は、アップグレードの完了後に手動で開始する必要が あります。 • Statistics ツールが以前にインストールされていなかった場合、IBRIX ソフトウェアアップ グレードによってツールはインストールされますが、Statistics プロセスは開始されませ ん。 プロセスの開始方法については、「Statistics ツールプロセスの制御」 (102 ページ) を 参照してください。 • アップグレード前に /etc/ibrix/stats.conf ファイルに設定された構成可能パラメー ター (age.retain.files=24h など) は、アップグレード後に保管されません。 • アップグレード後、履歴データとレポートは /var/lib/ibrix/histstats フォルダー から /local/statstool/histstats フォルダーに移動します。 • アップグレードでは Statistics ツールのデータベースは保管されますが、レポートは保管さ れません。 日付範囲を指定することで、アップグレード前に格納されたデータのレポート を再生成することができます。 「レポートの生成」 (99 ページ) を参照してください。 履歴レポート GUI の使用 GUI を使用して、クラスター全体のレポートや、特定のファイルサービングノードのレポート を、表示または生成することができます。 GUI を開くには、GUI ダッシュボードの [Historical Reports] を選択します。 注記: デフォルトでは、Statistics ツールをインストールしても Statistics ツールのプロセスは 開始されません。 アクティブな Fusion Manager でプロセスが実行されていない場合、GUI に はメッセージが表示されます (アクティブな Fusion Manager でプロセスがすでに実行されてい る場合や、パッシブな管理コンソールでプロセスがまったく実行されていない場合、メッセー ジは表示されません)。 プロセスの開始方法については、「Statistics ツールプロセスの制御」 (102 ページ) を参照してください。 統計のホームページでは、レポートを一覧表示するための 3 つのビュー (フォーマット) が提 供されています。 次の例は Simple ビューで、タイプ (時間別、日次、週次、詳細) ごとにレ ポートがソートされています。 98 Statistics ツールの使用 Time ビューではレポートが時系列に表示され、Table ビューではクラスターまたはサーバー別 にレポートが一覧表示されます。 クリックするとそのレポートが表示されます。 レポートの生成 新しいレポートを生成するには、IBRIX 管理コンソールの履歴レポート GUI で [Request New Report] をクリックします。 履歴レポート GUI の使用 99 レポートを生成するには、必要な仕様を入力して、[Submit] をクリックします。 統計のホーム ページのレポートのリストに、完成したレポートが表示されます。 レポートの生成時には、次の点に注意する必要があります。 • レポートは、収集済みの統計情報からのみ生成できます。 たとえば、ツールを午前 9:40 に開始し、午前 9:00~ 午前 9:30 の間のレポートを要求しても、レポートは生成できませ ん。その間のデータは収集されていないからです。 • レポートは時間単位で生成されます。 レポートが生成され表示可能になるまでには、最大 1 時間かかる場合があります。 注記: システムがレポートを生成中であるのに同時に新しいレポートをリクエストすると、 GUI にエラーが表示されます。 しばらく待ったあとで、もう一度レポートをリクエストしてく ださい。 レポートの削除 レポートを削除するには、各ノードにログインして、/local/statstool/histstats/ reports/ディレクトリからレポートを削除します。 Statistics ツールの維持 スペース要件 Statistics ツールでは、2 ノードクラスターの場合、毎時約 4MB が必要になります。 スペース を管理するには、次の手順を実行します。 • /usr/local/statstool/histstats ディレクトリ内にデータ収集に十分なスペース (4GB~8GB) を維持します。 • /local/statstool/histstats/reports/ディレクトリ内のスペースを監視します。 デフォルト値については、「Statistics ツール構成の変更」 (101 ページ) を参照してくださ い。 100 Statistics ツールの使用 Statistics ツール構成の更新 Statistics ツールを最初に構成するときに、構成情報には、クラスター上で構成されるすべての ファイルシステムに関する情報が含まれます。 クラスターに新しいノードまたは新しいファイ ルシステムを追加したり、その他の追加を行ったりした場合、Statistics ツールの構成を更新す る必要があります。 次の手順を実行します。 1. クラスターに新しいファイルサービングノードを追加する場合は、ノードの同期化を有効 にします。 詳細については、「収集と同期の有効化」 (97 ページ) を参照してください。 2. Statistics ツールにファイルシステムを追加します。 アクティブな Fusion Manager をホス トしているノードで、次のコマンドを実行します。 /usr/local/ibrix/stats/bin/stmanage loadfm クラスター内のほかのノードでは、新しい構成が自動的に更新されます。 収集プロセスを 再起動する必要はありません。収集は自動的に続行されます。 Statistics ツール構成の変更 構成を変更できるのは、管理ノード上のみです。 構成を変更するには、現在アクティブなノー ド上の /etc/ibrix/stats.conf ファイルに、構成パラメーターとその値を追加します。 /etc/ibrix/statstool.conf ファイルと /etc/ibrix/statstool.local.conf ファ イルを直接変更することはできません。 次のパラメーターを設定して、保管されるレポートの数を指定することができます。 パラメーター 保管されるレポートタイプ デフォルトの保管期間 age.report.hourly 時間別レポート 1日 age.report.daily 日次レポート 7日 age.report.weekly 週次レポート 14 日 age.report.other ユーザー生成レポート 7日 たとえば、日次レポートの場合、デフォルトの 7 日間で 7 つのレポートが保存されます。 日 次レポートを 3 日分だけ保存する場合は、age.report.daily パラメーターを 3 日に設定し ます。 age.report.daily=3d 注記: 構成の変更後にプロセスを再起動する必要はありません。 更新された構成は自動的に 収集されます。 Fusion Manager のフェイルオーバーと Statistics ツールの構成 高可用性環境では、Fusion Manager がフェイルオーバーされると、Statistics ツールも自動的に フェイルオーバーされます。 フェイルオーバーを実行するために何か手順を実行する必要はあ りません。 Fusion Manager の構成の変更に合わせて、統計の構成も自動的に変更されます。 フェイルオーバーが正常に行われたら、次の操作が発生します。 • フェイルオーバーの前に Statstool プロセスが実行されていた場合は、そのプロセスが再開 されます。 プロセスが実行されていなかった場合は、再開されません。 • Statstool のパッシブな管理コンソールが、IBRIX Fusion Manager に maintenance モードで インストールされます。 • 現在アクティブな Fusion Manager から、すべてのクラスターノード上で Setrsync が自 動的に実行されます。 • Loadfm が自動的に実行され、クラスター内のすべてのファイルシステムデータが、アク ティブな Fusion Manager に提示されます。 Statistics ツールの維持 101 • Fusion Manager のフェイルオーバーの前に生成された格納済みのクラスターレベルのデー タベースが、現在アクティブな Fusion Manager に移動するため、以前に生成されたレポー トが時間別、日次、週次というカテゴリで使用できない場合に、特定の範囲のレポートを リクエストできるようになります。 「レポートの生成」 (99 ページ) を参照してくださ い。 注記: 古いアクティブな Fusion Manager が 3 日以上使用できない (ping に応答しない) 場合、履歴の統計情報データベースは現在アクティブな Fusion Manager に転送されませ ん。 • フェイルオーバーの前に構成可能パラメーターを設定していた場合、そのパラメーターは フェイルオーバー後も保管されます。 エラーが表示された場合は、/usr/local/ibrix/log/statstool/stats.log を確認して ください。 注記: フェイルオーバーの前に生成されたレポートは、現在アクティブな Fusion Manager で は使用できません。 Statistics ツールプロセスのステータスの確認 Statistics ツールプロセスのステータスを確認するには、次のコマンドを実行します。 #/etc/init.d/ibrix_statsmanager status ibrix_statsmanager (pid 25322) is running... この出力で、pid は、「マスター」プロセスのプロセス ID を示しています。 Statistics ツールプロセスの制御 アクティブな Fusion Manager に接続されたすべてのファイルサービングノード上の Statistics ツールプロセスは、アクティブな Fusion Manager からリモート制御できます。 ibrix_statscontrol ツールを使用して、接続されたすべてのファイルサービングノードの プロセスや、指定したホスト名のみのプロセスを、開始または停止することができます。 • Fusion Manager を含むすべてのファイルサービングノードのプロセスを停止する場合: # /usr/local/ibrix/stats/bin/ibrix_statscontrol stopall • Fusion Manager を含むすべてのファイルサービングノードのプロセスを開始する場合: # /usr/local/ibrix/stats/bin/ibrix_statscontrol startall • 特定のファイルサービングノードのプロセスを停止する場合: # /usr/local/ibrix/stats/bin/ibrix_statscontrol stop <hostname1> <hostname2> .. • 特定のファイルサービングノードのプロセスを開始する場合: # /usr/local/ibrix/stats/bin/ibrix_statscontrol start <hostname1> <hostname2> .. Statistics ツールのトラブルシューティング アクセステスト ssh 認証が有効で、パスワード入力なしでノードからデータを取得できることを確認するに は、次のコマンドを実行します。 # /usr/local/ibrix/stats/bin/stmanage testpull 102 Statistics ツールの使用 その他の状況 • データが収集されない。 Statistics Manager の共通ディレクトリ (デフォルトでは /usr/ local/statstool/histstats/) にデータが収集されない場合は、すべてのノードの Statistics ツールプロセスを再起動します。 「Statistics ツールプロセスの制御」 (102 ペー ジ) を参照してください。 • インストールに関する問題。 /tmp/stats-install.log をチェックして問題を解決す るか、HP サポートに /tmp/stats-install.log を送信してください。 • ファイルサービングノードのレポートが表示されない。 Stats ツールの Web ページにレ ポートが表示されない場合は、次のことを確認してみてください。 ◦ 特定のファイルサービングノードに対して収集が可能かどうか確認してみます。 収集 できない場合は、「収集と同期の有効化」 (97 ページ) を参照してください。 ◦ 時刻同期をチェックします。 収集を正しく行い、レポートを表示するには、クラス ター内のすべてのサーバーが同じ日時とタイムゾーンに設定されている必要がありま す。 ログファイル Statistics ツールの詳細なログについては、/usr/local/ibrix/log/statstool/stats.log を参照してください (この情報には、詳細な例外やトレースバックメッセージが含まれていま す)。 ログは毎日真夜中に書き換えられ、統計ログが 7 日分だけ保管されます。 デフォルトの /var/log/messages ログファイルには、Statistics ツールに関するログも記録 されていますが、メッセージは短縮されています。 Statistics ツールのアンインストール IBRIX ソフトウェアがアンインストールされたら、Statistics ツールもアンインストールされま す。 Statistics ツールを手動でアンインストールするには、次のいずれかのコマンドを使用します。 • Statistics ツールと依存関係の rpm を含め、Statistics ツールをアンインストールする場合: # ibrixinit –tt -u • Statistics ツールと依存関係の rpm は残した状態で、Statistics ツールをアンインストールす る場合: # ibrixinit –tt -U ログファイル 103 10 システムのメンテナンス システムのシャットダウン システムを完全にシャットダウンするには、初めに IBRIX ソフトウェアをシャットダウンし、 次にハードウェアの電源を切断します。 IBRIX ソフトウェアのシャットダウン IBRIX ソフトウェアをシャットダウンするには、以下の手順に従ってください。 特に指定がな い場合、コマンドはアクティブな Fusion Manager をホストしているノードから実行してくだ さい。 1. アクティブなリモート複製タスク、データ階層化タスクまたは再バランスタスクがあれ ば、それらをすべて停止します。 次のコマンドを実行してアクティブなタスクのリストを 表示し、それぞれのタスク ID をメモします。 # ibrix_task -l 次のコマンドを実行して、タスク ID を指定し、アクティブな各タスクを停止します。 # ibrix_task -k -n TASKID 2. すべてのクラスターノード上の高可用性機能を無効にします。 ibrix_server -m -U 3. すべての passive な Fusion Manager インスタンスのモードを nofmfailover モードに移行 します。 ibrix_fm -m nofmfialover -A 4. すべてのノード上の SMB、NFS および NDMP サービスを停止します。 以下のコマンドを 実行します。 ibrix_server -s -t cifs -c stop ibrix_server -s -t nfs -c stop ibrix_server -s -t ndmp -c stop nl nl SMB を使用している場合、すべてのファイルサービングノード上で likewise サービスが停 止していることを確認します。 ps –ef | grep likewise kill -9 を使用して、実行中のすべての likewise サービスを停止します。 NFS を使用している場合は、次のコマンドを実行して、すべての NFS プロセスが停止し ていることを確認します。 ps –ef | grep nfs プロセスが実行中の場合、影響を受けるノードで以下のコマンドを使用します。 # pdsh –a service nfslock stop | dshbak # pdsh –a service nfs stop | dshbak nl 必要に応じてすべてのノード上で次のコマンドを実行し、マウントされているファイルシ ステムで開いているすべてのファイルハンドルを特定します。 lsof </mountpoint> kill -9 を使用して、ファイルシステム上で開いているファイルハンドルを持つすべて のプロセスを停止します。 5. クラスター上にマウントされているファイルシステムを表示します。 # ibrix_fs –l 104 システムのメンテナンス 6. 9000 クライアントから、すべてのファイルシステムをアンマウントします。 • Linux 9000 クライアントでは、次のコマンドを実行して各ファイルシステムをアンマ ウントします。 ibrix_lwumount -f <fs_name> • 7. Windows 9000 クライアントでは、ファイルシステムにアクセスしているすべてのア プリケーションを停止し、次にクライアントの GUI を使用してファイルシステム (例: I: DRIVE) をアンマウントします。 次に、[Services] に移動して fusion サービスを停止 します。 クラスターノード上のすべてのファイルシステムをマウント解除します。 ibrix_umount -f <fs_name> GUI を通じてファイルシステムをマウント解除するには、[Filesystems] > [unmount] を選択 します。 8. すべてのファイルシステムがマウント解除されていることを確認します。 ibrix_fs -l 特定のノード上のファイルシステムをマウント解除できなかった場合、この手順を続行し ます。 ファイルシステムは、ノードのシャットダウン時に強制的にマウント解除されま す。 9. すべての IBRIX Server サービスをシャットダウンして、動作を確認します。 # pdsh –a /etc/init.d/ibrix_server stop | dshbak # pdsh –a /etc/init.d/ibrix_server status | dshbak nl 10. Fusion Manager がすべてのファイルサービングノードが停止していることをレポートする まで待機します。 # ibrix_server –l 11. アクティブな Fusion Manager をホストしているノード以外のすべてのノードをシャット ダウンします。 # pdsh -w HOSTNAME shutdown -t now "now" 例を次に示します。 # pdsh -w x850s3 shutdown -t now "now" # pdsh -w x850s2 shutdown -t now "now" nl 12. アクティブであるアジャイル Fusion Manager をホストしているノードをシャットダウン します。 shutdown -t now “now” 13. ping を使用して、ノードが停止していることを確認します。 例を次に示します。 # ping x850s2 PING x850s2.l3domain.l3lab.com (12.12.80.102) 56(84) bytes of data. x850s1.l3domain.l3lab.com (12.12.82.101) icmp_seq=2 Destination Host Unreachable nl nl ノードを正常にシャットダウンできない場合は、次のコマンドを使用して、iLO インター フェイスを使用してノードの電源を切断します。 # ibrix_server -P off -h HOSTNAME 14. Fusion Manager サービスをシャットダウンしてステータスを確認します。 # /etc/init.d/ibrix_fusionmanager stop # /etc/init.d/ibrix_fusionmanager status システムのシャットダウン 105 15. アクティブな Fusion Manager をホストしているノードをシャットダウンします。 # shutdown -t now “now” Broadcast message from root (pts/4) (Mon Mar 12 17:10:13 2012): The system is going down to maintenance mode NOW! nl nl コマンドが終了すると、サーバーの電源はオフ (スタンバイ) になります。 システムハードウェアの電源切断 IBRIX ソフトウェアをシャットダウンしてから、次の手順でシステムハードウェアの電源を切 断します。 1. 9100c コントローラーの電源を切ります。 2. 9200cx ディスクキャパシティブロックの電源を切ります。 3. ファイルサービングノードの電源を切ります。 これでクラスターのシャットダウンは完了です。 システムの起動 IBRIX 9720 システムを起動するには、初めにハードウェアコンポーネントに電源を投入し、次 に 9000 ソフトウェアを起動します。 システムハードウェアの電源投入 システムハードウェアに電源を投入するには、次の手順を実行します。 1. 9100cx ディスクキャパシティブロックの電源を入れます。 2. 9100c コントローラーの電源を入れます。 3. すべてのコントローラーが 7 セグメントディスプレイに “on” と表示するまで待ちます。 4. ファイルサービングノードの電源を入れます。 停電後の電源投入 停電が起きた場合、電気が復旧すると、すべてのハードウェアの電源が一度に入ります。 スト レージが利用可能になる前にファイルサービングノードが起動し、ファイルシステムのマウン トを妨げます。 これを直すために、すべてのコントローラーが 7 セグメントディスプレイに “on” と表示するまで待ってから、ファイルサービングノードを再起動します。 これによりファ イルシステムは自動的にマウントされます。 IBRIX ソフトウェアの起動 IBRIX ソフトウェアを起動するには、次の手順を実行します。 1. アクティブな Fusion Manager をホストしているノードの電源を投入します。 2. ファイルサービングノードの電源を投入します (* ルートセグメント = セグメント 1、可 能な場合オーナーの電源を最初に投入)。 3. GUI でノードを監視し、すべてのノードで次のコマンドの出力が UP であることがレポー トされるまで待機します。 ibrix_server -l 4. ファイルシステムをマウントしてその内容を確認します。 アクティブな Fusion Manager をホストしているファイルサービングノードで、次のコマンドを実行します。 ibrix_mount -f fs_name -m <mountpoint> Linux 9000 クライアントで、次のコマンドを実行します。 ibrix_lwmount -f fsname -m <mountpoint> 106 システムのメンテナンス 5. ファイルサービングノード上で高可用性機能を有効化します。 アクティブな Fusion Manager をホストしているファイルサービングノードで、次のコマンドを実行します。 ibrix_server -m 6. パッシブ状態のアジャイル Fusion Manager をホストしているノード上で、コンソールの モードを passive に戻します。 ibrix_fm -m passive これで、IBRIX ソフトウェアを使用できるようになり、ファイルシステムにアクセスできます。 ファイルサービングノードの電源オン/オフ 適切に構成された電源にファイルサービングノードが接続されている場合は、ノードの電源の オン/オフまたはリセットをリモートで実行できます。 サービスの中断を防止するには、ノー ドのスタンバイを設定しておき (「クラスターの高可用性の構成」 (42 ページ) を参照)、電源 を切断する前にノードを手動でフェイルオーバーします (「サーバーの手動フェイルオーバー」 (51 ページ) を参照)。 ファイルサービングノードの電源をリモートで切断しても、フェイル オーバーはトリガーされません。 ファイルサービングノードの電源を投入するか、切断するか、またはノードをリセットするに は、次のコマンドを使用します。 ibrix_server -P {on|reset|off} -h HOSTNAME ローリングリブートの実行 ローリングリブート手順は、クラスターのオンライン状態を保管したまま、クラスター内にお けるすべてのファイルサービングノードの再起動を可能にします。 手順を開始する前に、各 ファイルサービングノードにバックアップノードが存在していること、および IBRIX 高可用性 が有効であることを確認してください。 スタンバイバックアップペアの作成の詳細について は、「クライアントアクセス用の仮想インターフェイスの構成」 (36 ページ) および「クラス ターの高可用性の構成」 (42 ページ) を参照してください。ペアとなる各サーバーは、もう一 方のサーバーのスタンバイとなります。 次のいずれかのスキームを使用して再起動を行います。 • ファイルサービングノードを 1 つずつ再起動する。 • ファイルサービングノードを 2 つのグループに分割する。その際、1 番目のグループの バックアップが 2 番目のグループに存在し、2 番目のグループのバックアップが 1 番目 のグループに存在するようにする。 これで、1 つのグループを同時に再起動できます。 ローリングリブートを実行するには、各ファイルサービングノードについて以下の手順に従い ます。 1. Linux から直接ノードを再起動します (GUI の電源オフ機能は、ファイルサービングサービ スのフェイルオーバーをトリガーしないため使用しません)。 ノードはそのバックアップ にフェイルオーバーします。 2. 再起動したノードが稼働状態になったことが GUI でレポートされるまで待機します。 3. GUI を通じてノードをフェイルバックし、サービスをバックアップからこのノードに戻し ます。 バックアップノードで次のコマンドを実行します。 ibrix_server -f -U -h HOSTNAME HOSTNAME は、再起動を行ったノードの名前です。 プロセスの開始と停止 プロセスを、開始、停止、および再開することが可能です。また、IBRIX ソフトウェア内部の 機能を実行するプロセスのステータスを表示できます。 さらに、マシン上での PostgreSQL の 動作は、次のコマンドで制御できます。 PostgreSQL サービスは、/usr/local/ibrix/init/ に用意されています。 ファイルサービングノードの電源オン/オフ 107 Fusion Manager 上のプロセスを開始/停止するか、またはプロセスのステータスを表示するに は、次のコマンドを使用します。 /etc/init.d/ibrix_fusionmanager [start | stop | restart | status] ファイルサービングノード上のプロセスを開始/停止するか、またはプロセスのステータスを 表示するには、次のコマンドを使用します。 ファイルサービングノードを停止、開始、または 再開した後で、フォローアップアクションが必要になることがあります。 /etc/init.d/ibrix_server [start | stop | restart | status] 9000 クライアント上のプロセスを開始/停止するか、またはプロセスのステータスを表示する には、次のコマンドを使用します。 /etc/init.d/ibrix_client [start | stop | restart | status] ファイルサービングノードおよび 9000 クライアントのチューニング 通常、HP サポートがクラスターのインストール時にファイルサービングノードのチューニン グパラメーターを設定します。これらを変更する必要があるのは、特別な状況だけです。 注意: ホストチューニングパラメーターのデフォルト値は、ほとんどのクラスター環境に適 したものになっています。 パラメーター値を変更すると、ファイルシステムのパフォーマンス が変化することがあります。このため、パラメーター値を変更する前に十分に注意を払うか、 HP テクニカルサポートの指示の下でのみ変更を行うことをお勧めします。 ファイルサービングノード上では、ホストチューニングの変更が即時に実行されます。 9000 クライアントの場合、チューニングを変更するコマンドはいったん Fusion Manager に保存さ れます。 クライアント上で IBRIX ソフトウェアサービスを開始するとき、クライアントは適用 する必要のあるホストチューニングを Fusion Manager に照会し、そのチューニングを適用し ます。 IBRIX ソフトウェアサービスがクライアント上ですでに稼働している場合は、クライア ント上で ibrix_client または ibrix_lwhost --a を実行するか、もしくはクライアント を再起動すると、クライアントから Fusion Manager への照会を強制的に実行できます。 ibrix_lwhost コマンドを使用すると、9000 Linux クライアントに対して設定されているホ ストチューニングをローカルにオーバーライドできます。 GUI でのファイルサービングノードのチューニング Modify Server Wizard を使用すると、クラスター内の 1 つ以上のサーバーをチューニングでき ます。 ウィザードを開くには、ナビゲーターから [Servers] を選択し、[Summary] パネルから [Tuning Options] を選択します。 [General Tunings] ダイアログボックスでは、通信プロトコル (TCP または UDP) および管理ス レッドとサーバースレッドの数を指定します。 108 システムのメンテナンス [IAD Tunings] ダイアログボックスでは、IBRIX 管理デーモンを構成します。 [Module Tunings] ダイアログボックスでは、サーバーの処理に影響する高度なパラメーターを 調整します。 ファイルサービングノードおよび 9000 クライアントのチューニング 109 [Servers] ダイアログボックスで、チューニングを適用するサーバーを選択します。 CLI からのファイルサービングノードのチューニング ホストチューニングに使用するすべての Fusion Manager コマンドには、1 つ以上のホストグ ループを指定する-h HOSTLIST オプションがあります。 ホストチューニングをホストグルー プに対して設定すると、複数のクライアントを一度にチューニングできるので便利です。 すべ 110 システムのメンテナンス てのクライアントに対して同じホストチューニングを設定するには、デフォルトの clients ホストグループを指定します。 注意: ホストチューニング設定を変更すると、ファイルシステムのパフォーマンスが変化し ます。 ホストチューニング設定を変更する前に、HP サポートにお問い合わせください。 ホストチューニング設定を表示または変更するには、ibrix_host_tune コマンドを使用しま す。 • 使用が許可されているすべてのホストチューニングについてデフォルト値と有効範囲のリ ストを表示するには、次のように入力します。 ibrix_host_tune -L • ノードまたはホストグループに対してホストパラメーターをチューニングするには、次の ように入力します。 ibrix_host_tune -S {-h HOSTLIST|-g GROUPLIST} -o OPTIONLIST OPTIONLIST の値を取得するには、HP サポートにお問い合わせください。 オプション は、オプション = 値ペアのカンマ区切りリストとして指定します。 すべてのクライアン トに対してホストチューニングを設定するには、-g clients オプションを含めます。 • ノードまたはホストグループに対してホストパラメーターをデフォルト値にリセットする には、次のように入力します。 ibrix_host_tune -U {-h HOSTLIST|-g GROUPLIST} [-n OPTIONS] すべてのファイルサービングノード、9000 クライアント、およびホストグループに対し てすべてのオプションをリセットするには、-h HOSTLIST オプションおよび -n OPTIONS オプションを省略します。 すべてのクライアントに対してホストチューニングをリセット するには、-g clients オプションを含めます。 デフォルトにリセットされる値は、-h HOSTLIST 引数の指定内容によって異なります。 • ◦ ファイルサービングノード: ファイルサービングノードのデフォルトホストチューニ ングが復元されます。 ◦ 9000 クライアント: デフォルトの clients ホストグループに適用されているホスト チューニングが復元されます。 ◦ ホストグループ: 指定したホストグループの親に適用されているホストチューニング が復元されます。 ファイルサービングノードおよび 9000 クライアントのホストチューニング設定のリスト を表示するには、次のコマンドを使用します。 すべてのホストのチューニングを表示する には、-h 引数を省略します。 すべてチューニングを表示するには、-n 引数を省略しま す。 ibrix_host_tune -l [-h HOSTLIST] [-n OPTIONS] • ノードおよびホストグループに対して通信プロトコルを設定するには、次のコマンドを使 用します。 すべての 9000 クライアントに対してプロトコルを設定するには、-g clients オプションを使用します。 • ibrix_host_tune -p {UDP|TCP} {-h HOSTLIST| -g GROUPLIST} • ファイルサービングノード、ホストグループ、および 9000 クライアントに対してサー バースレッドを設定するには、次のように入力します。 ibrix_host_tune -t THREADCOUNT {-h HOSTLIST| -g GROUPLIST} • ファイルサービングノード、ホストグループ、および 9000 クライアントに対して管理ス レッドを設定するには、次のように入力します。 すべての 9000 クライアントに対して 管理スレッドを設定するには、-g clients オプションを含めます。 ファイルサービングノードおよび 9000 クライアントのチューニング 111 ibrix_host_tune -a THREADCOUNT {-h HOSTLIST| -g GROUPLIST} 9000 クライアントのローカルチューニング Linux クライアント: ホストパラメーターをチューニングするには、ibrix_lwhost コマンド を使用します。 たとえば、通信プロトコルを設定するには、次のように入力します。 ibrix_lwhost --protocol -p {tcp|udp} デフォルト値から変更されたホストチューニングパラメーターのリストを表示するには、次の ように入力します。 ibrix_lwhost --list 上記以外にも使用可能なオプションがあります。詳細については、『HP IBRIX 9000 Storage CLI リファレンスガイド』 に記載されている 「ibrix_lwhost」コマンドの項を参照してく ださい。 Windows クライアント: Windows 9000 クライアント GUI 上で [Tune Host] タブをクリックし ます。 優先する NIC (デフォルトではクラスターインターフェイス)、通信プロトコル (UDP ま たは TCP)、使用するサーバースレッドの数などのパラメーターをチューニングできます。 必 要に応じてクライアントのオンラインヘルプを参照してください。 セグメントの管理 ファイルシステムが作成されると、そのファイルシステムにアクセスするサーバーに、ファイ ルシステムに使用するストレージセグメントのオーナーシップが割り当てられます。 各サー バーが、自分がオーナーシップを持つセグメントの管理を担当します。 クラスターが拡張されると、9000 ソフトウェアは次のような方法で、適切なロードバランス と使用率を維持しようとします。 • サーバーが追加されると、既存のセグメントのオーナーシップは、利用可能なサーバー間 で再配分されます。 • ストレージが追加されると、新しいセグメントのオーナーシップは、利用可能なサーバー 間で配分されます。 セグメントを手動で管理する必要がある場合、下記の操作が使用できます。 • セグメントの移行。 この操作では、セグメントのオーナーシップを他のサーバーに移行し ます。 たとえば、あるサーバーが過負荷になったり利用できなくなったりした場合に、そ のセグメントを、同じストレージを認識できる別のサーバーに移動できます。 • セグメントを再バランス。 この操作では、ファイルがセグメント間に再配分されます。特 定のセグメントが満杯になってファイルシステムのパフォーマンスに影響する場合は、こ の操作を使用できます。 詳細については、「ファイルシステムのメンテナンス」を参照し てください。 • セグメントの退避。 この操作は、セグメント内のデータを別のセグメントに移動します。 一般的には、ストレージをクラスターから削除する前に、この操作を使用します。 セグメントの移行 セグメントの移行で移動されるのはセグメントのオーナーシップだけであり、ストレージシス テム内の物理位置からセグメントが移動されるわけではありません。 セグメントのオーナー シップは物理セグメント自体に記録されています。オーナーシップデータは、Fusion Manager からファイルサービングノードおよび 9000 クライアントに渡されるメタデータに含まれてい ます。これにより、ノードおよびクライアントがセグメントを見つけることができます。 GUI でセグメントを移行するには、[Filesystems] パネルでファイルシステムを選択し、下部の ナビゲーターから [Segments] を選択してから、[Segments] パネルの [Ownership/Migration] を クリックして、Segment Ownership Migration Wizard を開きます。 112 システムのメンテナンス [Change Ownership] ダイアログボックスに、クラスター内のサーバーのステータスが報告さ れ、各サーバーが所有しているセグメントのリストが表示されます。 ダイアログボックスの [Segment Properties] セクションで、オーナーシップを移動するセグメントを選択し、[Change Owner] をクリックします。 セグメントの管理 113 セグメントの新しいオーナーは、元のオーナーと同じストレージを認識できなければなりませ ん。 [Change Segment Owner] ダイアログボックスに、選択したセグメントを認識できるサー バーのリストが表示されます。 新しいオーナーにするサーバーを、このリストから選択しま す。 [Summary] ダイアログボックスには、指定したセグメントの移行が表示されます。 [Back] をク リックして必要な変更を加えるか、[Finish] をクリックして操作を完了します。 CLI からセグメントのオーナーシップを移行するには、次のコマンドを使用します。 特定のセグメントのオーナーシップを移行する ibrix_fs -m -f FSNAME -s LVLIST -h HOSTNAME [-M] [-F] [-N] 移行を強制的に実行するには、-M を含めます。 ソースホストを更新せずに移行するには、-F を含めます。 サーバーのヘルスチェックを省略するには、-N を含めます。 次のコマンドは、ファイルシステム ifs1 内のセグメント ilv2 および ilv3 のオーナーシッ プを server2 に移行します。 ibrix_fs -m -f ifs1 -s ilv2,ilv3 -h server2 特定のサーバーが所有するすべてのセグメントのオーナーシップを移行する ibrix_fs -m -f FSNAME -H HOSTNAME1,HOSTNAME2 [-M] [-F] [-N] たとえば、ファイルシステム ifs1 内のすべてのセグメントのオーナーシップを、server1 から server2 へと移行します。 ibrix_fs -m -f ifs1 -H server1,server2 セグメントの退避とクラスターからのストレージの削除 IBRIX ソフトウェアファイルシステムで使用されているストレージを削除する前に、ファイル システムデータを格納しているセグメント (または論理ボリューム) を退避させる必要がありま す。 この手順は、データをファイルシステム内の別のセグメントに移動しますが、ファイルシ ステムにアクセスするユーザーまたはアプリケーションには透過的に行われます。 セグメント を退避させる際には、次の制限事項を認識しておく必要があります。 114 • 退避タスクの実行中は、他のタスクをファイルシステム上で実行できません。 同様に、別 のタスクがファイルシステム上で実行中の場合は、先に実行しているタスクが完了するま で退避タスクをスケジュールできません。 • ファイルシステムは静止状態 (セグメントの退避中にアクティブな I/O が存在しない) で ある必要があります。 ファイルシステムがアクティブである場合にこのユーティリティを 実行すると、データの整合性が失われるか、データが失われる可能性があります。 システムのメンテナンス セグメントを退避させるには、次の手順を実行します。 1. 物理ボリューム上に存在する削除対象セグメントを特定します。 GUI ナビゲーターで [Storage] を選択します。 影響を受ける物理ボリュームのファイルシステムおよびセグメ ント番号をメモします。 2. 影響を受けるセグメントから退避したデータを収容可能な、ファイルシステム上の別のセ グメントを特定します。 GUI でファイルシステムを選択して、下側のナビゲーターから [Segments] を選択します。 十分なスペースを持つセグメントが存在しない場合は、ファイ ルシステムにセグメントを追加します。 3. セグメントを退避させます。 GUI でファイルシステムを選択し、下部のナビゲーターから [Segments] を選択してから、[Segments] パネルの [Rebalance/Evacuate] をクリックしま す。 Segment Rebalance and Evacuation Wizard が開いたら、[Evacuate] をモードとして 選択します。 [Evacuate Advanced] ダイアログボックスで退避するセグメントを指定し、[Source] をク リックします。 次に、そのセグメントからのデータを受け取るセグメントを指定し、 [Destination] をクリックします。 ファイルシステムが階層化されている場合は、ソースセ グメントと同じ階層のターゲットセグメントを選択してください。 セグメントの管理 115 [Summary] ダイアログボックスに、退避するソースセグメントとターゲットセグメントの リストが表示されます。 [Back] をクリックして必要な変更を加えるか、[Finish] をクリッ クして退避を開始します。 [Active Tasks] パネルに、退避タスクのステータスが表示されます。 タスクが完了すると、 [Inactive Tasks] パネルに追加されます。 4. 退避が完了したら、次のコマンドを実行して、ファイルシステムのセグメントの使用を中 止します。 ibrix_fs -B -f FSNAME -n BADSEGNUMLIST ストレージに関連付けられているセグメント番号は再利用されません。 基盤となる LUN またはボリュームは別のファイルシステムで再利用されるか、この手順の完了時にスト レージソリューションから物理的に削除されます。 5. ファイルシステム上でクォータが無効化されている場合は、ファイルシステムをマウント 解除してから次のコマンドを使用してクォータを再有効化します。 ibrix_fs -q -E -f FSNAME 次に、ファイルシステムを再マウントします。 CLI を使用してセグメントを退避させるには、ibrix_evacuate コマンドを使用します。この コマンドの説明は、『HP IBRIX 9000 Storage CLI リファレンスガイド』 に記載されています。 セグメント退避のトラブルシューティング 116 • セグメントの退避に失敗した場合、失敗したセグメント上で ibrix_fsck コマンドの フェーズ 1 を corrective モードで実行することをお勧めします。 詳細については、『HP IBRIX 9000 Storage File System ユーザーガイド』 の「ファイルシステムのチェックと修 復」を参照してください。 • セグメントに、3.64TB より大きいチャンクファイルが含まれている場合、セグメントの 退避プロセスに失敗します。これらのチャンクファイルは手動で移動する必要がありま す。 退避プロセスでは、ログが生成され、セグメント上の移動されなかったチャンクファ イルをレポートします。 このログファイルは、管理コンソールログのディレクトリに保存 システムのメンテナンス され (デフォルトは /usr/local/ibrix/log)、Rebalance_<jobID>-<FS-ID>.info という名前が付けられます (例: Rebalance_29-ibfs1.info)。 inum2name コマンドを実行して、チャンクファイルのシンボリック名を特定します。 # ./inum2name --fsname=ibfs 500000017 ibfs:/sliced_dir/file3.bin ファイルの名前を取得したら、cp などのコマンドを使用してファイルを手動で移動しま す。 次に、セグメントの退避プロセスを再実行します。 アナライザーログに、セグメントに残されているチャンクのリストが表示されます。 この ログの例を次に示します。 2012-03-13 11:57:35:0332834 | <INFO> | 1090169152 | segment 3 not migrated chunks 462 2012-03-13 11:57:35:0332855 | <INFO> | 1090169152 | segment 3 not migrated replicas 0 2012-03-13 11:57:35:0332864 | <INFO> | 1090169152 | segment 3 not migrated files 0 2012-03-13 11:57:35:0332870 | <INFO> | 1090169152 | segment 3 not migrated directories 0 2012-03-13 11:57:35:0332875 | <INFO> | 1090169152 | segment 3 not migrated root 0 2012-03-13 11:57:35:0332880 | <INFO> | 1090169152 | segment 3 orphan inodes 0 2012-03-13 11:57:35:0332886 | <INFO> | 1090169152 | segment 3 chunk: inode 3099CC002.8E2124C4, poid 3099CC002.8E2124C4, primary 807F5C010.36B5072B poid 807F5C010.36B5072B 2012-03-13 11:57:35:0332894 | <INFO> | 1090169152 | segment 3 chunk: inode 3099AC007.8E2125A1, poid 3099AC007.8E2125A1, primary 60A1D8024.42966361 poid 60A1D8024.42966361 2012-03-13 11:57:35:0332901 | <INFO> | 1090169152 | segment 3 chunk: inode 3015A4031.C34A99FA, poid 3015A4031.C34A99FA, primary 40830415E.7793564B poid 40830415E.7793564B 2012-03-13 11:57:35:0332908 | <INFO> | 1090169152 | segment 3 chunk: inode 3015A401B.C34A97F8, poid 3015A401B.C34A97F8, primary 4083040D9.77935458 poid 4083040D9.77935458 2012-03-13 11:57:35:0332915 | <INFO> | 1090169152 | segment 3 chunk: inode 3015A4021.C34A994C, poid 3015A4021.C34A994C, primary 4083040FF.7793558E poid 4083040FF.7793558E inum2name ユーティリティを使用して、プライマリ inode ID をファイル名に変換しま す。 クラスターからノードを削除する クラスターからノードを削除するには、以下の手順に従ってください。 1. 削除するノードがパッシブな Fusion Manager をホストしている場合、手順 2 に進みま す。ノードがアクティブな Fusion Manager をホストしている場合、Fusion Manager を nofmfailover モードに移行します。 ibrix_fm -m nofmfailover 2. アクティブな Fusion Manager をホストしているノードで、削除するノードの登録を解除 します。 ibrix_fm -u server_name 3. ノードから IBRIX ソフトウェアをアンインストールします。 ./ibrixinit -u このコマンドは、ファイルサービングノードと Fusion Manager ソフトウェアの両方を削 除します。 これでノードがクラスターから完全に削除されます。 クラスターからノードを削除する 117 ネットワークのメンテナンス クラスターインターフェイスとユーザーネットワークインターフェイス IBRIX ソフトウェアは、次の論理ネットワークインターフェイスをサポートしています。 • クラスターネットワークインターフェイス: Fusion Manager トラフィック、サービング ノード間のトラフィック、およびサービングノードとクライアント間のトラフィックを転 送します。 1 つのクラスターで使用できるクラスターインターフェイスは 1 つだけです。 バックアップ用として、各ファイルサービングノードに 2 つのクラスター NIC を持たせ ることができます。 • ユーザーネットワークインターフェイス: ファイルサービングノードとクライアント間の トラフィックを伝送します。 複数のユーザーネットワークインターフェイスを使用できま す。 クラスターネットワークインターフェイスは、クラスターがインストールされると作成されま す (クラスターネットワークインターフェイスには仮想インターフェイスが使用されます)。 サ イトの要件に応じて、1 つ以上のユーザーネットワークインターフェイスが作成されている場 合があります。 必要に応じてユーザーネットワークインターフェイスを追加することもできま す。 ユーザーネットワークインターフェイスの追加 クラスターネットワークはファイルサービングノードと NFS/SMB/HTTP/FTP クライアントま たは 9000 クライアントのいずれかの間でトラフィックを転送できますが、このトラフィック を転送するためにユーザーネットワークインターフェイスを作成する必要が生じる場合があり ます。 クラスターが NFS/SMB/FTP/HTTP クライアントと 9000 クライアントの混在に対応す る必要がある場合、またはクライアントトラフィックを異なるネットワークに分離する必要が ある場合は、1 つ以上のユーザーネットワークが必要となります。 一般的には、ユーザーネッ トワークをプロトコル (NFS/SMB/HTTP/FTP) トラフィックに割り当てることが推奨されます。 クラスターネットワークは、NFS/CIFS フェイルオーバーに必要な仮想インターフェイス (VIF) をホストできないためです。 ユーザーネットワークには Gigabit Ethernet (またはより高速な) ポートを使用することをお勧めします。 サービングノードにユーザーネットワークインターフェイスを作成する場合は、ファイルシス テムの提供またはフェイルオーバーのために通信する必要のあるファイルサービングノード は、同じネットワーク上に存在している必要がある点に留意してください。 また、フェイル オーバーのペアとして設定されているノードは、同じネットワークインターフェイスに接続さ れている必要があります。 高可用性クラスターを実現するために、プロトコルトラフィックにはユーザーネットワークを 使用し、そのネットワークに自動フェイルオーバーを設定することをお勧めします (「クラス ターの高可用性の構成」 (42 ページ) を参照)。 この方法により、トラフィックの中断を防ぐこ とができます。 NFS トラフィック用にクラスターインターフェイスを使用している場合、ファ イルサービングノード上でこのインターフェイスに障害が発生すると、マウントされたファイ ルシステムにこのインターフェイスを使用してアクセスするすべてのプロトコルクライアント は、このファイルシステムへの接続が失われます。これらのプロトコルクライアントにはクラ スターに関する情報がなく、要求をスタンバイノードに再ルーティングできないからです。 リンクアグリゲーションと仮想インターフェイス ユーザーネットワークインターフェイスを作成する場合、リンクアグリゲーションを使用して 複数の物理的なリソースを単一の VIF に集結できます。 VIF では、サイズのより大きい物理リ ソースの中に多数の名前付きパスを定義できます。次の図に示すように、これらのパスのそれ ぞれについて個別に管理とルーティングを実施できます。 リンクアグリゲーションで求められ るルールおよび制限については、ネットワークインターフェイスベンダーのマニュアルを参照 してください。 118 システムのメンテナンス ファイルサービングノードのユーザーネットワークインターフェイスの指定 特定のファイルサービングノードのユーザーネットワークインターフェイスを登録するには、 ibrix_nic コマンドを使用します。 インターフェイス名 (IFNAME) には、eth1 のように英 数字とアンダースコアのみを使用できます。 ibrix_nic -a -n IFNAME -h HOSTLIST VIF を登録する場合は、物理インターフェイス名の末尾に VIF サフィックス (:nnnn) を追加し ます。 たとえば、次のコマンドでは、ファイルサービングノード s1.hp.com および s2.hp.com 上の物理ネットワークインターフェイス eth1 に対応する仮想インターフェイス eth1:1 を登録します。 ibrix_nic -a -n eth1:1 -h s1.hp.com,s2.hp.com ファイルサービングノード用のユーザーネットワークインターフェイスを登録すると、Fusion Manager がノードの IP アドレス、ネットマスク、および MAC アドレスを照会し、それらの 値を構成情報データベースにインポートします。 これらの値は、後から必要に応じて変更でき ます。 VIF を登録する場合は、Fusion Manager はノードに対して自動的に照会を行いません。 VIF を 自動フェイルオーバー構成のスタンバイネットワークインターフェイスとしてのみ使用する場 合は、ネットワークがその VIF に最初にフェイルオーバーされたときに Fusion Manager がノー ドへの照会を行います。 スタンバイ以外の目的で使用する場合は、VIF の IP アドレスとネット マスクを構成情報データベースに手動で入力する必要があります (「構成データベースにネッ トワークインターフェイスオプションを設定する」 (119 ページ) を参照)。 Fusion Manager は VIF の MAC アドレスを必要としません。 ユーザーネットワークインターフェイスを 9000 クライアントトラフィック用に作成した場合 は、さらに、ネットワークを使用する 9000 クライアントでそのネットワークを優先する必要 があります (「ネットワークインターフェイスの優先設定」 (120 ページ) を参照)。 構成データベースにネットワークインターフェイスオプションを設定する VIF を使用可能にするには、次のコマンドを実行して VIF の IP アドレスとネットマスクを指定 します。 このコマンドを使用して、ネットワークの特定の ifconfig オプションを変更する こともできます。 ibrix_nic -c -n IFNAME -h HOSTNAME [-I IPADDR] [-M NETMASK] [-B BCASTADDR] [-T MTU] たとえば、ファイルサービングノード s4.hp.com のインターフェイス eth3 に対してネット マスク 255.255.0.0 およびブロードキャストアドレス 10.0.0.4 を設定するには、次のように 入力します。 ibrix_nic -c -n eth3 -h s4.hp.com -M 255.255.0.0 -B 10.0.0.4 ネットワークのメンテナンス 119 ネットワークインターフェイスの優先設定 ファイルサービングノードまたは 9000 クライアントのユーザーネットワークインターフェイ スを作成したら、これらのノードおよびクライアントのインターフェイスの優先設定を行う必 要があります (NFS クライアントおよび SMB クライアントでは、マウント時に正しいユーザー ネットワークインターフェイスを選択できるようになっているため、ユーザーネットワークイ ンターフェイスの優先設定が不要です)。 ファイルサービングノード上では、ネットワークインターフェイスの優先設定がただちに実行 されます。 9000 クライアントの場合、インターフェイスを優先設定するコマンドはいったん Fusion Manager に保存されます。 IBRIX ソフトウェアサービスがクライアント上で開始される と、クライアントは優先設定されているネットワークインターフェイスを Fusion Manager に 照会して、そのインターフェイスを使用します。 サービスが 9000 クライアント上ですでに 稼働しているときにネットワークを優先設定した場合は、クライアント上で ibrix_lwhost --a を実行するか、またはクライアントを再起動すると、クライアントから Fusion Manager への照会を強制的に実行できます。 ファイルサービングノードまたは Linux 9000 クライアントで優先するネットワークイ ンターフェイスの設定 下の 1 番目のコマンドでは、ファイルサービングノードで優先するネットワークインターフェ イスを設定します。2 番目のコマンドでは、クライアントで優先するネットワークインター フェイスを設定します。 ibrix_server -n -h SRCHOST -A DESTHOST/IFNAME ibrix_client -n -h SRCHOST -A DESTHOST/IFNAME 指定したネットワークインターフェイス (IFNAME) 経由でファイルサービングノードまたは 9000 クライアントが接続する先のターゲットホストのそれぞれについて、このコマンドを 1 回ずつ実行します。 たとえば、ファイルサービングノード s1.hp.com からファイルサービン グノード s2.hp.com へのトラフィックでネットワークインターフェイス eth3 を優先する には、次のように入力します。 ibrix_server -n -h s1.hp.com -A s2.hp.com/eth3 Windows 9000 クライアントで優先するネットワークインターフェイスの設定 クラスター上に複数のユーザーネットワークインターフェイスが設定されている場合、このク ライアントの優先インターフェイスを選択する必要があります。 Windows 9000 クライアン ト GUI の [Tune Host] タブで、次の例に示すようにインターフェイスを指定します。 120 システムのメンテナンス ホストグループで優先するネットワークインターフェイスの設定 ホストグループを指定することで、複数の 9000 クライアントの優先インターフェイス設定を 同時に行えます。 あるユーザーネットワークインターフェイスをすべての 9000 クライアン トで優先するには、clients ホストグループを使用します。 ホストグループで優先するネッ トワークインターフェイスを設定した後、個々の 9000 クライアント上で ibrix_lwhost を 使用して、その優先設定をオーバーライドすることが可能です。 ホストグループで優先するネットワークインターフェイスを設定するには、次のコマンドを使 用します。 ibrix_hostgroup -n -g HOSTGROUP -A DESTHOST/IFNAME ターゲットホスト (DESTHOST) としてホストグループを指定することはできません。 たとえ ば、すべての 9000 クライアント (clients ホストグループ) からファイルサービングノード s2.hp.com へのトラフィックでネットワークインターフェイス eth3 を優先するには、次の ように入力します。 ibrix_hostgroup -n -g clients -A s2.hp.com/eth3 ネットワークインターフェイスの優先解除 ファイルサービングノードまたは 9000 クライアントをクラスターインターフェイスに戻すに は、ネットワークインターフェイスの優先設定を解除します。 下の 1 番目のコマンドでは、 ファイルサービングノードに対してネットワークインターフェイスの優先設定を解除します。 2 番目のコマンドでは、クライアントに対してネットワークインターフェイスの優先設定を解 除します。 ibrix_server -n -h SRCHOST -D DESTHOST ibrix_client -n -h SRCHOST -D DESTHOST ホストグループに対してネットワークインターフェイスの優先設定を解除するには、次のコマ ンドを使用します。 ibrix_client -n -g HOSTGROUP -A DESTHOST ネットワークのメンテナンス 121 ネットワークの変更 この項では、IP アドレスの変更方法、クラスターインターフェイスの変更方法、ルーティング テーブルエントリーの管理方法、およびネットワークインターフェイスの削除方法について説 明します。 Linux 9000 クライアントの IP アドレスの変更 Linux 9000 クライアントの IP アドレスを変更した場合は、Fusion Manager がクライアントと 通信できるようにするために、IBRIX ソフトウェアの設定を更新して新しい情報を反映させる 必要があります。 変更手順は次のとおりです。 1. ファイルシステムをクライアントからマウント解除します。 2. クライアントの IP アドレスを変更します。 3. クライアントを再起動するか、ネットワークインターフェイスカードをリセットします。 4. 次のコマンドを使用して、変更前の IP アドレスを構成情報データベースから削除します。 ibrix_client -d -h CLIENT 5. 次のコマンドを使用して、クライアントを Fusion Manager に再登録します。 register_client -p console_IPAddress -c clusterIF –n ClientName 6. ファイルシステムをクライアントに再マウントします。 クラスターインターフェイスの変更 ネットワークの構成を変更した場合は、必要に応じてクラスターインターフェイスを変更しま す。 新しいクラスターインターフェイスを選択するときは、以下のルールが適用されます。 • Fusion Manager は、クラスターネットワークインターフェイスを使用するすべてのマシン (スタンバイサーバーを含む) に接続されている必要があります。 各ファイルサービング ノードおよび 9000 クライアントは、同じクラスターネットワークインターフェイスを通 じて、Fusion Manager に接続されている必要があります。 クラスターインターフェイス には、Gigabit (またはより高速な) Ethernet ポートを使用する必要があります。 • 9000 クライアントは、クライアントのデータを管理するファイルサービングノードおよ びそれらのサーバーのスタンバイにネットワーク接続されている必要があります。 このト ラフィックでは、クラスターネットワークインターフェイスか、またはユーザーネット ワークインターフェイスを使用できます。 新しい仮想クラスターインターフェイスを指定するには、次のコマンドを使用します。 ibrix_fm -c <VIF IP address> –d <VIF Device> -n <VIF Netmask> -v cluster [–I <Local IP address_or_DNS hostname>] ルーティングテーブルエントリーの管理 IBRIX Software では、システムルーティングテーブル内のネットワークインターフェイスのそ れぞれにつき、ルーティングを 1 つサポートします。 あるインターフェイスに対して新しい ルーティングを入力すると、そのインターフェイスに指定されている既存のルーティングテー ブルエントリーが上書きされます。 ルーティングテーブルエントリーの追加 ルーティングテーブルエントリーを追加するには、次のコマンドを使用します。 ibrix_nic -r -n IFNAME -h HOSTNAME -A -R ROUTE 次のコマンドでは、ファイルサービングノード s2.hp.com 上の仮想インターフェイス eth2:232 に対してルーティングを追加し、すべてのトラフィックをゲートウェイ gw.hp.com 経由で送信します。 122 システムのメンテナンス ibrix_nic -r -n eth2:232 -h s2.hp.com -A -R gw.hp.com ルーティングテーブルエントリーの削除 ルーティングテーブルエントリーを削除した場合に代わりに適用されるデフォルトのエント リーはありません。 新しい代替のルーティングを手動で追加する必要があります。 ルーティ ングを削除するには、次のコマンドを使用します。 ibrix_nic -r -n IFNAME -h HOSTNAME -D 次のコマンドでは、ファイルサービングノード s2.hp.com 上の仮想インターフェイス eth0:1 に関するルーティングテーブルエントリーをすべて削除します。 ibrix_nic -r -n eth0:1 -h s2.hp.com -D ネットワークインターフェイスの削除 ファイルサービングノード上でクラスターインターフェイスとして使用しているインターフェ イスを削除する場合は、事前に新しいインターフェイスをクラスターインターフェイスとして 割り当てておく必要があります。 「クラスターインターフェイスの変更」 (122 ページ) を参照 してください。 ネットワークインターフェイスを削除するには、次のコマンドを使用します。 ibrix_nic -d -n IFNAME -h HOSTLIST 次のコマンドでは、インターフェイス eth3 をファイルサービングノード s1.hp.com および s2.hp.com から削除します。 ibrix_nic -d -n eth3 -h s1.hp.com,s2.hp.com ネットワークインターフェイス情報の表示 ibrix_nic コマンドを引数なしで実行すると、すべてのファイルサービングノード上のすべ てのインターフェイスのリストが表示されます。 特定のホスト上のインターフェイスだけを表 示するには、-h オプションを含めます。 ibrix_nic -l -h HOSTLIST 次の表は、出力フィールドについて説明しています。 フィールド 説明 BACKUP HOST スタンバイネットワークインターフェイスに接続されているファイルサービングノー ド。 BACKUP-IF スタンバイネットワークインターフェイス。 HOST ファイルサービングノード。 IFNAME このファイルサービングノード上のネットワークインターフェイス。 IP_ADDRESS この NIC の IP アドレス。 LINKMON この NIC に対する監視が有効化されているかどうか。 MAC_ADDR この NIC の MAC アドレス。 ROUTE この NIC が使用するルーティングテーブル内の IP アドレス。 STATE ネットワークインターフェイスの状態。 TYPE ネットワークのタイプ (クラスターまたはユーザー)。 ibrix_nic を -i オプションとともに使用すると、インターフェイスに関する詳細情報が表 示されます。 対象を特定のホストに限定するには、-h オプションを使用します。 特定のイン ターフェイスに関する情報だけを表示するには、-n オプションを使用します。 ibrix_nic -i [-h HOSTLIST] [-n NAME] ネットワークのメンテナンス 123 11 アジャイル Fusion Manager 構成への移行 アジャイル Fusion Manager 構成では、1 つのアクティブな Fusion Manager と 1 つのパッシ ブな Fusion Manager が、クラスター内の異なるファイルサービングノードにインストールさ れています。 移行手順により、現在の管理サーバーブレードがアジャイル Fusion Manager の ホストとして構成され、アジャイル Fusion Manager のもう一方のインスタンスがファイルサー ビングノードにインストールされます。 アジャイル Fusion Manager 構成への移行完了後、オ リジナルの管理サーバーブレードを次のように使用できます。 • ブレードをアジャイル Fusion Manager のホストとしてのみ使用。 • ブレードをファイルサービングノードに変換 (高可用性に対応するには、クラスターのファ イルサービングノードは偶数である必要があります)。 ブレードはアジャイル Fusion Manager のホストとして使用を続けられます。 移行を実行するためには、IBRIX インストールコードが必要です。 出荷時の設定では、このコー ドは /tmp/X9720/ibrix に存在します。 このディレクトリが存在していない場合は、HP サ ポート Web サイトでお使いのストレージに対応したインストールコードをダウンロードして ください。 重要: この移行手順は、HP IBRIX ソフトウェア 5.4 以降を実行しているクラスターにのみ使 用できます。 設定のバックアップ アジャイル Fusion Manager 構成への移行を開始する前に、次のコマンドを使用して管理コン ソールの設定を手動でバックアップしてください。 ibrix_fm -B バックアップアーカイブは、/usr/local/ibrix/tmp/fmbackup.zip に生成されます。 リカバリが必要な場合に備えて、このアーカイブを安全かつ離れた場所にコピーしてくださ い。 移行の実行 現在 Fusion Manager をホストしているブレードについて、次の手順を実行します。 1. アジャイル Fusion Manager は、仮想インターフェイス (VIF) IP アドレスを使用してフェイ ルオーバーを可能にし、ファイルサービングノードおよび IBRIX クライアントの中断を防 いでいます。 既存のクラスター NIC IP アドレスが、永続的な VIF IP アドレスとなります。 現在実行している管理コンソールのクラスター NIC IP アドレスとして使用する未使用の IP アドレスを特定します。 2. サーバーの高可用性機能を無効化します。 ibrix_server –m -U 3. 可能な場合、ssh を使用して、ユーザーネットワーク上の管理コンソールに接続します。 • /etc/sysconfig/network-scripts/ifcfg-bond0 ファイルを編集します。 IP アドレスを、新規の未使用の IP アドレスに変更して、ONBOOT=Yes であることを確 認します。 • bond1 ユーザーネットワークを介して IBRIX クライアントに接続するように優先設定 している場合、/etc/sysconfig/network-scripts/ifcfg-bond1 ファイルを 編集します。 IP アドレスを、別の未使用の予約済み IP アドレスに変更します。 次のいずれかのコマンドを実行します。 /etc/init.d/network restart service network restart 124 アジャイル Fusion Manager 構成への移行 新しいローカル IP アドレスに Ping できることを確認します。 4. アジャイル Fusion Manager を構成します。 ibrix_fm -c <cluster_VIF_addr> -d <cluster_VIF_device> –n <cluster_VIF_netmask> -v cluster -I <local_cluster_IP_addr> このコマンドの <cluster_VIF_addr> は、元の管理コンソールの古いクラスター IP ア ドレス、 <local_cluster_IP_addr> は、確保した新しい IP アドレスです。 例を次に示します。 [root@x109s1 ~]# ibrix_fm -c 172.16.3.1 -d bond0:1 -n 255.255.248.0 -v cluster -I 172.16.3.100 Command succeeded! 元のクラスター IP アドレスが、新しく作成されたクラスター VIF デバイス (bond0:1) に 設定されます。 5. 手順 3 でインターフェイス bond1:0 を作成した場合、手順 3 で使用したユーザー VIF IP アドレスと VIF デバイスを指定して、ユーザーネットワーク VIF を設定します。 注記: この手順は、SMB/NFS クライアントには適用されません。 IBRIX クライアントを 使用していない場合は、この手順をスキップできます。 ユーザーネットワーク VIF を設定します。 ibrix_fm -c <user_VIF_IP> -d <user_VIF_device> -n <user_VIF_netmask> -v user 例を次に示します。 [root@x109s1 ~]# ibrix_fm -c 10.30.83.1 -d bond1:0 -n 255.255.0.0 -v user Command succeeded 6. アジャイル Fusion Manager (アジャイル FM) をクラスターに登録します。 ibrix_fm –R <FM hostname> -I <local_cluster_ipaddr> 注記: ローカルのアジャイル Fusion Manager 名が /etc/ibrix/fminstance.xml ファ イル内に存在していることを確認してください。 次のコマンドを実行します。 grep –i current /etc/ibrix/fminstance.xml <property name="currentFmName" value="ib50-86"></property> 7. アジャイル Fusion Manager から、定義が正しく設定されていることを確認します。 grep –i vif /etc/ibrix/fusion.xml 以下のような出力が得られます。 <property name="fusionManagerVifCheckInterval" value="60"></property> <property name="vifDevice" value="bond0:0"></property> <property name="vifNetMask" value="255.255.254.0"></property> 注記: 出力が空白の場合、手順 9 のように fusionmanager サービスを再起動して、再度 チェックを行います。 8. fusionmanager サービスを再起動します。 /etc/init.d/ibrix_fusionmanager restart 注記: ifconfig 出力に gile_cluster_vif デバイスが表示され、アジャイル Fusion Manager が最適な状態に戻るまで約 90 秒かかります。 このデバイスが出力に表示され ていることを確認してください。 9. アジャイル Fusion Manager がアクティブであることを確認します。 ibrix_fm –i 例を次に示します。 [root@x109s1 ~]# ibrix_fm -i 移行の実行 125 FusionServer: x109s1 (active, quorum is running) ================================================ Command succeeded! 10. このクラスター内に存在する Fusion Manager が 1 つのみであることを確認します。 ibrix_fm -f 例を次に示します。 [root@x109s1 ~]# ibrix_fm -f NAME IP ADDRESS ------ ---------X109s1 172.16.3.100 Command succeeded! 11. 2 つ目のファイルサービングノードに、パッシブ状態のアジャイル Fusion Manager をイ ンストールします。 このコマンドの -F オプションは、IBRIX ソフトウェアと共にインス トールされた new_lvm2_uuid ファイルの上書きを強制します。 ファイルサービングノー ドで次のコマンドを実行します。 /ibrix/ibrixinit -tm -C <local_cluster_interface_device> –v <agile_cluster_VIF_IP> -m <cluster_netmask> -d <cluster_VIF_device> -w 9009 –M passive -F 例を次に示します。 [root@x109s3 ibrix]# <install_code_directory>/ibrixinit -tm -C bond0 -v 172.16.3.1 -m 255.255.248.0 -d bond0:0 -V 10.30.83.1 -N 255.255.0.0 -D bond1:0 -w 9009 -M passive -F 注記: ローカルのアジャイル Fusion Manager 名が /etc/ibrix/fminstance.xml ファ イル内に存在していることを確認してください。 次のコマンドを実行します。 grep –i current /etc/ibrix/fminstance.xml <property name="currentFmName" value="ib50-86"></property> 12. アクティブな Fusion Manager で、両方の管理コンソールがクラスター上に存在している ことを確認します。 ibrix_fm -f 例を次に示します。 [root@x109s3 ibrix]# ibrix_fm -f NAME IP ADDRESS ------ ---------x109s1 172.16.3.100 x109s3 172.16.3.3 Command succeeded! 13. 新しくインストールした Fusion Manager が passive モードであることを確認します。 ibrix_fm –i 例を次に示します。 [root@x109s3 ibrix]# ibrix_fm -i FusionServer: x109s3 (passive, quorum is running) ============================= Command succeeded 14. アジャイル Fusion Manager をホストしているサーバーの高可用性機能を有効化します。 ibrix_server –m 126 アジャイル Fusion Manager 構成への移行 注記: 以前にサーバー上で iLO が構成されていなかった場合、次のエラーでコマンドが 失敗します。 com.ibrix.ias.model.BusinessException: x467s2 is not associated with any power sources 次のコマンドを使用して、IBRIX クラスターデータベース内で iLO パラメーターを定義し ます。 ibrix_powersrc -a -t ilo -h HOSTNAME -I IPADDR [-u USERNAME -p PASSWORD] iLO の設定方法の詳細は、『HP IBRIX 9000 Storage インストールガイド』 を参照してく ださい。 アジャイル Fusion Manager のフェイルオーバーとフェイルバックのテ スト 次の手順を実行します。 1. アクティブな Fusion Manager をホストしているノード上で、Fusion Manager を maintenance モードにします。 この手順により、アクティブな Fusion Manager の役割が現在パッシブ であるアジャイル Fusion Manager をホストしているノードにフェイルオーバーします。 <ibrixhome>/bin/ibrix_fm -m nofmfailover 2. フェイルオーバーが完了するまで約 60 秒待機します。次に、パッシブであったアジャイ ル Fusion Manager をホストしていたノード上で次のコマンドを実行します。 <ibrixhome>/bin/ibrix_fm -i このコマンドで、アジャイル Fusion Manager が現在このノード上で Active (アクティ ブ) であることがレポートされる必要があります。 3. 手順 1 でアクティブな Fusion Manager のフェイルオーバーを行ったノードで、Fusion Manager のステータスを maintenance から passive に変更します。 <ibrixhome>/bin/ibrix_fm -m passive 4. 5. Fusion Manager のデータベース /usr/local/ibrix/.db/は、アクティブおよびパッシ ブ両方の Fusion Manager ノード上で変更されていないことを確認します。 手順 1~4 を繰り返して、以前にアクティブな Fusion Manager をホストしていたノード を active モードに戻します。 オリジナルの管理コンソールノードを、アジャイル Fusion Manager を ホストするファイルサービングノードに変換 オリジナルの管理コンソールノード (通常はノード 1) をファイルサービングノードに変換する には、 次の手順を実行します。 1. ノードのアジャイル Fusion Manager を maintenance モードにします。 ibrix_fm -m nofmfailover 2. Fusion Manager が maintenance モードになっていることを確認します。 ibrix_fm –i 例を次に示します。 [root@x109s1 ibrix]# ibrix_fm -i FusionServer: x109s1 (maintenance, quorum not started) ================================== Command succeeded! 3. パッシブな Fusion Manager がアクティブな Fusion Manager になったことを確認します。 パッシブな Fusion Manager をホストしているファイルサービングノード上 (この例では アジャイル Fusion Manager のフェイルオーバーとフェイルバックのテスト 127 x109s3) で、ibrix_fm -i コマンドを実行します。 パッシブな Fusion Manager がアク ティブになるまで、最大で 2 分を要する場合があります。 [root@x109s3 ibrix]# ibrix_fm -i FusionServer: x109s3 (active, quorum is running) ============================= Command succeeded! 4. そのノードに、ファイルサービングノードソフトウェアをインストールします。 ./ibrixinit -ts -C <cluster_device> -i <cluster VIP> -F 5. 新しいファイルサービングノードがクラスターに加わったことを確認します。 ibrix_server -l 出力の中に新しいファイルサービングノードを探します。 6. このファイルサービングノードのストレージを再検出します。 ibrix_pv -a 7. 128 ファイルサービングノードを設定し、クラスター内の他のノードと一致させます。 たとえ ば、ユーザー NIC、ユーザーとクラスターの NIC 監視、NIC フェイルオーバーペア、電 源、バックアップサーバー、IBRIX クライアントに適した NIC などを設定します。 アジャイル Fusion Manager 構成への移行 12 IBRIX ソフトウェアの 6.2 リリースへのアップグレー ド この章では、6.2 IBRIX ソフトウェアリリースにアップグレードする方法について説明します。 重要: 次の表を印刷し、完了した各手順にチェックを付けてください。 表 4 すべてのアップグレードの前提条件チェックリスト 手順が完了し たか 手順 説明 1 次のコマンドを入力して、クラスター全体が現在 IBRIX 6.0 以降で動作していることを 確認します。 ibrix_version -l 重要: すべての IBRIX ノードが同じリリースである必要があります。 • IBRIX 6.0 よりも前のバージョンが動作している場合は、「段階的なアップグレー ド」 (187 ページ) の説明に従って製品をアップグレードします。 • IBRIX 6.0 以降が動作している場合は、このセクションのアップグレード手順を続け ます。 2 次のコマンドを使用して、/local パーティションにアップグレード用の 4GB 以上の 容量があることを確認します。 df -kh /local 3 9720 システムの場合、アップグレードを開始する前に、クラスターノード間でパスワー ドを使用しないアクセスが可能であることを確認してください。 4 6.2 リリースでは、アジャイル Fusion Manager をホストしているノードがクラスター ネットワークに登録されている必要があります。 次のコマンドを実行して、アジャイ ル Fusion Manager をホストしているノードがクラスターネットワーク上の IP アドレス を使用していることを確認します。 ibrix_fm -l ノードがユーザーネットワーク上で構成されている場合は、対応策について「ノードが クラスターネットワークに登録されていない 」 (141 ページ) を参照してください。 注記: Fusion Manager およびすべてのファイルサービングノードは、同時に新しいリ リースにアップグレードする必要があります。 アップグレードの実行中は、Fusion Manager のアクティブ/パッシブ構成を変更しないでください。 5 すべてのノード上で、/etc/grub.conf ファイルのデフォルトブートエントリーを次 の例のように変更し、crashkernel パラメーターを 256MB に設定します。 kernel /vmlinuz-2.6.18-194.el5 ro root=/dev/vg1/lv1 crashkernel=256M@16M 重要: • /etc/grub.conf には、crashkernel パラメーターの複数のインスタンスが含まれ る場合があります。 ファイルに出現する各インスタンスを必ず変更してください。 • この変更を有効にするには、各サーバーを再起動する必要があります。 6 クラスターに G6 サーバーが含まれている場合、iLO2 ファームウェアのバージョンを 確認してください。 この問題は、G7 サーバーには影響しません。 高可用性機能が正 しく動作するためには、ファームウェアのバージョンが 2.05 である必要があります。 サーバーで以前のバージョンの iLO2 ファームウェアを使用している場合は、次の手順 に示すように、CP014256.scexe スクリプトを実行します。 1. ISO イメージをマウントして、ディレクトリ構造全体を /local/ibrix ディレク トリにコピーします。 次に、mount コマンドの例を示します。 mount -o loop /local/pkg/ibrix-pkgfull-FS_6.2.374+IAS_6.2.374-x86_64.iso /mnt 129 表 4 すべてのアップグレードの前提条件チェックリスト (続き) 手順 説明 2. 次の場所にあるファームウェアバイナリを実行します。 /local/ibrix/distrib/firmware/CP014256.scexe 8 FSN ネットワークのボンディングされているインターフェイスが現在、モード 6 に構 成されている場合は、モード 4 のボンディング (LACP) で構成します。 ネットワーク管 理者に必ず、影響を受けるすべてのポートでネットワークスイッチに LACP サポートを 再構成するよう依頼してください。 モード 6 は ARP ストームの原因になることが判明 しています。ARP ストームは、HP IBRIX 9720/9730 プラットフォーム上のクラスター 間通信の信頼性を低下させます。 モード 4 がモード 6 よりもパフォーマンスでも優れ ていることがわかったため、推奨モードがモード 6 からモード 4 へと変更されました。 9 次のコマンドを入力して、すべてのシステムノードが、そのファイルシステムノードが オーナーまたはバックアップに設定されている各セグメントの論理ボリュームを「認 識」でき、「アクセス」できることを確認します。 1. すべてのセグメント、論理ボリューム名、およびオーナーを表示するには、次のコ マンドを 1 行で入力します。 ibrix_fs -i | egrep -e OWNER -e MIXED|awk '{ print $1, $3, $6, $2, $14, $5}' | tr " " "\t" 2. 現在のファイルシステムノードで正しいセグメントが認識できることを確認するた めに、各ファイルシステムノードで、次のコマンドを入力します。 lvm lvs | awk '{print $1}' 10 アクティブなタスクが実行されていないことを確認します。 クラスター上で実行中の アクティブなリモート複製タスク、データ階層化タスクまたは再バランスタスクがあれ ば、それらをすべて停止します (ibrix_task -l を使用してアクティブなタスクをリ スト表示します)。 アップグレードが完了したら、これらのタスクを再開できます。 タスクの停止方法に関する追加情報を参照するには、ibrix_task コマンドを入力し てヘルプを表示します。 11 9720 システムの場合、次のコマンドを入力して既存のベンダーストレージを削除しま す。 ibrix_vs -d -n EXDS ベンダーストレージは、アップグレード後に自動的に登録されます。 12 次のコマンドを使用して、すべてのホストチューニング、FS チューニング、および FS マウントのオプションを記録します。 1. ファイルシステムのチューニングを表示するには、次のコマンドを入力します。 ibrix_fs_tune -l >/local/ibrix_fs_tune-l.txt 2. デフォルトの IBRIX のチューニングと設定を表示するには、次のコマンドを入力しま す。 ibrix_host_tune -L >/local/ibrix_host_tune-L.txt 3. デフォルト以外の構成のチューニングと設定を表示するには、次のコマンドを入力 します。 ibrix_host_tune -q >/local/ibrix_host_tune-q.txt 13 "ibrix"ローカルユーザーアカウントが存在し、クラスター内のすべてのサーバーが同じ UID 番号であることを確認します。 同じ UID でない場合は、アカウントを作成し、必 要に応じて UID を変更して、すべてのサーバーで同じになるようにします。 同様 に、"ibrix-user"ローカルユーザーグループが存在し、すべてのサーバーで GID 番号が 同じであることを確認します。 各ノード上で次のコマンドを入力します。 grep ibrix /etc/passwd grep ibrix-user /etc/group 14 すべてのノードが稼働していることを確認します。 クラスターノードのステータスを 確認するために、GUI のダッシュボードを使用するか、クラスター内の各ノードで ibrix_health -S -i -h nodeX コマンドを入力して、各サーバーのヘルスステー タスをチェックします。 出力の先頭にある「PASSED」を探します。 130 IBRIX ソフトウェアの 6.2 リリースへのアップグレード 手順が完了し たか 9720 シャーシファームウェアのアップグレード 9720 システムを IBRIX ソフトウェア 6.2 にアップグレードする前に、9720 シャーシファー ムウェアがバージョン 4.4.0-13 になっている必要があります。ファームウェアがこのレベル でない場合は、IBRIX アップグレードに進む前に、ファームウェアをアップグレードしてくだ さい。 ファームウェアをアップグレードするには、次の手順を実行します。 1. http://www.hp.com/go/StoreAll (英語) に移動します。 2. [HP IBRIX 9000 Storage] ページで、[Support] セクションから [HP Support & Drivers] を選 択します。 3. Business Support Center で [Download Drivers and Software] を選択し、さらに [HP 9720 Base Rack] > [Red Hat Enterprise Linux 5 Server (x86-64)] の順序で選択します。 4. [HP 9720 Storage Chassis Firmware] バージョン 4.0.0-13 をクリックします。 5. ファームウェアをダウンロードし、『HP 9720 Network Storage System 4.0.0-13 Release Notes』の説明に従ってインストールします。 IBRIX ソフトウェアの 6.x から 6.2 へのオンラインアップグレード オンラインアップグレードは、IBRIX 6.x リリース以降でのみサポートされます。 以前のリリー スの IBRIX からのアップグレードは、適切なオフラインアップグレード手順を使用する必要が あります。 オンラインアップグレードを実行する際は、以下の点に注意してください。 • アップグレードの実行中は、ファイルシステムのマウントが維持され、クライアント I/O が続行します。 • ノードの数にかかわらず、アップグレードプロセスには約 45 分を要します。 • I/O 中断の合計時間はノード IP ごとに 2 分のフェイルオーバー時間と 2 分のフェイルバッ ク時間の合計 4 分です。 • 2 分以上のタイムアウトが設定されたクライアント I/O がサポートされます。 アップグレードの準備 アップグレードの準備をするには、以下の手順を実行します。次のコマンドを実行して、クラ スター内の各ノードで高可用性が有効であることを確認します。 ibrix_haconfig -l このコマンドで Overall HA Configuration Checker Results - PASSED ステータス が表示されれば、クラスター内の各ノードで高可用性が有効です。 コマンドから Overall HA Configuration Checker Results - FAILED が返された場合は、各コンポーネント に対して返された結果に基づき、以下に記載する項目を実行します。 1. アップグレードチェックリスト (表 4 (129 ページ) ) のすべての手順が完了していることを 確認してください。 2. [HA Configuration] と [Auto Failover] のいずれかまたは両方の列に Failed と表示されて いた場合は、ご使用になっているリリースの 管理者ガイド の「クラスターの高可用性の 構成」を参照してください。 3. [NIC] 列または [HBA Monitored] 列に Failed と表示されていた場合は、ご使用になって いるリリースの CLI ガイド の ibrix_nic -m -h <host> -A node_2/node_interface と ibrix_hba -m -h <host> -p <World_Wide_Name> のセクションを参照してく ださい。 アップグレードの実行 オンラインアップグレードは、IBRIX 6.x~6.2 リリースのみでサポートされます。 重要: 表 4 (129 ページ) に記載されているすべての手順を完了します。 9720 シャーシファームウェアのアップグレード 131 次の手順を実行します。 1. 最新の HP IBRIX 6.2.1 (pkg-full.ISO) ISO イメージを入手するには、HP StoreAll Download Drivers and Software の Web ページで登録し、ソフトウェアをダウンロードします。 2. ISO イメージをマウントして、ディレクトリ構造全体を OS を実行しているディスク上の /local/ibrix ディレクトリにコピーします。 次に、mount コマンドの例を示します。 mount -o loop /local/pkg/ibrix-pkgfull-FS_6.2.374+IAS_6.2.374-x86_64.iso /mnt 3. 4. /local/ibrix ディレクトリに移動し、ディレクトリ構造全体に対して chmod -R 777 * を実行します。 アップグレードスクリプトを実行して、画面の指示に従います。 ./auto_online_ibrixupgrade 5. 6. Linux 9000 クライアントをアップグレードします。 「Linux 9000 クライアントのアップ グレード」 (139 ページ) を参照してください。 HP から新しいライセンスが提供された場合、このガイドの「ライセンス」の章の説明に 従ってインストールします。 アップグレード後 次の手順を実施してください。 1. クラスターノードに 10Gb NIC が含まれている場合は、ノードを再起動して新しいドライ バーをロードします。 この手順は、サーバーファームウェアをアップグレードする前に実 行する必要があり、この後の手順で実行するよう要求されます。 2. 「ファームウェアのアップグレード」 (144 ページ) の説明に従って、ファームウェアをアッ プグレードします。 3. アップグレード前に停止したリモート複製タスク、再バランスタスクまたはデータ階層化 タスクがある場合は、これらのタスクを開始します。 4. バージョン 6 より前のファイルシステムを使用している場合は、スナップショットとデー タ保管に関する次のような変更が必要になる場合があります。 5. • スナップショット。 スナップショットに使用するファイルを IBRIX ソフトウェア 6.0 以降で作成するか、またはファイルを含む 6.0 より前のファイルシステムをスナップ ショット向けにアップグレードする必要があります。 ファイルシステムをアップグ レードするには、upgrade60.sh ユーティリティを使用します。 詳細については、 「6.0 以前のファイルシステムのアップグレードによるソフトウェアスナップショッ トのサポート」 (193 ページ) を参照してください。 • データ保管。 データ保管に使用するファイル (WORM および自動コミットを含む) を IBRIX ソフトウェア 6.1.1 以降で作成するか、またはファイルを含む 6.1.1 より前の ファイルシステムをデータ保管機能向けにアップグレードする必要があります。 ファ イルシステムをアップグレードするには、ibrix_reten_adm -u -f FSNAME コ マンドを使用します。 ibrix_reten_adm -u -f FSNAME コマンドを実行する前 と後に、追加の手順が必要です。 詳細については、「6.0 以前のファイルシステムの アップグレードによるソフトウェアスナップショットのサポート」 (193 ページ) を参 照してください。 各 IBRIX ノード (ファイルサービングノードと管理ノード) の /etc/hosts ファイルを見 直して、ホストファイルに次のような 2 行が含まれていることを確認します。 127.0.0.1 <hostname> localhost.localdomain localhost ::1 localhost6.localdomain6 localhost6 この例では、 <hostname> は、hostname コマンドから返される IBRIX ノードの名前で す。 132 IBRIX ソフトウェアの 6.2 リリースへのアップグレード これら 2 行が存在しないか、すべての情報が含まれていない場合は、/etc/hosts ファ イルを vi などのテキストエディターで開き、これら 2 行がこの手順に記載した形式で含 まれるように変更します。 たとえば、hostname コマンドから ss01 が返される場合は、 次のような行になります。 127.0.0.1 ss01 localhost.localdomain localhost ::1 localhost6.localdomain6 localhost6 6. アップグレード後に、IBRIX クラスター内の各サーバー上の Fusion Manager を手動で再起 動する必要があります。 1. すべての passive モードの Fusion Manager を再起動します。 a. 次のコマンドを入力して、Fusion Manager が passive モードであるかどうかを判 断します。 ibrix_fm -i b. コマンドから “passive” と返された場合は (フェイルオーバーが無効であるかどう かに関わらず)、次のコマンドを入力して、Fusion Manager を再起動します。 service ibrix_fusionmanager restart c. 2. 手順 a と b を、各 Fusion Manager に対して繰り返します。 アクティブ FM サーバーで次のコマンドを実行して、アクティブな Fusion Manager を再起動します。 a. 次のコマンドを入力して、Fusion Manager のすべてのインスタンスを nofmfailover モードに設定します。 ibrix_fm -m nofmfailover -A b. Fusion Manager を再起動するには、次のコマンドを入力します。 service ibrix_fusionmanager restart c. 次のコマンドを入力して、Fusion Manager のすべてのインスタンスを passive モードに設定します。 ibrix_fm -m passive -A IBRIX ソフトウェアの 6.x から 6.2 への自動オフラインアップグレード アップグレードの準備 アップグレードの準備を行うには、次の手順を実行します。 1. アップグレードチェックリスト (表 4 (129 ページ) ) のすべての手順が完了していることを 確認してください。 2. クラスターまたはファイルシステムへのすべてのクライアント I/O を停止します。 Linux クライアント上で lsof </mountpoint> を使用して、アクティブなプロセスに属して いる開いているファイルを表示します。 3. すべての IBRIX ファイルシステムをすべての FSN サーバーから正常にアンマウントできる ことを確認します。 ibrix_umount -f fsname アップグレードの実行 このアップグレード手法は、IBRIX ソフトウェア 6.x から 6.2 リリースへのアップグレードの みでサポートされます。 次の手順を実行します。 1. 最新の HP IBRIX 6.2.1 (pkg-full.ISO) ISO イメージを入手するには、HP StoreAll Download Drivers and Software の Web ページで登録し、ソフトウェアをダウンロードします。 ISO イメージをマウントして、ディレクトリ構造全体を OS を実行しているディスク上の /local/ibrix ディレクトリにコピーします。 IBRIX ソフトウェアの 6.x から 6.2 への自動オフラインアップグレード 133 次に、mount コマンドの例を示します。 mount -o loop /local/pkg/ibrix-pkgfull-FS_6.2.374+IAS_6.2.374-x86_64.iso /mnt 2. 3. OS を実行しているディスク上で /local/ibrix ディレクトリに移動し、ディレクトリ 構造全体に対して chmod -R 777 * を実行します。 次のアップグレードスクリプトを実行します。 ./auto_ibrixupgrade このアップグレードスクリプトは、必要なサービスを自動的に停止して、アップグレード の完了後に再開します。 このアップグレードスクリプトは、すべてのファイルサービング ノード上に Fusion Manager をインストールします。 アップグレードを実行したノード上 では Fusion Manager が active モードになり、その他のファイルサービングノードでは passive モードになります。 クラスター内に専用管理サーバーが存在する場合、このサー バー上には Fusion Manager が passive モードでインストールされます。 4. 5. Linux 9000 クライアントをアップグレードします。 HP から新しいライセンスが提供された場合、このガイドの「ライセンス」の章の説明に 従ってインストールします。 アップグレード後 次の手順を実行します。 1. クラスターノードに 10Gb NIC が含まれている場合は、ノードを再起動して新しいドライ バーをロードします。 この手順は、サーバーファームウェアをアップグレードする前に実 行する必要があり、この後の手順で実行するよう要求されます。 2. 「ファームウェアのアップグレード」 (144 ページ) の説明に従って、ファームウェアをアッ プグレードします。 3. Linux 9000 クライアント上にファイルシステムをマウントします。 4. バージョン 6 より前のファイルシステムを使用している場合は、スナップショットとデー タ保管に関する次のような変更が必要になる場合があります。 5. • スナップショット。 スナップショットに使用するファイルを IBRIX ソフトウェア 6.0 以降で作成するか、またはファイルを含む 6.0 より前のファイルシステムをスナップ ショット向けにアップグレードする必要があります。 ファイルシステムをアップグ レードするには、upgrade60.sh ユーティリティを使用します。 詳細については、 「6.0 以前のファイルシステムのアップグレードによるソフトウェアスナップショッ トのサポート」 (193 ページ) を参照してください。 • データ保管。 データ保管に使用するファイル (WORM および自動コミットを含む) を IBRIX ソフトウェア 6.1.1 以降で作成するか、またはファイルを含む 6.1.1 より前の ファイルシステムをデータ保管機能向けにアップグレードする必要があります。 ファ イルシステムをアップグレードするには、ibrix_reten_adm -u -f FSNAME コ マンドを使用します。 ibrix_reten_adm -u -f FSNAME コマンドを実行する前 と後に、追加の手順が必要です。 詳細については、「6.0 以前のファイルシステムの アップグレードによるソフトウェアスナップショットのサポート」 (193 ページ) を参 照してください。 各 IBRIX ノード (ファイルサービングノードと管理ノード) の /etc/hosts ファイルを見 直して、ホストファイルに次のような 2 行が含まれていることを確認します。 127.0.0.1 <hostname> localhost.localdomain localhost ::1 localhost6.localdomain6 localhost6 この例では、 <hostname> は、hostname コマンドから返される IBRIX ノードの名前で す。 これら 2 行が存在しないか、すべての情報が含まれていない場合は、/etc/hosts ファ イルを vi などのテキストエディターで開き、これら 2 行がこの手順に記載した形式で含 134 IBRIX ソフトウェアの 6.2 リリースへのアップグレード まれるように変更します。 たとえば、hostname コマンドから ss01 が返される場合は、 次のような行になります。 127.0.0.1 ss01 localhost.localdomain localhost ::1 localhost6.localdomain6 localhost6 6. アップグレード後に、IBRIX クラスター内の各サーバー上の Fusion Manager を手動で再起 動する必要があります。 1. すべての passive モードの Fusion Manager を再起動します。 a. 次のコマンドを入力して、Fusion Manager が passive モードであるかどうかを判 断します。 ibrix_fm -i b. コマンドから “passive” と返された場合は (フェイルオーバーが無効であるかどう かに関わらず)、次のコマンドを入力して、Fusion Manager を再起動します。 service ibrix_fusionmanager restart c. 2. 手順 a と b を、各 Fusion Manager に対して繰り返します。 アクティブ FM サーバーで次のコマンドを実行して、アクティブな Fusion Manager を再起動します。 a. 次のコマンドを入力して、Fusion Manager のすべてのインスタンスを nofmfailover モードに設定します。 ibrix_fm -m nofmfailover -A b. Fusion Manager を再起動するには、次のコマンドを入力します。 service ibrix_fusionmanager restart c. 次のコマンドを入力して、Fusion Manager のすべてのインスタンスを passive モードに設定します。 ibrix_fm -m passive -A IBRIX ソフトウェアの 6.x から 6.2 への手動オフラインアップグレード アップグレードの準備 アップグレードの準備を行うには、次の手順を実行します。 1. アップグレードチェックリスト (表 4 (129 ページ) ) のすべての手順が完了していることを 確認してください。 2. ssh 共有鍵が設定されていることを確認します。 これを行うには、アクティブなインス タンスのアジャイル Fusion Manager をホストしているノード上で、次のコマンドを実行 します。 ssh <server_name> クラスターの各ノードで、このコマンドを繰り返します。 3. 4. df コマンドを入力して、すべてのファイルシステムノードサーバーに、以下のパーティ ションにマウントされている別々のファイルシステムが存在することを確認します。 • / • /local • /stage • /alt df コマンドを使用して、すべての FSN サーバーの /local パーティションに 4GB 以上 の空き/利用可能ストレージがあることを確認します。 IBRIX ソフトウェアの 6.x から 6.2 への手動オフラインアップグレード 135 5. 6. 7. 8. df コマンドを使用して、すべての FSN サーバーからどのパーティションも 100% 満杯と して報告されていないこと (5% 以上の空き領域) を確認します。 ファイルシステムマウントオプションなど、カスタムチューニングパラメーターがあれ ば、すべてメモします。 アップグレードの完了時に、これらのパラメーターを再適用でき ます。 クラスターまたはファイルシステムへのすべてのクライアント I/O を停止します。 Linux クライアント上で lsof </mountpoint> を使用して、アクティブなプロセスに属して いる開いているファイルを表示します。 パッシブな Fusion Manager をホストしているすべてのノード上で、Fusion Manager を maintenance モードにします。 <ibrixhome>/bin/ibrix_fm -m nofmfailover 9. アクティブな Fusion Manager のノードで、すべてのファイルサービングノードへの自動 フェイルオーバーを無効にします。 <ibrixhome>/bin/ibrix_server -m -U 10. 次のコマンドを実行して、自動フェイルオーバーがオフになっていることを確認します。 出力の HA カラムは、off を表示している必要があります。 <ibrixhome>/bin/ibrix_server -l 11. Linux 9000 クライアント上のファイルシステムをアンマウントします。 ibrix_umount -f MOUNTPOINT 12. すべてのノード上の SMB、NFS および NDMP サービスを停止します。 アクティブな Fusion Manager をホストしているノードで、次のコマンドを実行します。 ibrix_server -s -t cifs -c stop ibrix_server -s -t nfs -c stop ibrix_server -s -t ndmp -c stop nl nl SMB を使用している場合、すべてのファイルサービングノード上で likewise サービスが停 止していることを確認します。 ps –ef | grep likewise kill -9 を使用して、実行中のすべての likewise サービスを停止します。 NFS を使用している場合は、次のコマンドを実行して、すべての NFS プロセスが停止し ていることを確認します。 ps –ef | grep nfs 必要に応じて、次のコマンドを使用して NFS サービスを停止します。 /etc/init.d/nfs stop kill -9 を使用して、実行中のすべての NFS プロセスを停止します。 必要に応じてすべてのノード上で次のコマンドを実行し、マウントされているファイルシ ステムで開いているすべてのファイルハンドルを特定します。 lsof </mountpoint> kill -9 を使用して、ファイルシステム上で開いているファイルハンドルを持つすべて のプロセスを停止します。 13. 各ファイルシステムを手動でマウント解除します。 ibrix_umount -f FSNAME ファイルシステムがマウント解除されるまで、最長 15 分待機します。 アップグレードを続行する前に、ファイルシステムのマウント解除に関するすべての問題 のトラブルシューティングを行います。 「ファイルシステムのマウント解除の問題」 (142 ページ) を参照してください。 136 IBRIX ソフトウェアの 6.2 リリースへのアップグレード アップグレードの手動での実行 このアップグレード手法は、IBRIX ソフトウェア 6.x から 6.2 リリースへのアップグレードの みでサポートされます。 次の手順を実行します。 1. 最新の HP IBRIX 6.2.1 (pkg-full.ISO) ISO イメージを入手するには、HP StoreAll Download Drivers and Software の Web ページで登録し、ソフトウェアをダウンロードします。 各ノードで ISO イメージをマウントして、ディレクトリ構造全体を OS を実行している ディスク上の /root/ibrix ディレクトリにコピーします。 次に、mount コマンドの例を示します。 mount -o loop /local/pkg/ibrix-pkgfull-FS_6.2.374+IAS_6.2.374-x86_64.iso /mnt 2. 3. OS を実行しているディスク上で /local/ibrix ディレクトリに移動し、ディレクトリ 構造全体に対して chmod -R 777 * を実行します。 次のアップグレードスクリプトを実行します。 ./ ibrixupgrade —f このアップグレードスクリプトは、必要なサービスを自動的に停止して、アップグレード の完了後に再開します。 このアップグレードスクリプトは、すべてのファイルサービング ノード上に Fusion Manager をインストールします。 アップグレードを実行したノード上 では Fusion Manager が active モードになり、その他のファイルサービングノードでは passive モードになります。 クラスター内に専用管理サーバーが存在する場合、このサー バー上には Fusion Manager が passive モードでインストールされます。 4. 5. Linux 9000 クライアントをアップグレードします。 「Linux 9000 クライアントのアップ グレード」 (139 ページ) を参照してください。 HP から新しいライセンスが提供された場合、このガイドの「ライセンス」の章の説明に 従ってインストールします。 アップグレード後 次の手順を実行します。 1. クラスターノードに 10Gb NIC が含まれている場合は、ノードを再起動して新しいドライ バーをロードします。 この手順は、サーバーファームウェアをアップグレードする前に実 行する必要があり、この後の手順で実行するよう要求されます。 2. 「ファームウェアのアップグレード」 (144 ページ) の説明に従って、ファームウェアをアッ プグレードします。 3. 次のコマンドを実行して、物理ボリュームを再検出します。 ibrix_pv -a 4. 5. マウントオプションなどのカスタムチューニングパラメーターがあれば、すべて適用しま す。 すべてのファイルシステムを再マウントします。 ibrix_mount -f <fsname> -m </mountpoint> 6. 高可用性機能を使用していた場合は、再び有効化します。 ibrix_server -m 7. 8. アップグレード前に停止したリモート複製タスク、再バランスタスクまたはデータ階層化 タスクがある場合は、これらのタスクを開始します。 SMB を使用している場合は、次のパラメーターを設定して、SMB ソフトウェアと Fusion Manager データベースを同期します。 • smb signing enabled • smb signing required • ignore_writethru IBRIX ソフトウェアの 6.x から 6.2 への手動オフラインアップグレード 137 ibrix_cifsconfig を使用して、クラスターに適切な値を指定して (1= 有効、0= 無効) パラメーターを設定します。 次の例では、パラメーターを 6.2 リリースのデフォルト値 に指定しています。 ibrix_cifsconfig -t -S "smb_signing_enabled=0, smb_signing_required=0" ibrix_cifsconfig -t -S "ignore_writethru=1" SMB 署名機能は、クライアントが SMB 共有にアクセスするために SMB 署名をサポート する必要があるかどうかを指定します。 この機能の詳細については、『HP IBRIX 9000 Storage File System ユーザーガイド』 を参照してください。 ignore_writethru が有効 な場合、IBRIX ソフトウェアはライトスルーバッファリングを無視して、これを要求する 一部のユーザーアプリケーションの SMB 書き込みパフォーマンスを向上します。 9. Linux 9000 クライアント上にファイルシステムをマウントします。 10. バージョン 6 より前のファイルシステムを使用している場合は、スナップショットとデー タ保管に関する次のような変更が必要になる場合があります。 • スナップショット。 スナップショットに使用するファイルを IBRIX ソフトウェア 6.0 以降で作成するか、またはファイルを含む 6.0 より前のファイルシステムをスナップ ショット向けにアップグレードする必要があります。 ファイルシステムをアップグ レードするには、upgrade60.sh ユーティリティを使用します。 詳細については、 「6.0 以前のファイルシステムのアップグレードによるソフトウェアスナップショッ トのサポート」 (193 ページ) を参照してください。 • データ保管。 データ保管に使用するファイル (WORM および自動コミットを含む) を IBRIX ソフトウェア 6.1.1 以降で作成するか、またはファイルを含む 6.1.1 より前の ファイルシステムをデータ保管機能向けにアップグレードする必要があります。 ファ イルシステムをアップグレードするには、ibrix_reten_adm -u -f FSNAME コ マンドを使用します。 ibrix_reten_adm -u -f FSNAME コマンドを実行する前 と後に、追加の手順が必要です。 詳細については、「6.0 以前のファイルシステムの アップグレードによるソフトウェアスナップショットのサポート」 (193 ページ) を参 照してください。 11. 各 IBRIX ノード (ファイルサービングノードと管理ノード) の /etc/hosts ファイルを見 直して、ホストファイルに次のような 2 行が含まれていることを確認します。 127.0.0.1 <hostname> localhost.localdomain localhost ::1 localhost6.localdomain6 localhost6 この例では、 <hostname> は、hostname コマンドから返される IBRIX ノードの名前で す。 これら 2 行が存在しないか、すべての情報が含まれていない場合は、/etc/hosts ファ イルを vi などのテキストエディターで開き、これら 2 行がこの手順に記載した形式で含 まれるように変更します。 たとえば、hostname コマンドから ss01 が返される場合は、 次のような行になります。 127.0.0.1 ss01 localhost.localdomain localhost ::1 localhost6.localdomain6 localhost6 12. アップグレード後に、IBRIX クラスター内の各サーバー上の Fusion Manager を手動で再起 動する必要があります。 1. すべての passive モードの Fusion Manager を再起動します。 a. 次のコマンドを入力して、Fusion Manager が passive モードであるかどうかを判 断します。 ibrix_fm -i 138 IBRIX ソフトウェアの 6.2 リリースへのアップグレード b. コマンドから “passive” と返された場合は (フェイルオーバーが無効であるかどう かに関わらず)、次のコマンドを入力して、Fusion Manager を再起動します。 service ibrix_fusionmanager restart c. 2. 手順 a と b を、各 Fusion Manager に対して繰り返します。 アクティブ FM サーバーで次のコマンドを実行して、アクティブな Fusion Manager を再起動します。 a. 次のコマンドを入力して、Fusion Manager のすべてのインスタンスを nofmfailover モードに設定します。 ibrix_fm -m nofmfailover -A b. Fusion Manager を再起動するには、次のコマンドを入力します。 service ibrix_fusionmanager restart c. 次のコマンドを入力して、Fusion Manager のすべてのインスタンスを passive モードに設定します。 ibrix_fm -m passive -A Linux 9000 クライアントのアップグレード Linux 9000 クライアントをアップグレードする前に、必ずクラスターノードをアップグレード してください。 各クライアント上で次の手順を実施します。 1. 最新の HP 9000 Client 6.2 パッケージをダウンロードします。 2. tar ファイルを展開します。 3. アップグレードスクリプトを実行します。 ./ibrixupgrade -f このアップグレードスクリプトは、必要なサービスを自動的に停止して、アップグレード の完了後に再開します。 4. 次のコマンドを実行して、クライアントで IBRIX ソフトウェアが実行されていることを確 認します。 /etc/init.d/ibrix_client status IBRIX Filesystem Drivers loaded IBRIX IAD Server (pid 3208) running... 上の出力例に示すように、IAD サービスが実行している必要があります。 実行していない場 合は、HP サポートにお問い合わせください。 Linux クライアントへのカーネルのマイナーアップデートのインストール 9000 クライアントソフトウェアと互換性のある Linux カーネルのマイナーアップデートをイ ンストールすると、クライアントソフトウェアが自動的にアップグレードされます。 カーネルのマイナーアップデートのインストールを計画している場合、初めに次のコマンドを 実行して、アップデートが 9000 クライアントソフトウェアと互換性があることを確認してく ださい。 /usr/local/ibrix/bin/verify_client_update <kernel_update_version> 次の例は、カーネルバージョン 2.6.9-89.ELsmp の RHEL 4.8 クライアントの場合です。 # /usr/local/ibrix/bin/verify_client_update 2.6.9-89.35.1.ELsmp Kernel update 2.6.9-89.35.1.ELsmp is compatible. nl カーネルのマイナーアップデートの互換性が確認されたら、ベンダー RPM を使用してアップ デートをインストールし、システムを再起動します。 新しいカーネルに応じて 9000 クライ アントソフトウェアが自動的に更新され、9000 クライアントサービスが自動的に起動します。 Linux 9000 クライアントのアップグレード 139 ibrix_version -l -C コマンドを使用して、クライアントのカーネルバージョンを確認し ます。 注記: verify_client コマンドを使用するには、9000 クライアントソフトウェアがイン ストールされている必要があります。 Windows 9000 クライアントのアップグレード 各クライアント上で次の手順を実施します。 1. コントロールパネルの [プログラムの追加と削除]ユーティリティを使用して、古い Windows 9000 クライアントソフトウェアを削除します。 2. アップグレード用の Windows 9000 クライアント MSI ファイルをコンピューターにコピー します。 3. Windows インストーラーを起動して指示に従い、アップグレードを完了します。 4. Windows 9000 クライアントを再度クラスターに登録して、[Start Service after Registration] オプションを選択します。 5. [管理ツール] | [サービス]で、9000 クライアントサービスが開始されていることを確認し ます。 6. Windows 9000 クライアントを起動します。 [Active Directory Settings] タブで [ Update] をクリックして、現在の Active Directory 設定を取得します。 7. IBRIX Windows クライアント GUI を使用してファイルシステムをマウントします。 注記: リモートデスクトップを使用してアップグレードを実行している場合は、ログアウト してから再度ログインして、ドライブがマウントされていることを確認する必要があります。 アップグレードの問題のトラブルシューティング アップグレードが正常に完了しない場合は、以下の項目を確認してください。 追加の支援が必 要な場合は、HP サポートまでお問い合わせください。 自動アップグレード 次の点を確認してください。 • /usr/local/ibrix/setup/upgrade の初回の実行に失敗する場合 は、/usr/local/ibrix/setup/upgrade.log にエラーがないか確認してください。 アップグレードスクリプトを実行する前に、すべてのサーバーで IBRIX ソフトウェアが稼 働していることが必須です。 • 新しい OS のインストールに失敗する場合、ノードの電源を再投入して 再起動してくださ い。 再起動後にインストールが開始しない場合は、マシンの電源を再投入して、grub ブートメニューから upgrade 行を選択してください。 • アップグレード後に、/usr/local/ibrix/setup/logs/postupgrade.log にエラー または警告がないか確認してください。 • いずれかのノードで構成の復元に失敗した場合は、そのノードの /usr/local/ibrix/autocfg/logs/appliance.log を調べて、どの機能の復元に失 敗したのかを特定してください。 /usr/local/ibrix/setup/logs/以下にある特定の 機能のログファイルで、詳細な情報を調査してください。 構成のコピーを再試行するには、次のコマンドを使用します。 /usr/local/ibrix/autocfg/bin/ibrixapp upgrade –f –s • 新しいイメージのインストールには成功しても、構成の復元に失敗しサーバーを以前のイ ンストールに戻す必要がある場合は、次のコマンドを使用し、次にマシンを再起動しま す。 この手順により、サーバーは古いバージョン (別のパーティション) から起動します。 /usr/local/ibrix/setup/boot_info –r 140 IBRIX ソフトウェアの 6.2 リリースへのアップグレード • パブリックネットワークインターフェイスがダウンして、ノードへアクセスできなくなっ た場合、そのノードの電源を再投入してください。 注記: 各ノードには、/tmp にそれぞれの ibrixupgrade.log が格納されています。 手動アップグレード 次の点を確認してください。 • 復元スクリプトを完了できない場合は、/usr/local/ibrix/setup/logs/restore.log で詳細を確認してください。 • 構成の復元に失敗した場合は、/usr/local/ibrix/autocfg/logs/appliance.log を調べて、どの機能の復元に失敗したのかを特定してください。 /usr/local/ibrix/ setup/logs/以下にある特定の機能のログファイルで、詳細な情報を調査してください。 構成のコピーを再試行するには、次のコマンドを使用します。 /usr/local/ibrix/autocfg/bin/ibrixapp upgrade –f –s iLO ファームウェアが古いためオフラインアップグレードに失敗する ノード上の iLO2 ファームウェアが古い場合、auto_ibrixupgrade スクリプトは失敗しま す。 /usr/local/ibrix/setup/logs/auto_ibrixupgrade.log に、エラーのレポート とファームウェアのアップデート方法の説明が含まれています。 ファームウェアのアップグレード後に、ノード上で次のコマンドを実行して IBRIX ソフトウェ アのアップグレードを完了してください。 /local/ibrix/ibrixupgrade -f ノードがクラスターネットワークに登録されていない アジャイル Fusion Manager をホストしているノードは、クラスターネットワークに登録する 必要があります。 ibrix_fm コマンドでノードの IP アドレスがユーザーネットワークのもの であることがレポートされる場合、IP アドレスをクラスターネットワークに再割り当てする必 要があります。 たとえば、次のコマンドは、アクティブな Fusion Manager をホストしている ノード ib51–101 の IP アドレス (15.226.51.101) がユーザーネットワーク上のもので、クラ スターネットワーク上のものではないことをレポートしています。 [root@ib51-101 ibrix]# ibrix_fm -i FusionServer: ib51-101 (active, quorum is running) ================================================== [root@ib51-101 ibrix]# ibrix_fm -l NAME IP ADDRESS -------- ---------ib51-101 15.226.51.101 ib51-102 10.10.51.102 1. この例のように、ユーザーネットワーク上のノードがアクティブな Fusion Manager をホ ストしている場合、このノード上の Fusion Manager を停止します。 [root@ib51-101 ibrix]# /etc/init.d/ibrix_fusionmanager stop Stopping Fusion Manager Daemon [ [root@ib51-101 ibrix]# 2. OK ] 現在アクティブな Fusion Manager をホストしているノード (この例では ib51–102) で、 ノード ib51–101 の登録を解除します。 [root@ib51-102 ~]# ibrix_fm -u ib51-101 Command succeeded! アップグレードの問題のトラブルシューティング 141 3. アクティブな Fusion Manager をホストしているノードで、ノード ib51–101 を登録し て、正しい IP アドレスを割り当てます。 [root@ib51-102 ~]# ibrix_fm -R ib51-101 -I 10.10.51.101 Command succeeded! 注記: Fusion Manager を登録する際は、-R で指定されたホスト名がサーバーのホスト 名と一致している必要があります。 ibrix_fm コマンドで、ノード ib51–101 が正しい IP アドレスを持ち、ノード ib51–102 が アクティブな Fusion Manager をホストしていることが示されます。 [root@ib51-102 ~]# ibrix_fm -f NAME IP ADDRESS -------- ---------ib51-101 10.10.51.101 ib51-102 10.10.51.102 [root@ib51-102 ~]# ibrix_fm -i FusionServer: ib51-102 (active, quorum is running) ================================================== ファイルシステムのマウント解除の問題 ファイルシステムが正しくマウント解除されない場合、すべてのサーバー上で以下の手順を実 行してください。 1. 以下のコマンドを実行します。 chkconfig ibrix_server off chkconfig ibrix_ndmp off chkconfig ibrix_fusionmanager off 2. 3. すべてのサーバーを再起動します。 以下のコマンドを実行して、サービスを on 状態に戻します。 コマンドは、サービスを開 始しません。 chkconfig ibrix_server on chkconfig ibrix_ndmp on chkconfig ibrix_fusionmanager on 4. 142 ファイルシステムをマウント解除して、アップグレード手順を続行します。 IBRIX ソフトウェアの 6.2 リリースへのアップグレード 13 ライセンス この章では、現在のライセンス条項を表示する方法、また、新しい IBRIX ソフトウェア製品の ライセンスキーを取得およびインストールする方法について説明します。 ライセンス条項の表示 IBRIX ソフトウェアのライセンスファイルは、インストールディレクトリに格納されます。 GUI を通じてライセンスを表示するには、ナビゲーターで [Cluster Configuration] を選択して、次に [License] を選択します。 CLI を通じてライセンスを表示するには、次のコマンドを使用します。 ibrix_license -i このコマンドの出力には、現在のノード数と容量制限が表示されます。 出力に示される Segment Server は、ファイルサービングノードを指します。 ライセンスキーの取得 お客様は、本製品の購入時に License Entitlement Certificate (ライセンス付与証明書) を受け取り ます。 ライセンスキーを取得して入力するには、この証明書の情報が必要です。 ライセンスキーは、次のいずれかの方法で取得できます。 • www.hp.com/software/licensing (英語) からライセンスキーを取得します。 • License Entitlement Certificate に付属している Password Request Form を FAX で送付しま す。 お客様の地域での FAX 番号については、証明書を参照してください 。 • HP パスワードセンターに電話または電子メールで連絡します。 お客様の地域での電話番 号または電子メールについては、証明書を参照してください 。 ライセンス条項の表示 143 14 ファームウェアのアップグレード 本章の手順を実行する前に、付録 F 「警告および注意事項」、「規定に関するご注意」 (248 ペー ジ) に記載された重要な警告、注意事項および安全に関する情報をお読みください。 Firmware Management Tool (FMT) は、IBRIX システムの期限切れのファームウェアをスキャン して、包括的レポートで次のような情報を提供します。 • 検出されたデバイス • 検出されたデバイスで見つかったアクティブファームウェア • 検出されたデバイスの適格なファームウェア • 延期されているアクション — アップグレードを推奨するかどうかをユーザーに通知 • 重大度 — アップグレードの必要性の重要度 • フラッシュ後の再起動の必要性の有無 • デバイス情報 • 親デバイス ID ファームウェアのアップグレードのコンポーネント HP IBRIX システムのコンポーネントには、アップグレード可能なファームウェアが搭載されて いるものがあります。 アップグレード可能なコンポーネントは次のとおりです。 • • サーバー ◦ ILO3 ◦ BIOS ◦ Power_Mgmt_Ctlr ◦ Smart_Array_Ctlr ◦ NIC ◦ PCIeNIC ◦ SERVER_HDD ストレージ ◦ Enclosure_IO_Mod ◦ Enclosure_HDD 重要: (9730 システムのみ) ストレージディスクエンクロージャー (Enclosure_HDD) のファームウェアのアップグレードは、OFFLINE プロセスです。 更新前に、すべて のホストとアレイ I/O が停止しており、ファイルシステムがアンマウントされている ことを確認してください。 ファイルシステムのアンマウント方法については、『HP IBRIX 9000 Storage File System ユーザーガイド』を参照してください。 • シャーシ ◦ OA ◦ VC_Flex-10 144 ファームウェアのアップグレード ◦ 6Gb_SAS_BL_SW 次のコマンドを入力して、どのコンポーネントにフラッシュアップグレードのフラグが設定さ れている可能性があるかを表示します。 hpsp_fmt -lc 表示されるサーバーコンポーネントの例を以下に示します。 ファームウェアのアップグレードの手順 重要: 10Gb NIC ドライバーは、IBRIX v6.2.X ソフトウェアのアップグレード時に更新されま す。 ただし、サーバーが再起動されるまで、新しいドライバーは使用/ロードされません。 サーバーを再起動する前にアップグレードファームウェアツール (hpsp_fmt) を実行した場 合、ツールによって、古いドライバーがまだ使用されていると検出されます。 コンポーネントのファームウェアをアップグレードするには、次の手順を実行します。 1. /opt/hp/platform/bin/hpsp_fmt -fr コマンドを実行して、このノードとこのクラ スター内の後続のノードのファームウェアが正しく、最新であることを確認します。 この コマンドは、クラスターのサービスを復帰する前に実行してください。 次の画面は、ファームウェアに関する推奨の出力と修正コンポーネントのアップグレード フラッシュの例です。 ファームウェアのアップグレードの手順 145 重要: 次の順序で、ファームウェアを更新します。 1. サーバー 2. シャーシ 3. ストレージ 2. 3. [Proposed Action] と [Severity] に基づき、記載されている手順に従ってください。 [Proposed Action] 列のステータス [Severity] 列のステータス 実行する手順 UPGRADE MANDATORY 手順 3 UPGRADE RECOMMENDED 手順 3 は省略可能です。 ただし、 システムの安定性を考慮し、既知の 問題を回避するために、手順 3 を実 行することをお勧めします。 NONE または DOWNGRADE MANDATORY 手順 4 NONE または DOWNGRADE RECOMMENDED 手順 4 は省略可能です。 ただし、 システムの安定性を考慮し、既知の 問題を回避するために、手順 4 を実 行することをお勧めします。 次のコマンドを入力してフラッシュ操作を実行してから、手順 5 に進みます。 hpsp_fmt —flash –c <components-name> 次のスクリーンショットは、フラッシュ操作が成功したことを表します。 146 ファームウェアのアップグレード 4. 次のコマンドを入力してフラッシュ操作を実行してから、手順 5 に進みます。 hpsp_fmt —flash –c <components-name> --force 5. コンポーネントがフラッシュの再起動を必要とする場合は、以下の手順に記載されている 方法で FSN をフェイルオーバーし、操作を続行します。 注記: 以下に記載するのは 2 ノードクラスターの場合の手順ですが、多数のノードクラ スターの場合も同様の手順を行います。 a. 次のコマンドを入力して、フラッシュするノードがアクティブな Fusion Manager で あるのかどうかを確認します。 ibrix_fm –i b. 次のコマンドをアクティブな Fusion Manager から入力して、ローカルノードで手動 FM フェイルオーバーを実行します。 ibrix_fm -m nofmfailover server1 FM フェイルオーバーの所要時間は約 1 分です。 c. d. server1 がアクティブな Fusion Manager ではない場合は、手順 e に進んで、server1 から server2 にフェイルオーバーします。 現在アクティブな Fusion Manager であるノードを確認するには、次のコマンドを入 力します。 ibrix_fm –i e. 新しいアクティブな Fusion Manager ノードに移動し、次のコマンドを入力してフェ イルオーバーを実行します。 ibrix_server —f —p —h server1 ファームウェアのアップグレードの手順 147 注記: フェイルオーバー操作の —p スイッチにより、影響するノードの再起動と、 それに伴う以下のコンポーネントのフラッシュが可能になります。 f. • BIOS • NIC • Power_Mgmt_Ctlr • SERVER_HDD • Smart_Array_Ctlr • Storage_Ctlr FSN が起動されたら、次のコマンドを入力して、ソフトウェアから FSN が Up, FailedOver として報告されていることを確認します。 ibrix_server —l g. 次のコマンドを入力して、推奨されるフラッシュが正常に完了したことを確認しま す。 hpsp_fmt —fr server —o /tmp/fwrecommend.out Proposed Action 列で必要なアクションがないこと、Active FW Version 列と Qualified FW Version 列に同じ値が表示されていることを確認します。 h. 次のコマンドを入力して、更新したサーバーをフェイルバックします。 ibrix_server —f —U —h server1 i. フェイルオーバーした Fusion Manager は、次のコマンドを使用して passive モード に移行するまで、nofmfailover モードのままです。 ibrix_fm -m passive 注記: Fusion Manager を nofmfailover モードから active モードに移行することはで きません。 j. k. 6. h までの手順を、バックアップサーバーコンポーネントについて繰り返します。この 例では、server1 を server2 に置き換えます。 i までの手順を、ファームウェアアップグレードを必要とする各ノードについて繰り 返します。 6.2 へとアップグレードする場合は、使用するアップグレードの種類に対応する、下表に 示す「アップグレード後」のセクションに記載されている手順を完了する必要がありま す。 アップグレードの 種類 実行する手順が記載されているセクション オンラインアップ 「アップグレード後」 (132 ページ) グレード 148 自動オフライン アップグレード 「アップグレード後」 (134 ページ) 手動オフライン アップグレード 「アップグレード後」 (137 ページ) ファームウェアのアップグレード FMT に関する追加情報の参照 FMT に関する追加情報を、次の方法で参照できます。 • FMT のオンラインヘルプ。 FMT のオンラインヘルプにアクセスするには、ファイルシス テムノードコンソールに hpsp_fmt コマンドを入力します。 • 『HP HPSP_FMT User Guide』。 『HP HPSP_FMT User Guide』を参照するには、HP StoreAll Storage Manuals ページにアクセスします。 http://www.hp.com/support/IBRIXManuals (英語) 9730 システムへのパフォーマンスモジュールの追加 IBRIX 9730 クラスターへのモジュールの取り付けについては『HP IBRIX 9730 Storage Performance Module Installation Instructions』をご覧ください。 モジュール内のブレードに IBRIX ソフトウェアをインストールする方法については、『HP IBRIX 9000 Storage インストールガ イド』 をご覧ください。 これらの文書は IBRIX のマニュアルページに掲載されています。 http://www.hp.com/ support/manuals (英語) を参照してください。 ストレージのセクション で [NAS Systems] を選択し、IBRIX Storage Systems セクションで [HP 9000 Storage] を選択して ください。 9720 システムへの新しいサーバーブレードの追加 注記: この手順には Quick Restore DVD が必要です。 詳細については、第16章 「9720/9730 ストレージの復旧」を参照してください。 1. ブレードシャーシの前面の、次に利用可能なサーバーブレードベイから、ブランクを取り 外します。 2. サーバーブレードを取り付ける準備をします。 3. サーバーブレードを取り付けます。 ファームウェアのアップグレードの手順 149 4. 5. 6. サーバーブレードにソフトウェアをインストールします。 これには Quick Restore DVD を 使用します。 詳細については、第16章 「9720/9730 ストレージの復旧」を参照してく ださい。 フェイルオーバーを設定します。 詳細については、『HP IBRIX 9000 Storage File System ユーザーガイド』を参照してください。 サーバー 1 で次のコマンドを実行し、高可用性 (自動フェイルオーバー) を有効にします。 # ibrix_server –m 7. サーバーブレード上のストレージを検出します。 ibrix_pv -a 8. サーバーブレードのヘルス監視を有効にするには、まずベンダーストレージを登録から外 します。 ibrix_vs -d -n <vendor storage name> 次に、ベンダーストレージを再登録します。 コマンド内の <sysName> は、たとえば x710 などです。 <hostlist> は、X710s[2–4] などの角括弧内の範囲を指します。 ibrix_vs -r -n <sysName> -t exds 172.16.1.1 -U exds -P <password> -h <hostlist> 9. 150 他のサーバーでその他のカスタマイズを行った場合は、新たに取り付けたサーバーにそれ を適用する必要がある場合があります。 ファームウェアのアップグレード 15 トラブルシューティング Ibrix Collect を使用した HP サポート用情報の収集 Ibrix Collect は、ログ収集ユーティリティです。システムの問題が発生した場合、このツール を使用して関連情報を収集し、HP サポートによる診断に使用することができます。 収集は、 GUI または CLI を使用して手動でトリガーできます。または、システムクラッシュ時に自動的 にトリガーすることも可能です。 Ibrix Collect では、以下の情報が収集されます。 • 特定のオペレーティングシステムおよび IBRIX コマンドの結果とログ • クラッシュダイジェスターの結果 • 収集されたログの概要 (エラー/例外/障害メッセージなど) • クラスターに接続している LHN および MSA ストレージから収集した情報 注記: 6.0 より前のバージョンの IBRIX ソフトウェアからクラスターをアップグレードした場 合、ibrix_supportticket コマンドを使用して収集したサポートチケットは削除されます。 アップグレードを実行する前に、/admin/platform/diag/supporttickets ディレクトリ からアーカイブファイル (.tgz) のコピーをダウンロードしてください。 ログの収集 GUI を使用してログおよびコマンドの結果を収集するには、次の手順を実行します。 1. [Cluster Configuration] を選択して、次に [Data Collection] を選択します。 2. [Collect] をクリックします。 3. データは、各ノードローカルの /local/ibrixcollect 下の圧縮アーカイブファイル <nodename>_<filename>_<timestamp>.tgz に格納されます。 収集されたデータが含まれる zip ファイルの名前を入力します。 この zip ファイルのデ フォルトの保存場所は、アクティブな Fusion Manager ノード上の /local/ ibrixcollect/archive です。 Ibrix Collect を使用した HP サポート用情報の収集 151 4. [OK] をクリックします。 CLI を使用してログおよびコマンドの結果を収集するには、次のコマンドを実行します。 ibrix_collect –c –n NAME 注記: 手動により同時に収集できるデータは、1 件のみです。 注記: ノードがシステムクラッシュから復元されると、/var/crash/<timestamp> ディレ クトリ下の vmcore が処理されます。 処理が行われると、このディレクトリの名前が /var/ crash/<timestamp>_PROCESSED に変更されます。 HP Support は、システムクラッシュの 解決を支援するために、この情報の送信を依頼する場合があります。 注記: クラッシュダンプは、/var/crash ディレクトリで保管することをお勧めします。 Ibrix Collect は、/var/crash ディレクトリ (/local/platform/crash へリンクしている) 内に存在するコアダンプのみを処理します。 また、このディレクトリを監視して、不要な処理 済みクラッシュを削除することをお勧めします。 アーカイブファイルの削除 GUI または CLI を使用して、特定のデータ収集を削除したり、すべての収集を同時に削除した りできます。 GUI を使用して特定のデータ収集を削除するには、削除する収集を選択して [Delete] をクリッ クします。 ローカルで保存されている zip ファイルおよび tgz ファイルが各ノードから削除 されます。 すべての収集を削除するには、[Delete All] をクリックします。 CLI を使用して特定のデータ収集を削除するには、次のコマンドを使用します。 ibrix_collect –d –n NAME 同時に削除する複数の収集を CLI を通じて指定するには、名前をセミコロンで区切って指定し ます。 CLI を通じてすべてのデータ収集を手動で削除するには、次のコマンドを使用します。 ibrix_collect –F アーカイブファイルのダウンロード データが収集されると、圧縮アーカイブファイルが作成され、/local/ibrixcollect/ archive ディレクトリ下の zip アーカイブファイル (.zip) に格納されます。 収集されたデー タを自分のデスクトップにダウンロードするには、Fusion Manager で収集を選択して [Download] をクリックします。 152 トラブルシューティング 注記: 一度にダウンロードできるのは 1 つの収集のみです。 注記: アーカイブファイルの平均サイズはクラスター内の各ノードに存在するログのサイズ に応じて異なります。 注記: この最終的な zip ファイルは、将来 HP サポートに送信するように求められる場合があ ります。 最終的な zip ファイルは、電子メールで受信する zip ファイルと同じではありませ ん。 Ibrix Collect の設定 システムのクラッシュ時にデータ収集が自動的に行われるように設定することができます。 こ の収集にはさらに、クラッシュダイジェスター出力も含まれます。 システムクラッシュにより トリガーされた収集のファイル名は、<timestamp>_crash_<crashedNodeName>.zip の 形式となります。 1. システムクラッシュ後の自動データ収集の有効化または無効化、および保管されるデータ セット数の設定を行うには、次の手順を実行します。 a. [Cluster Configuration] を選択して、次に [Ibrix Collect] を選択します。 b. [Modify] をクリックすると次のダイアログボックスが表示されます。 c. d. [General Settings] で、ボックスを適宜選択または選択解除して、自動収集の有効化ま たは無効化を行います。 クラスターに保管されるデータセット数をテキストボックスに入力します。 CLI を使用して自動データ収集の有効化または無効化を行うには、次のコマンドを使用し ます。 ibrix_collect –C –a <Yes\No> CLI を使用してクラスターに保管されるデータセット数を設定するには、次のコマンドを 使用します。 ibrix_collect -C -r NUMBER 2. 各データ収集イベントの発生後に自分のデスクトップに送信する、各ノードの収集情報の 概要が含まれる電子メールを設定するには、次の手順を実行します。 a. [Cluster Configuration] を選択して、次に [Ibrix Collect] を選択します。 Ibrix Collect を使用した HP サポート用情報の収集 153 b. c. d. [Modify] をクリックします。 [Email Settings] で、ボックスを適宜選択または選択解除して、電子メールによるクラ スター構成の送信を有効化または無効化します。 クラスター構成送信のための残りの必須フィールドに情報を入力して [OK] をクリッ クします。 CLI を使用してクラスター構成を送信する電子メールを設定するには、次のコマンドを使用し ます。 ibrix_collect –C –m <Yes\No> [–s <SMTP_server>] [–f <From>] [–t <To>] 注記: -t オプションには、セミコロンで区切ることにより複数の電子メール ID を指定でき ます。 この SMTP サーバー用の「From」および「To」コマンドは、Ibrix Collect 固有のものです。 データ収集情報の表示 CLI を通じてデータ収集履歴を表示するには、次のコマンドを使用します。 ibrix_collect –l 日付 (作成の)、サイズ、説明、状態およびイニシエーターなどのデータ収集の詳細情報を表示 するには、次のコマンドを使用します。 ibrix_collect –v –n <Name> データ収集構成情報の表示 データ収集構成情報を表示するには、次のコマンドを使用します。 ibrix_collect –i XML ファイル内のコマンドまたはログの追加/削除 収集されるログ、またはデータ収集中に実行されるコマンドを追加または変更するには、Ibrix Collect xml ファイルを修正します。このファイルは、/usr/local/ibrix/ibrixcollect ディレクトリに格納されています。 データの収集時に実行される コマンドおよび収集されるログは、/usr/local/ibrix/ ibrixcollect ディレクトリの以下のファイル内に保管されています。 • fm_summary.xml – Fusion Manager ノードに関連するコマンド • ss_summary.xml – ファイルサービングノードに関連するコマンド • common_summary.xml – Fusion Manager およびファイルサービングノードに共通なコマ ンドおよびログ 注記: これらの XML ファイルの修正は、慎重に行ってください。 修正時に 1 つでもタグが 失われると、Ibrix Collect が正しく動作しなくなる可能性があります。 9720 システムのトラブルシューティング 9720 システムでのトラブルシューティングは、次の手順で行ってください。 1. exds_stdiag ストレージ診断ユーティリティを実行します。 2. 結果を評価します。 3. HP サポートに問題を報告するには、問題の報告を参照してください。 問題の報告 9720 Storage エスカレーションツールは、システム状態のレポートを作成します。 HP テクニ カルサポートに問題を報告する場合、必ずエスカレーションレポートを求められるため、あら かじめレポートを含めておくと時間の節約になります。 154 トラブルシューティング 以下の例に示すように、exds_escalate コマンドを実行します。 [root@glory1 ~]# exds_escalate エスカレーションツールでは、root パスワードを必要とする操作があります。 要求時に root パスワードを入力できるようご準備ください。 便利なオプションがいくつかありますが、通常はオプションなしで実行できます。 -h オプショ ンは、利用可能なオプションを表示します。 エスカレーションコマンドには、通常長時間 (20 分以上) 必要です。 エスカレーションツールが終了すると、レポートを作成し、/exds_glory1_escalate.tgz.gz などのファイルに保存します。 このファイルを別のシステムにコピーし、HP サービスに送信 してください。 便利なユーティリティとプロセス exds_stdiag ユーティリティ exds_stdiag ユーティリティは、IBRIX 9720 Storage に付属の SAS ストレージインフラスト ラクチャを調査します。 このユーティリティは単一のサーバー上で実行されます。 SAS ファ ブリック全体が接続されているため、exds_stdiag は、それを実行するサーバーから、すべ てのストレージデータにアクセスできます。 exds_stdiag ユーティリティでの SAS ファブリックの調査では、以下の項目を含むチェック を行います。 • 各ディスクと LUN に 1 つ以上のパスがあること。 • 各パスでデバイスが同じ順序であること。 これによりケーブル接続の問題 (ケーブルの逆 接続など) を検出します。 • ディスクの欠損または不良。 • 論理ディスク (RAID セット) の破損。 • ファームウェアのリビジョン。 • 不良バッテリーの報告。 exds_stdiag ユーティリティは、マップと呼ばれるストレージレイアウトの概要を示すレ ポートを印刷します。 それからマップを分析し、実行した各チェックに関する情報を印刷しま す。 アスタリスク (*) で始まる行は、問題を示しています。 exds_stdiag ユーティリティは、ユーティリティファイルシステムにアクセスしないため、 ストレージの問題でユーティリティファイルシステムをマウントできない場合でも実行できま す。 構文は次のとおりです。 # exds_stdiag [--raw=<filename>] --raw=<filename> オプションでは、ツールが収集した raw データを、HP サポート窓口な どによるオフラインでの分析に適した形式で、指定のファイルに保存します。 この出力結果の典型的な例を次に示します。 [root@kudos1 ~]# exds_stdiag ExDS storage diagnostic rev 7336 Storage visible to kudos1 Wed 14 Oct 2009 14:15:33 +0000 node 7930RFCC BL460c.G6 fw I24.20090620 cpus 2 arch Intel hba 5001438004DEF5D0 P410i in 7930RFCC fw 2.00 boxes 1 disks 2 luns 1 batteries 0/cache 9720 システムのトラブルシューティング 155 hba PAPWV0F9SXA00S P700m in 7930RFCC fw 5.74 boxes 0 disks 0 luns 0 batteries 0/cache switch HP.3G.SAS.BL.SWH in 4A fw 2.72 switch HP.3G.SAS.BL.SWH in 3A fw 2.72 switch HP.3G.SAS.BL.SWH in 4B fw 2.72 switch HP.3G.SAS.BL.SWH in 3B fw 2.72 ctlr P89A40A9SV600X ExDS9100cc in 01/USP7030EKR slot 1 fw 0126.2008120502 boxes 3 disks 80 luns 10 batteries 2/OK cache OK box 1 ExDS9100c sn USP7030EKR fw 1.56 temp OK fans OK,OK,OK,OK power OK,OK box 2 ExDS9100cx sn CN881502JE fw 1.28 temp OK fans OK,OK power OK,OK,OK,OK box 3 ExDS9100cx sn CN881502JE fw 1.28 temp OK fans OK,OK power OK,OK,OK,OK ctlr P89A40A9SUS0LC ExDS9100cc in 01/USP7030EKR slot 2 fw 0126.2008120502 boxes 3 disks 80 luns 10 batteries 2/OK cache OK box 1 ExDS9100c sn USP7030EKR fw 1.56 temp OK fans OK,OK,OK,OK power OK,OK box 2 ExDS9100cx sn CN881502JE fw 1.28 temp OK fans OK,OK power OK,OK,OK,OK box 3 ExDS9100cx sn CN881502JE fw 1.28 temp OK fans OK,OK power OK,OK,OK,OK Analysis: disk problems on USP7030EKR * box 3 drive [10,15] missing or failed ctlr firmware problems on USP7030EKR * 0126.2008120502 (min 0130.2009092901) on ctlr P89A40A9SV600 exds_netdiag ユーティリティ exds_netdiag ユーティリティでは、IBRIX 9720 Storage 内のネットワークコンポーネント のテストとデータの取得を行います。 このユーティリティには次のような機能があります。 • Ethernet インターコネクト障害の報告 (HP Blade Chassis Onboard Administrator により報 告された障害) • サイトのアップリンクの欠落、障害または低下の報告 • サーバーブレードの NIC の欠落または障害 出力の例: 156 トラブルシューティング exds_netperf ユーティリティ exds_netperf ユーティリティでは、ネットワークパフォーマンスを測定します。 このツー ルは、クライアントシステムと 9720 Storage の間のパフォーマンスを測定します。 システム を最初に設置したときにこのテストを実施してください。 ネットワークが正常に動作している 場合は、パフォーマンス結果はそのネットワークに期待されるリンク速度と一致します (1– link につきおよそ 90 MB/秒)。その他のときにも、パフォーマンスが低下しているか判断するため にテストを実行できます。 exds_netperf ユーティリティでは、2 つのモードでストリーミングのパフォーマンスを測 定します。 • シリアル — ストリーミング I/O が、各ネットワークインターフェイスで順番に実行され ます。 exds_netperf が実行されているホストは、テストを受けているクライアントで す。 • パラレル — ストリーミング I/O が、すべてのネットワークインターフェイスで同時に実 行されます。 このテストは複数のクライアントで行います。 シリアルテストはポイントツーポイントのパフォーマンスを測定します。 パラレルテストは、 ネットワークインフラストラクチャのより多くのコンポーネントを測定するため、シリアルテ ストでは発見できない問題を見つけられる場合があります。 パラレルテストの全体のスルー プットは、クライアントのネットワークインターフェイスに制限されることに注意してくださ い。 テストは次のように実行されます。 • /opt/hp/mxso/diags/netperf-2.1.p13 の内容を、x86_64 クライアントホストに コピーします。 • テストスクリプトを、テストを実行する 1 つのクライアントにコピーします。 必要なス クリプトは、/opt/hp/mxso/diags/bin ディレクトリの exds_netperf、 diags_lib.bash および nodes_lib.bash です。 • exds_netserver -s <server_list> を実行し、各 9720 Storage サーバーブレード のテストのためにレシーバーを起動します。次に例を示します。 exds_netserver -s glory[1-8] • README.txt ファイルで exds_netperf 構築の説明を読み、exds_netperf を構築お よびインストールします。 テストに使用する予定のすべてのクライアントにインストール してください。 • クライアントのホスト上で、各 9720 Storage サーバーに対し、順番に exds_netperf をシリアルモードで実行します。 たとえば、eth2 アドレスが 16.123.123.1 および 16.123.123.2 の 2 つのサーバーがある場合、次のコマンドを使用します。 # exds_netperf --serial --server “16.123.123.1 16.123.123.2” • クライアントのホスト上で、次の例に示すように、exds_netperf をパラレルモードで 実行します。 この例では、"blue"、"red"の 2 つのホストがテストを受けるクライアント です (exds_netperf 自体は、これらのホストのいずれかまたは別のホストの場合があり ます)。 # exds_netperf --parallell \ --server “16.123.123.1,16.123.123.2” \ --clients “red,blue” 通常、使用する IP アドレスはホストインターフェイスの IP アドレス (eth2、eth3 など) です。 9720 システムのトラブルシューティング 157 Onboard Administrator へのアクセス ネットワーク経由で OA にアクセス CLI を持つ OA は、ssh を使ってアクセスできます。 OA のアドレスは、/etc/hosts に自 動的に含まれます。 名称は <systemname>-mp です。 たとえば、 glory と呼ばれるシステ ムの OA に接続するには、次のコマンドを使用します。 # ssh exds@glory-mp OA の Web ベースの管理インターフェイスにアクセス OA にはまた、Web ベースの管理インターフェイスがあります。 OA の IP アドレスは管理 ネットワーク上にあるため、システムの外から直接アクセスすることはできません。 ssh で トンネリングし、OA にアクセスします。 たとえば、putty などのパブリックドメインツー ルを使用して、ローカルポート (8888 など) を構成し、リモートサーバー上の <systemname>-mp:443 に転送します。 たとえば、 glory と呼ばれるシステムの場合、リ モートの宛先を glory-mp:443 と設定します。そして、デスクトップから glory にログインし ます。 デスクトップで、ブラウザーに https://localhost:8888 を指定すると、OA に接続でき ます。 Linux システムでは、これは次のコマンドに相当します。 # ssh glory1 -L 8888:glory-mp:443 ただし、お使いの Linux ブラウザーが OA に対応していない場合があります。 シリアルポート経由で OA にアクセス 各 OA にはシリアルポートがあります。 このポートでターミナルコンセントレーターに接続 できます。 これにより、すべてのサーバーの電源が切れている場合にシステムにリモートアク セスできます。 シリアルポート経由で、すべての OA コマンドと機能を利用できます。 ログ インには、管理者または 9720 Storage のユーザー名を使用します。 付属のドングルを使って、ブレードから OA のシリアルポートにアクセスすることもできま す。 この方法は、VC ネットワークの構成を誤り、ネットワーク経由で OA にアクセスできな い場合に利用できます。 シリアルポートには次の手順でアクセスしてください。 1. ブレードの前面にドングルを接続します。 2. OA のシリアルポートとドングルのシリアルコネクターを、シリアルケーブルで接続しま す。 3. TFT キーボード/マウス/モニターでサーバーにログインします。 4. 次のように minicom を実行します。 # Mincom [Ctrl-A] を押し、次に [p] を押します。 Comm Parameters メニューが表示されます。 9600 baud を選択します。 [Enter] を押して、この項目を保存します。 [Ctrl-A] を押し、次に [m] を押して、モデムを再初期化します。 これで OA のシリアルイ ンターフェイスに接続した状態です。 9. [Enter] キーを押します。 10. 終わったら、[Ctrl-A] を押し、次に [q] を押して minicom を終了します。 5. 6. 7. 8. サービスポート経由で OA にアクセス 各 OA にはサービスポートがあります (OA の一番右側の Ethernet ポートがこれにあたります)。 これにより、ラップトップコンピューターを使って OA のコマンドラインインターフェイスに アクセスできます。 ラップトップコンピューターをサービスポートに接続する方法について は、『HP BladeSystem c7000 エンクロージャセットアップ/インストレーションガイド』を参 照してください。 158 トラブルシューティング hpacucli の使用 – アレイコンフィギュレーションユーティリティ (ACU) hpacucli コマンドは、X9700c コントローラーに対するコマンドラインインターフェイスで す。 また、E200i および P700m コントローラーの構成にも使用できます (ただし HP では推 奨しません)。 9720 キャパシティブロックは構成済みで提供されますが、 LUN の構成が必要なときに hpacucli ユーティリティを利用できます。 また、これによりアレイの状態を確認すること もできます。 hpacucli は、システム内のいずれのサーバーでも使用できます。 hpacucli の複数コピー を (別々のサーバーで) 同時に開始することは止めてください。 注意: HP サポートの指示がない限り、LUN を作成しないでください。 POST エラーメッセージ サーバーのエラーメッセージについては、http://www.hp.com/support/manuals (英語) にある 『HP ProLiant サーバートラブルシューティングガイド』の「POST エラーメッセージおよび ビープコード」を参照してください。日本語版が用意されているマニュアルは、 http://www.hp.com/jp/manual/ (日本語) から入手できます。 IBRIX 9730 コントローラーエラーメッセージ システム起動中にコントローラーの電源が入らない場合は、POST に表示されるロックアップ コードを HP サポートに連絡してください。 下表にロックアップコードの一覧を示します。 1 文字目はロックアップタイプ (C、H または F) です。 2 文字目は 1 または 2 で、コントローラーが自身をマスターとスレーブのどちらと して認識しているかにより異なります。 最後の 2 文字がコードです。 ロックアップコード 説明 Cn01 ハードウェアがサポートされていない Cn03 ファームウェアがサポートされていない Cn04 メモリモジュールの不適合 Cn05 コントローラーがハードウェアから位置ストリングを受信しなかった Cn10 TBM が取り付けられていない、または検出されない Cn11 TBM が SAS2 ゾーニングを正常に構成できなかった Fn00 ヒープ領域のメモリ不足 Fn01 ファームウェアアサーション Fn10 TLB エントリーに無効な値がある Fn11 無効な TLB レジスターにアクセスしようとした Fn12 TLB エントリーのサイズが無効 Fn13 利用可能な仮想アドレススペースがない Fn14 TLB テーブルにエントリーがない Fn20 不明な DCR レジスター Fn21 スタックポインターが NULL である Fn22 スレッドを作成できなかった Fn24 OS サービスへのコールに失敗した Fn25 出力するストリングが長すぎる POST エラーメッセージ 159 ロックアップコード 説明 Fn26 OpProc 状態の変更中に不良状態が見られた Fn27 BMIC Inject Faults コマンドを受信した Fn28 他のコントローラーから Valid RIS を受信しなかった Fn29 CLI コードの致命的エラー Fn30 DMA 転送が失敗 Fn31 DMA 要求が失敗 Fn32 DMA CDB が無効 Fn40 発信側が存在しない PCI コアを指定した Fn41 PCI デバイスの数が上限を超えている Fn51 NVRAM セットのデフォルトフラグをクリアできなかった Fn52 致命的な例外が発生した Fn53 ファームウェアイメージがロードに失敗 Fn54 ファームウェアがメモリの初期化に失敗 Fn60 SAS: ホストクレジットへの再ポスト時の不具合 Fn61 SAS: 予期せぬ IOC ステータスが返された Fn62 SAS: DevHandle 値が再使用された Fn67 SAS: JBOD hotplug がサポートされていない Fn68 SAS: ターゲットリソースが割り当てられていない Fn69 SAS: イニシエーターが多すぎる Fn70 無効なファームウェアをクローンした Hn00 DMA 操作が失敗 Hn01 XOR 診断が失敗 Hn02 DMA ハードウェアの問題 Hn10 リモートデバイス、I/O スペースが上限を超えている Hn11 トータルの PCI アドレススペースを越えた Hn12 不正なエンドポイントがある Hn13 HLDPLB ビット用の不良コアリセット状態 Hn14 RSTGU ビット用の不良コアリセット状態 Hn15 RDY ビット用の不良コアリセット状態 Hn16 RSTDL ビット用の不良コアリセット状態 Hn17 RSTPYN ビット用の不良コアリセット状態 Hn18 SHUTDW ビット用の不良コアリセット状態 Hn19 コアリンク幅が無効 Hn20 PCI-X 不良 Hn21 ICL の故障 Hn30 致命的な ECC エラー Hn31 OS が致命的エラーを検出した 160 トラブルシューティング ロックアップコード 説明 Hn32 未処理の割り込み Hn34 PLL がロックに失敗 Hn35 予期しない割り込み Hn36 I2C ハードウェアの故障 Hn45 Post メモリテストの失敗 (LOCKUP) Hn46 Post メモリチューニングの失敗 (LOCKUP) Hn47 Post: メモリがない (LOCKUP) Hn48 Post: サポートされていないメモリ (LOCKUP) Hn49 Post: 無効なメモリ SPD データ (LOCKUP) Hn50 Post: PLB バスエラー (LOCKUP) Hn60 SAS チップタイムアウト Hn61 SAS コアが無効なフレームタイプを受信した Hn62 SAS コアが無効なアドレス回答を受信した Hn63 SAS コアの割り込みが滞っている Hn64 SAS コアの障害が疑われる (LOCKUP) Hn65 SAS コアが応答していない (HANG) Hn66 SAS コアが意図的に停止された Hn67 SAS エキスパンダーの不良が疑われる Hn68 SAS コアが無効な I/O インデックスを報告した Hn70 EMU: サーマルシャットダウンの危険 Hn71 EMU: ファン故障によるサーマルシャットダウン IBRIX 9720 LUN レイアウト ここに示す LUN レイアウトは、トラブルシューティングを目的としたものです。 1 TB HDD のキャパシティブロックの場合: • 2x 1 GB LUN— これらは X9100 によりメンバーシップパーティションに使われ、9720 では後方互換性のために維持されます。 お客様が適当だとみなす場合はそれらを使用でき ますが、パフォーマンスに制限があるため、HP では通常のデータストレージに使用する ことを推奨していません。 • 1x 100 GB LUN— これは、バックアップなど管理者用に準備されています。 これらのディ スクの帯域幅は、上述の 1 GB LUN と下記のデータ LUN の 1 つで共有しています。 • 8x~8 TB LUN— これらは製品のメインデータストレージとして使用されます。 RAID6 構 成でそれぞれ 10 個のディスクがサポートしており、最初の LUN は、そのディスクを上述 の 3 つの LUN と共有しています。 2 TB HDD のキャパシティブロックの場合: • 1 GB および 100 GB LUN は上記と同じです。 • 16x~8 TB LUN— これらは製品のメインデータストレージとして使用されます。 LUN の 各ペアは、RAID6 構成でそれぞれ 10 個のディスクがサポートしています。 最初の LUN は、そのディスクを上述の 3 つの LUN と共有しています。 IBRIX 9720 LUN レイアウト 161 IBRIX 9720 コンポーネントの監視 システムは、システム内の次のコンポーネントをアクティブに監視します。 • ブレードシャーシ: 電源、ファン、ネットワークモジュール、SAS スイッチ、Onboard Administrator モジュール • ブレード: ローカルハードドライブ、9100cc コントローラーへのすべてのアクセス • 9100c: 電源、ファン、ハードドライブ、9100cc コントローラーおよび LUN ステータス • 9100cx: 電源、ファン、I/O モジュールおよびハードウェアドライブ これらのコンポーネントのいずれかが故障すると、イベントが発生します。 Events の構成内容 により、各イベントが E メールか SNMP トラップを生成します。 コンポーネントの中には、 故障時に複数のイベントを生成するものがあります。 故障したコンポーネントは ibrix_vs -i の出力で報告され、故障したストレージコンポーネントは ibrix_health -V -i の出力 で報告されます。 X9700cx シャーシ上の故障 I/O モジュールの特定 X9700cx の I/O モジュール (またはそれに接続されている SAS ケーブル) が故障した場合、そ の I/O モジュールに取り付けられている X9700c コントローラーが再起動します。I/O モジュー ルがすぐに回復しない場合、X9700c コントローラーは停止状態になります。 X9700cx の I/O モジュールは 2 つあるため、どちらの I/O モジュールが故障したのかすぐにはわかりません。 さらに、X9700c コントローラーは他の理由でも停止したり故障したように見える場合があり ます。 本書では、故障条件が X9700cx の I/O モジュールにあるのか他にあるのかを特定する 方法について説明します。 故障の表示 故障または停止した X9700c コントローラーは、次のように多くの方法で示されます。 • 9720 システムで、exds_stdiag レポートが故障または停止した X9700c コントローラー を表示。 • E メールによる警告。 • GUI で、影響を受けるキャパシティブロックにある論理ボリュームが警告を表示。 • X9700c コントローラーの黄色の障害 LED が点滅。 • 7 セグメントディスプレイが H1、H2、C1 または C2 コードを表示。 2 番目の数字が問 題のコントローラーを示します。 たとえば、H1 はコントローラー 1 (背面から見て左の コントローラー) に問題があることを示します。 故障したコンポーネントの特定 重要: X9700cx の I/O モジュールの交換では、事前にインストールされたファームウェアの バージョンが誤っている場合があります。 X9700cx の I/O モジュールは、ファームウェア バージョンが混在していると動作しません。 新しい X9700cx I/O モジュールを挿入する前 に、システムのダウンタイムを考慮してください。 1. 162 SAS スイッチが、正しいコントローラーおよび I/O モジュールに接続されていることを 検証します。 下の配線図は、SAS ケーブルの正しい配線を示しています。 トラブルシューティング 1. X9700c 2. X9700cx プライマリ I/O モジュール (ドロアー 2) 3. X9700cx セカンダリ I/O モジュール (ドロアー 2) 4. X9700cx プライマリ I/O モジュール (ドロアー 1) 5. X9700cx セカンダリ I/O モジュール (ドロアー 1) 上図のように、X9700c コントローラー 1 (左) はプライマリ (最上部) X9700cx I/O モ ジュールに接続され、コントローラー 2 (右) はセカンダリ (最下部) I/O モジュールに接続 されています。 可能であれば、SAS ケーブルをたどってシステムが正しく配線されてい るか確認してください。 2. 7 セグメントディスプレイを確認し、該当する場合は次の事項にご注意ください。 • 7 セグメントディスプレイが「on」と表示していれば、X9700c コントローラーは動 作可能です。 • 7 セグメントディスプレイが「on」と表示していても、本書ですでに説明したような パスエラーがある場合は、X9700c コントローラーと、ブレードシャーシ内の SAS ス イッチを接続している SAS ケーブルに問題がある場合があります。 SAS ケーブルを 交換し、exds_stdiag コマンドを実行してください。2 つのコントローラーについ て報告されます。 または、SAS ケーブルを、SAS スイッチの別のポートに接続して みてください。 • 7 セグメントディスプレイが「on」と表示しない場合、アルファベットのコードを表 示します。 数字は問題のあるコントローラーを示しています。 たとえば「C1」は、 コントローラー 1 (左のコントローラー) に問題があることを示しています。 7 セグメ ントディスプレイの横の下向きボタンを押してください。 2 桁の数字がディスプレイ に表示されます。 次の表ではコードについて説明します。 n は、影響を受けるコン トローラーによって 1 または 2 になります。 コード 説明 次の手順 Hn 67 X9700cx I/O モジュールに接続上の問題が 次の手順に進みます。 あるため、コントローラー n が停止してい ます。 Cn 02 X9700cx I/O モジュールに接続上の問題が 次の手順に進みます。 あるため、コントローラー n が停止してい ます。 その他の コード X9700c コントローラーに不具合がありま す。 X9700cx またはコントローラーと I/O モジュールを接続している SAS ケーブルに は不具合がありません。 本書で後述するようにコントローラーを取り付け 直してください。不具合が解消されない場合は、 HP サポートに報告して交換用のコントローラーを 入手してください。 X9700cx シャーシ上の故障 I/O モジュールの特定 163 3. 停止した X9700c コントローラーと X9700cx I/O モジュールを接続している SAS ケーブ ルを確認します。 SAS ケーブルの両端を取り外し、再度挿入します。 特に、SAS ケーブ ルが I/O モジュールに確実に挿入されていることと、X9700cx I/O モジュールの最下部 のポートが使用されていることを確認してください。 ケーブルに明らかな損傷が見られる場合は、SAS ケーブルを交換してください。 4. 停止した X9700c コントローラーを取り付け直します。 a. コントローラーを、確実にはまるまでシャーシ内に完全に押し込みます。 b. c-Class ブレードエンクロージャー内で X9700c と SAS スイッチを接続する SAS ケー ブルを再度取り付けます。 これはポート 1 につなぎます。 コントローラーが起動するのを待ち、7 セグメントディスプレイを確認します。 5. 6. 7. • 7 セグメントディスプレイが「on」と表示していれば、不具合は訂正され、システム は通常に戻っています。 • 7 セグメントディスプレイが依然として Hn 67 または Cn 02 コードを表示する場合 は、次の手順に進んでください。 この段階で、問題が X9700cx I/O モジュールにあることが特定されました。 不具合が最 上部のモジュールにあるのか最下部のモジュールにあるのかを判断します。 たとえば、7 セグメントディスプレイが C1 02 と表示する場合、不具合はプライマリ (最上部) I/O モ ジュールの 1 つにある可能性があります。 GUI を使用して、すべてのファイルシステムをアンマウントします。 詳細については、 『HP IBRIX 9000 Storage File System ユーザーガイド』を参照してください。 I/O モジュールの LED を確認します。 I/O モジュールの LED が黄色の場合、次の手順を 実行してください。 a. 次の手順で I/O モジュールを交換します。 a. I/O モジュールと X9700c コントローラーを接続している SAS ケーブルを取り 外します。 b. ディスクドロアーが完全に押し込まれ、ロックされていることを確認します。 c. I/O モジュールを取り外します。 d. 新しい I/O モジュールに交換します (ディスクドロアーが完全に押し込まれてい ないと、ドロアーにはまりません)。 e. SAS ケーブルを再度取り付けます。 確実に「IN」ポート (最下部のポート) に取 り付けてください。 b. c. 8. 下記の「X9700c コントローラーの取り付け直し」の説明に従って、コントローラー 1 を取り付け直します。 コントローラーが起動するのを待ち、7 セグメントディスプレイを確認します。 • 7 セグメントディスプレイが「on」と表示していれば、不具合は訂正され、シス テムは通常に戻っています。手順 11 に進んでください。 • 7 セグメントディスプレイが依然として Hn 67 または Cn 02 コードを表示する 場合は、次の手順に進んでください。 黄色 LED が点灯していなくても、I/O モジュールの 1 つが故障している場合があります。 次の手順で I/O モジュールを 1 つずつ交換してください。 a. 左 (手順 4 で識別された最上部か最下部) の I/O モジュールを取り外し、次の手順で 新しいモジュールと交換します。 a. I/O モジュールと X9700c コントローラーを接続している SAS ケーブルを取り 外します。 b. ディスクドロアーが完全に押し込まれ、ロックされていることを確認します。 c. I/O モジュールを取り外します。 d. 新しい I/O モジュールに交換します (ディスクドロアーが完全に押し込まれてい ないと、ドロアーにはまりません)。 164 トラブルシューティング e. b. c. d. e. f. g. h. SAS ケーブルを再度取り付けます。 確実に「IN」ポート (最下部のポート) に取 り付けてください。 下記の「X9700c コントローラーの取り付け直し」の説明に従って、適切な X9700c コントローラーを取り付け直します。 コントローラーが起動するのを待ちます。 • 7 セグメントディスプレイが「on」と表示していれば、不具合は訂正され、シス テムは通常に戻っています。手順 11 に進んでください。 • 7 セグメントディスプレイが依然として Hn 67 または Cn 02 コードを表示する 場合は、次の手順に進んでください。 不具合が解決しない場合は、左の I/O モジュールを取り外し、元の I/O モジュール を再度挿入します。 下記の「X9700c コントローラーの取り付け直し」の説明に従って、適切な X9700c コントローラーを取り付け直します。 コントローラーが起動するのを待ちます。 • 7 セグメントディスプレイが「on」と表示していれば、不具合は訂正され、シス テムは通常に戻っています。手順 11 に進んでください。 • 7 セグメントディスプレイが依然として Hn 67 または Cn 02 コードを表示する 場合は、次の手順に進んでください。 不具合が解決しない場合は、右の I/O モジュールを取り外し、新しい I/O モジュー ルと交換します。 下記の「X9700c コントローラーの取り付け直し」の説明に従って、適切な X9700c コントローラーを取り付け直します。 7 セグメントディスプレイが「on」と表示していれば、exds_stdiag コマンドを実行 し、exds_stdiag で両コントローラーが見えることを確認します。 10. この段階で不具合が解決しない場合は、二重故障の可能性があります (つまり 2 つの I/O モジュールの故障)。 または、いずれかの SAS ケーブルの不具合の可能性があります。 HP サポートの支援で不具合を特定してください。 次のように exds_escalate コマンド を実行し、HP サポートが使用するエスカレーションレポートを作成します。 9. # exds_escalate 11. この段階で、X9700cx I/O モジュールは交換されています。 I/O モジュールのファーム ウェアを、9720 Storage に含まれるバージョンに変更してください。 a. 次のコマンドを使ってアレイのシリアル番号を識別します。 exds_stdiag b. X9700cx I/O モジュールのファームウェアアップデートコマンドを実行します。 # /opt/hp/mxso/firmware/exds9100cx_scexe –s コマンドは一時停止してシステム構成を収集します。これには、大規模なシステムで 数分かかります。 それからアレイのシリアル番号を表示し、更新するかどうか確認し ます。 表示されたシリアル番号が更新するアレイではない場合、[N] で「no」を選択 します。 コマンドにはシリアル番号が引き続き表示されます。 目的のアレイにたどり着いた ら、[Y] を選択してファームウェアを更新します。 注記: 別のアレイで [Y] と答えてしまった場合は、通常どおりコマンドを終了させま す。 上述のように I/O モジュールは保留状態なので、これによる悪影響はありませ ん (また、I/O モジュールはすでに 9720 Storage に含まれるレベルになっているはず です)。 c. d. アレイの更新後、[q] を入力して更新ユーティリティを終了します。 影響のある X9700c および X9700cx の電源ボタンを押して電源を切ります。 X9700cx シャーシ上の故障 I/O モジュールの特定 165 e. キャパシティブロックに再度電源を投入します。 まず X9700cx の電源を入れ、次に 関連する X9700c の電源を入れます。 ファームウェアの更新は再起動中に実行され るため、通常より再起動に時間がかかる場合があります (最大 25 分)。 すべての X9700c エンクロージャーの 7 セグメントディスプレイが「on」になるまで待ってか ら次に進みます。 X9700c の 7 セグメントディスプレイが 25 分後でも「on」に戻ら ない場合、キャパシティブロック全体のパワーサイクル (電源を切ってから入れ直す) を再度行ってください。 12. exds_stdiag コマンドを実行し、ファームウェアバージョンを確認します。 X9700cx の両ドロアー (ボックス) でファームウェアが同じであることを確認してください。 次に 示すのは exds_stdiag 出力の例です。 ... ctlr P89A40C9SW705J box 1 ExDS9100c box 2 ExDS9100cx box 3 ExDS9100cx ExDS9100cc in 01/SGA830000M slot 1 fw 0126.2008120502 boxes 3 disks 22 luns 5 sn SGA830000M fw 1.56 fans OK,OK,OK,OK temp OK power OK,OK sn CN8827002Z fw 1.28 fans OK,OK temp OK power OK,OK,FAILED,OK sn CN8827002Z fw 2.03 fans OK,OK temp OK power OK,OK,OK,OK 上の例では、アレイのシリアル番号 (ボックス 1) は SGA830000M です。 ボックス 2 (X9700cx の左のドロアー) のファームウェアレベルは 1.28 です。 ボックス 3 (右のドロ アー) のファームウェアレベルは 2.03 です。 これは、ファームウェアレベルが同じでは ないのでサポートされていません (手順 11 に示すとおり、ファームウェアを更新する必 要があります) 。 13. GUI を使って、手順 6 でアンマウントしたファイルシステムをマウントします。 X9700c コントローラーの取り付け直し 取り付け直すコントローラーが正しいことを確認してください。 黄色 LED の点滅と 7 セグメ ントディスプレイの両方を確認する必要があります。 H1 または C1 コードはコントローラー 1 (左) の停止を示し、H2 または C2 コードはコントローラー 2 (右) を取り付け直す必要があ ることを示します。 注記: この手順の間に SAS ケーブルを取り外す必要はありません。 コントローラーを取り付け直すには、以下の手順を実行します。 1. コントローラーのつまみラッチを押し込んで、ラッチハンドルを下側に回転させます。 2. コントローラーを明らかに外れている状態まで引き出します (コントローラーを完全に取 り外す必要はありません)。 3. コントローラーが外れている状態で、SAS ケーブルが完全に挿入されていることを確認し ます。 4. コントローラーをシャーシに完全に押し込んではめ込みます。 コントローラーが起動すると、7 セグメントディスプレイは異なるコードを表示します。 数分 後、7 セグメントディスプレイは一定の値を表示します (以前にファームウェアフラッシュユー ティリティを実行している場合、最長 25 分かかります)。 値が「on」であればコントローラー は正常に動作しています。 それ以外の場合は、「故障したコンポーネントの特定」 (162 ペー ジ) を参照してください。 ソフトウェアのバージョン番号の表示 複数のホストについてバージョン情報を表示するには、次のコマンドを使用します。 ibrix_version -l [-h HOSTLIST] ホストごとに次の情報が出力されます。 • インストールされているファイルシステムのバージョン番号。 • IAD およびファイルシステムモジュールのバージョン番号 • オペレーティングシステムのタイプと OS カーネルのバージョン 166 トラブルシューティング • プロセッサーアーキテクチャー -S オプションを含めると、すべてのファイルサービングノードについて、これらの情報が表 示されます。 -C オプションを含めると、すべての 9000 クライアントについて情報が表示さ れます。 特殊なリリースやパッチをインストールしていない限り、File System 出力フィールドおよび IAD/FS 出力フィールドに表示されるバージョン番号は、通常、一致します。 出力フィールド に示されるバージョン番号が一致しておらず、不一致の理由が不明な場合は、HP サポートに お問い合わせください。 不一致があると、クラスターの動作に影響が生じる可能性がありま す。 特定の問題のトラブルシューティング ソフトウェアサービス ファイルサービングノードまたは Linux 9000 クライアントでサービスを開始できない SELinux が有効化されている可能性があります。 SELinux の現在の状態を確認するには、 getenforce コマンドを使用します。 このコマンドが enforcing を返す場合は、次のいず れかのコマンドを使用して SELinux を無効化します。 setenforce Permissive setenforce 0 SELinux を永続的に無効化するには、SELinux の構成ファイル (/etc/selinux/config) を編 集し、SELINUX= パラメーターを permissive または disabled に設定します。 次のブー ト時に SELinux が停止されます。 9000 クライアントの場合、クライアントが Fusion Manager に登録されていない可能性があ ります。 クライアントの登録の詳細については、『HP IBRIX 9000 Storage インストールガイ ド』 を参照してください。 フェイルオーバー ストレージサブシステムの障害が原因で発生したフェイルオーバーからのフェイルバッ クができない 自動フェイルオーバーがオンになっている場合にストレージサブシステムに障害が発生する と、Fusion Manager がストレージサブシステムのフェイルオーバープロトコルを開始します。 これにより、セグメントのオーナーシップがプライマリサーバーからスタンバイに渡されたこ とを記録するように構成情報データベースが更新されます。その後、スタンバイへのセグメン トの移行が試行されます。 しかし、プライマリサーバーとスタンバイのどちらからもストレー ジサブシステムにアクセスできないため、セグメントを移行できず、フェイルオーバーが停止 されます。 次の手動復旧手順を実施してください。 1. 障害の発生したストレージサブシステムを復元します (たとえば、障害の発生したファイ バーチャネルを交換するか、またはストレージアレイから削除された LUN を交換します)。 2. フェイルオーバーを完了できるようにするために、スタンバイサーバーを再起動します。 ストレージサブシステムに障害が発生したためフェイルバックができない この問題は、前の問題と類似しています。 フェイルバックの開始後にストレージサブシステム に障害が発生した場合は、セグメントがまだプライマリサーバーに移行されていなくても、 フェイルバックが行われたことが構成情報データベースに記録されます。 ibrix_fs -i -f FSNAME を実行すると、実際にはプライマリサーバーがセグメントを所有していなくても、プ ライマリサーバーがセグメントを現在所有していることを意味する No がコマンド出力の ONBACKUP フィールドに示されます。 この場合は、ストレージサブシステムの問題を解決し た後もフェイルバックを完了できません。 特定の問題のトラブルシューティング 167 次の手動復旧手順を実施してください。 1. 障害の発生したストレージサブシステムを復元します。 2. 停止されたフェイルバックを完了できるようにするために、スタンバイサーバーを再起動 します。 セグメントの移行後に生じる 9000 クライアントの I/O エラー 異なるファイルサービングノードへのセグメントの移行が正常に完了した後、クライアントに よる I/O 処理の継続を可能にするために、その変更を反映するように更新されたマップが Fusion Manager からすべての 9000 クライアントに送信されます。 ただし、クライアントと Fusion Manager の間のネットワーク接続がアクティブになっていない場合は、更新されたマッ プをクライアントが受信できないため、クライアント I/O エラーが発生します。 この問題を解決するには、クライアントと Fusion Manager の間のネットワーク接続を復元し ます。 Windows 9000 クライアント ログイン後に「Permission Denied」メッセージが表示される ドメイン名が指定されていないため、9000 クライアントが Active Directory サーバーにアクセ スできないことが原因です。 Active Directory を再設定して、ドメイン名を指定します (詳細 は、『HP IBRIX 9000 Storage インストールガイド』を参照してください)。 [Active Directory Settings] タブの Verify ボタンが機能しない この問題は、上の問題と同じ原因で発生します。 マウントされているドライブが Windows エクスプローラーに表示されない ドライブをエクスプローラーに表示させるには、ドライブをマウントした後、いったんログオ フしてからログインし直すか、またはマシンを再起動します。 DOS コマンドウィンドウを開 いて、ドライブに手動でアクセスすることもできます。 マウントされているドライブがターミナルサーバー使用時に表示されない いったんログオフしてからログインし直すことにより、ブラウザーに表示されるシステムの ビューを更新します。 9000 クライアントの自動スタートアップがデバッグの妨げになる 9000 クライアントは自動的に起動するように設定されています。ただし、この動作は、Windows 9000 クライアントに関する問題のデバッグの妨げになることがあります。 この問題を回避す るには、コンピューターをセーフモードで再起動し、Windows 9000 クライアントサービスの モードを手動に変更することにより、クライアントを起動せずにコンピューターを再起動でき るようにします。 1. [コントロールパネル]、[管理ツール]、[サービス]の順にクリックして、サービス制御マネー ジャーを開きます。 2. [9000 client Services] を右クリックし、[プロパティ]を選択します。 3. [スタートアップの種類] を [手動]に変更した後、[OK] をクリックします。 4. クライアントに関する問題をデバッグします。 デバッグを完了したら、上記の手順を繰り 返して [スタートアップの種類] を [自動]に変更することにより、Windows 9000 クライア ントサービスを自動スタートアップに戻します。 モード 1 ボンディングまたはモード 6 ボンディング HP では、9720 システムに 10 Gbps ネットワークとモード 1 ボンディングを推奨していま す。 1 Gbps を使用する必要があり、X1~X6 のすべての VirtualConnect ポートが装着されて いたとしてもネットワーク帯域幅が制限要因となりうる場合、追加の帯域幅にモード 6 (アク ティブ/アクティブ) ボンディングの使用を検討できます。 しかし、モード 6 ボンディングは 168 トラブルシューティング ネットワークトポロジ問題に影響を受けやすく、配備すると ARP トラフィックストームを起こ すと考えられています。 Onboard Administrator が反応しない フラットなネットワークのシステムでは、過剰なブロードキャストトラフィックにより OA が 反応しなくなることがあります。 次のことに留意してください。 • OA は、低レベルのブロードキャストトラフィックのネットワークに接続する必要があり ます。 これに従わないと、まずインストール中のタイムアウトエラーとして兆候が現れ、 その後、監視上の警告間違いや、最悪の場合は OA のハングアップにつながります。 • まれに、ブロードキャストトラフィックが多すぎて OA がハングアップすることがありま す。 この状態は、監視、インストールおよび IBRIX フェイルオーバーなど、様々なエラー で現れます。 正しい機能性を回復するには、手動で OA モジュールを取り付け直すか、 C7000 のパワーサイクルを行ってください。 この問題を診断するため、OA の syslog で次のようなメッセージを確認します。 Feb 1 16:41:56 Kernel: Network packet flooding detected. Disabling network interface for 2 seconds IBRIX RPC のホスト呼び出しが失敗する ファイルサービングノード上の /var/log/messages に、次のようなメッセージがある場合 があります。 ibr_process_status(): Err: RPC call to host=wodao6 failed, error=-651, func=IDE_FSYNC_prepacked これらのメッセージが持続的に現れる場合は、早めに HP サービスにご連絡ください。 メッ セージがデータ損失の可能性を示したり、IBRIX ファイルシステムにアクセスするアプリケー ションで I/O エラーが発生したりします。 サーバーブレード/電源 PIC の劣化 サーバーブレードまたはマザーボードの交換後、ブレードシャーシの Insight Manager ディス プレイが、電源 PIC モジュールの期限切れまたはファームウェアに互換性がないというエラー メッセージを表示することがあります。 その場合は、次の手順で PIC ファームウェアを更新で きます。 1. サーバーにログオンします。 2. hp-ilo を開始します。 # service hp-ilo start 3. 電源 PIC を更新します。 # /opt/hp/mxso/firmware/power_pic_scexe 4. サーバーを再起動します。 LUN ステータスが「failed」 LUN ステータスが failed の場合は、論理ドライブが故障しています。 これは通常 3 個以上の ディスクドライブの故障の結果です。 これは、故障したディスクドライブの交換時に別のディ スクドライブを取り外した場合にも起こります。 この状態になったら、次の手順を実行してください。 1. 最近のディスクの取り外しまたは再挿入を注意深く記録します。 アレイ、ボックスおよび ベイの番号を追跡し、どのディスクドライブが取り外しまたは挿入されたのかを確認しま す。 2. 9720 システムで、ただちに次のコマンドを実行します。 # exds_escalate 特定の問題のトラブルシューティング 169 これにより、データが回復できるかどうか診断するために利用できるログ情報を収集しま す。 一般的に、不具合が実際のディスクの故障によるものであれば、データは回復できま せん。 しかし、不具合が稼働中のドライブを誤って取り外したことによるものであれば、 LUN を復旧して動作させることができるかもしれません。 3. できるだけ早く HP サポートに連絡してください。 HP P700m の明らかな不具合 サーバーの起動時に、HP P700m が SAS ファブリックにアクセスできないことがあります。 これはブレードシャーシに新しいブレードを挿入した直後によく起こりますが、その他の場合 でも起こる可能性があります。 症状には次のものがあります。 • HP P700m が POST エラーを報告する — TFT モニター/キーボードを使って見ることがで きます。 • cciss ドライバーのロード時にサーバーがクラッシュする — TFT モニター/キーボードを 使って見ることができます。 これはシステム内のすべてのサーバーに起こることがありま す。 • X9720 システムで、exds_stdiag コマンド実行時にコントローラーが見えない。 これらの問題の原因は様々ですが、 リカバリプロセスはすべてのケースで似通っています。 ここで説明するプロセスをすべて行うまで、HP P700m の交換はしないでください。 大まかに 言うと、解決策としては SAS スイッチをリセットし、それがうまくいかなければ、各 X9700c コントローラーを再起動して、SAS ファブリックを妨害しているコントローラーを特定しま す。 お使いのシステムが本番稼働中の場合、下記の手順でシステムのダウンタイムを最小限に抑え てください。 1. Onboard Administrator にログインし、show bay info all コマンドを実行します。 影 響を受けるブレードと稼働中のブレードへのエントリーを比較してください。 エントリーが異なるようであれば、各 Onboard Administrator を一度に 1 つずつ再起動し ます。 影響を受けるサーバーブレードの P700m を取り付け直すか交換してください。 2. 3. 4. 5. 6. 7. 8. 9. exds_stdiag を実行します。 exds_stdiag が他のサーバブレードと同じキャパシティ ブロックと 9720c コントローラーを検出すれば手順は完了です。それ以外の場合は次の 手順に進んでください。 すべてのサーバーが影響を受ける場合、すべてのサーバーをシャットダウンします。サー バーのサブセットが影響を受ける場合、そのサブセットをシャットダウンします。 OA を使って SAS スイッチ 1 にログインし、リセットします。 再起動するまで待ちます。 SAN スイッチ 2 をリセットします。 再起動するまで待ちます。 影響を受けるサーバーを 1 台再起動します。 次のコマンドを実行します。 # exds_stdiag 10. X9700c コントローラーが見える場合、影響を受ける他のサーバーも再起動し、それぞれ で exds_stdiag を実行します。 他のサーバーでも X9700c コントローラーが見える場 合は、手順は完了です。それ以外の場合は次の手順に進んでください。 11. 各 X9700c コントローラーについて、次の手順を実行します。 a. コントローラーをスライドさせ、LED が消灯するまで引き出します。 b. コントローラーを再挿入します。 c. 7 セグメントディスプレイが「on」と表示するのを待ちます。 d. 影響を受けるサーバーで exds_stdiag コマンドを実行します。 170 トラブルシューティング e. うまくいけば手順は完了です。そうでなければ、次のコントローラーで a~d の手順 を繰り返してください。 12. 上記の手順で成果がない場合は、HP P700m を交換します。 13. サーバーを起動し、exds_stdiag を実行します。 14. 依然として X9700c コントローラーが見えない場合は、手順 1 から繰り返します。 システムが本番稼働中ではない場合は、次の短い手順を実行できます。 1. すべてのサーバーブレードの電源を切ります。 2. OA を使って、両方の SAS スイッチの電源を切ります。 3. 両方の SAS スイッチの電源を入れ、稼働状態になるまで待ちます。 4. すべてのサーバーブレードの電源を入れます。 5. exds_stdiag を実行します。 exds_stdiag が問題なしと示せば手順は完了です。それ 以外の場合は次の手順に進んでください。 6. すべての X9700c エンクロージャーの電源を切ります。 7. すべてのエンクロージャーの電源を入れます。 8. すべての 7 セグメントディスプレイが「on」と表示するのを待ってから、すべてのサー バーブレードの電源を入れます。 9. HP P700m が依然としてファブリックにアクセスできない場合は、影響を受けるサーバー ブレードの P700m を交換し、再度 exds_stdiag を実行します。 X9700c エンクロージャーの前面パネルの障害 ID LED が黄色になっている X9700c エンクロージャーの障害 ID LED が黄色の場合、電源とコントローラーが黄色かどうか 確認してください。 黄色でなければ、適当な時間をおいてからキャパシティブロックのパワー サイクルを行ってください。 エンクロージャーの障害 LED の方は無視してかまいません。 電 源とコントローラーが黄色の場合、『HP 9720 Extreme Data Storage System Controller User Guide』のトラブルシューティングの手順を参照してください。 交換用ディスクドライブの LED が緑点灯しない ディスクドライブを交換して LUN を再構築すると、交換用ディスクドライブのオンライン/ 動作 LED は緑点灯しない場合があります。 しかし、ディスクへの動作で交換用ディスクドラ イブのオンライン/動作 LED が緑点滅します。 オンライン/動作 LED が緑点灯していなくて も、ディスクドライブが使用中の場合があることに注意してください。 重要: 障害/UID LED が黄色でない場合はディスクドライブを取り外さないでください。 LED に関する詳細については、『HP 9720 Storage Controller User Guide』を参照してくださ い。 X9700cx GSI LED が黄色になっている ハードディスクドライブのドロアーの前面パネルにあるグローバルサービスインジケーター (GSI) が黄点灯している場合、電源、ファンまたは I/O モジュールなどのエンクロージャーコ ンポーネントの 1 つに問題があります。 GSI の点灯は、電源、ファンまたは I/O モジュール コンポーネントが緑点灯の場合でも黄色になることがあります。 この場合、一度に 1 つずつ 各コンポーネントを交換してみて、交換後の GSI 点灯を確認してください。 ファームウェア更新後、X9700cx ドライブの LED が黄色になっている ファームウェア更新後に X9700cx ドライブの LED が黄色になる場合は、X9700cx のパワーサ イクルを再度行ってみてください。 特定の問題のトラブルシューティング 171 Virtual Connect ドメインの構成 Virtual Connect ドメインは、一度構成すれば再構成の必要はありません。 しかし、ドメインが 失われたり壊れたりした場合に備え、この項では再構成のために十分な情報を記載します。 こ の項の例では Virtual Connect CLI を使用します。 システムには次のように 3 つのネットワークがあります。 ->show network * -output=script2 Name;Status;Smart Link;State;Connection Mode;Native VLAN;Private;VLAN Tunnel;Preferred Speed;Max Speed man_lan;OK;Disabled;Enabled;Failover;Disabled;Disabled;Disabled;1;1 Port;Name;Status;Type;Speed;Role 1;enc0:1:X7;Linked (Active) (1);SFP-RJ45;Auto;Primary 2;enc0:2:X7;Linked (Standby) (1);SFP-RJ45;Auto;Secondary ------------------------------------------------------------------------------Name;Status;Smart Link;State;Connection Mode;Native VLAN;Private;VLAN Tunnel;Preferred Speed;Max Speed ext1;Degraded;Enabled;Enabled;Auto;Disabled;Disabled;Disabled;9;9 Port;Name;Status;Type;Speed 1;enc0:2:X1;Linked (Active) (10);CX4;Auto 2;enc0:2:X2;Not Linked;SFP-RJ45;Auto 3;enc0:2:X3;Not Linked;absent;Auto 4;enc0:2:X4;Not Linked;absent;Auto 5;enc0:2:X5;Not Linked;absent;Auto 6;enc0:2:X6;Not Linked;absent;Auto ------------------------------------------------------------------------------Name;Status;Smart Link;State;Connection Mode;Native VLAN;Private;VLAN Tunnel;Preferred Speed;Max Speed ext2;Degraded;Enabled;Enabled;Auto;Disabled;Disabled;Disabled;9;9 Port;Name;Status;Type;Speed 1;enc0:1:X1;Linked (Active) (10);CX4;Auto 2;enc0:1:X2;Not Linked;absent;Auto 3;enc0:1:X3;Not Linked;absent;Auto 4;enc0:1:X4;Not Linked;absent;Auto 5;enc0:1:X5;Not Linked;absent;Auto 6;enc0:1:X6;Not Linked;absent;Auto -> サーバーに割り当てられた同一プロファイルが 16 個あります。 たとえば、「ベイ 1」と呼ば れるプロファイルが作成され、エンクロージャーデバイスのベイ 1 に割り当てられます。 ->show profile bay1 -output=script2 Name;Device Bay;Server;Status;Serial Number;UUID bay1;enc0:1;ProLiant BL460c G6;Degraded;8920RFCC;XXXXXX8920RFCC Connection Type;Port;Network Name;Status;PXE;MAC Address;Allocated Speed Ethernet;1;man_lan;OK;UseBIOS;<Factory-Default>;1 Ethernet;2;ext1;Degraded;UseBIOS;<Factory-Default>;9 Ethernet;3;ext2;Degraded;UseBIOS;<Factory-Default>;9 Ethernet;4;man_lan;OK;UseBIOS;<Factory-Default>;1 慣例的に、ドメイン名はシステム名を使用して作成されますが、ドメイン名はいずれも使用で きません。 ドメインには、アクセスを容易にするため、管理ネットワーク上の IP が与えられ ます。 Domain Name=kudos_vc_domain Checkpoint Status=Valid Domain IP Status=Enabled IP Address=172.16.2.1 Subnet Mask=255.255.248.0 Gateway=-- -MAC Address Type=Factory-Default WWN Address Type=Factory-Default ファイルサービングノード上の情報と構成情報データベースの同期 ファイルシステムへのアクセスを維持するには、そのファイルシステムに関する最新の情報を ファイルサービングノードに持たせる必要があります。 この情報の健全性を監視するために、 172 トラブルシューティング ibrix_health を定期的に実行することをお勧めします。 ファイルサービングノード上の情 報が古くなった場合は、ibrix_dbck -o を実行して、サーバー上の情報を構成情報データ ベースと再同期化します。 ibrix_health の詳細については、「クラスターの稼働状態の監 視」 (92 ページ) を参照してください。 注記: brix_dbck コマンドは、HP サポートの指示の下でのみ使用します。 ファイルサービングノードのヘルスチェックを実行するには、次のコマンドを使用します。 ibrix_health -i -h HOSTLIST このコマンドの出力の最終行に Passed と表示された場合は、ファイルサービングノードと Fusion Manager の間でファイルシステム情報が整合しています。 ファイルサービングノードの情報を修復するには、次のコマンドを使用します。 ibrix_dbck -o -f FSNAME [-h HOSTLIST] すべてのファイルサービングノード上の情報を修復するには、-h HOSTLIST オプションを省 略します。 Express Query Manual Intervention Failure (MIF) のトラブルシューティ ング Express Query Manual Intervention Failure (MIF) は、Express Query の実行時に発生したクリティ カルエラーです。 これらのエラーは、Express Query が自動的にリカバリできない障害です。 MIF の発生後に、該当するファイルシステムは Express Query から論理的に削除され、手動に よるリカバリ実行が必要となります。 これらのエラーによって Express Query の通常の機能は 抑制されますが、一般的には、関連性のない、クラスターやファイルシステムでのイベントに よってこれらのエラーが発生します。 したがって、Express Query MIF からのリカバリ作業の 多くは、クラスターとファイルシステムのヘルスステータスをチェックし、これらのイベント の原因である問題を修正するためのアクションを実行することです。 クラスターとファイルシ ステムのステータスが OK になれば、Express Query サービスが自動的にリカバリされて再起 動されるため、MIF ステータスはクリアされるはずです。 極めてまれに、これらの外部イベントや何らかの内部機能障害の結果として、データベース破 損が発生することがあります。 Express Query には、Express Query がそのような重大な状況 に備えて保管している情報からデータベースを再構築しようとする、リカバリのメカニズムが 組み込まれています。 Express Query が内部データベースの破損からリカバリできないことも あります。 そのような状況は極めてまれですが、次のような状況では発生する可能性がありま す。 • 破損したデータベースを、すでにバックアップされているデータから再構築する必要があ る場合。 必要なデータがバックアップされている場合は、バックアップ後にその情報が IBRIX ファイルからすでに削除されているため、Express Query が自動的にリカバリする方 法がありません。 ただし、データベースログをバックアップから再生することができま す。 • データベースの再構築に必要な一部のデータが破損しており、そのために使用できない場 合。 データベースやデータベースリカバリに使用する情報には、破損から保護するための適切な手 段が講じられていますが、破損する可能性が皆無ではありません。 Express Query Manual Intervention Failure (MIF) からリカバリするには、次の手順を実行しま す。 1. クラスターのヘルスステータスを「クラスター操作の監視」 (72 ページ) に記載されてい る方法で確認し、ファイルシステム (<FSNAME>) に関連するすべての未解決の問題をクリ アします。 2. ファイルシステムのヘルスステータスを「クラスター操作の監視」 (72 ページ) に記載さ れている方法で確認し、ファイルシステム (<FSNAME>) に関連するすべての未解決の問題 をクリアします。 Express Query Manual Intervention Failure (MIF) のトラブルシューティング 173 3. 次のコマンドを入力して、Express Query MIF 状態をクリアします。 ibrix_archiving -C <FSNAME> 4. 次のコマンドを入力して、Express Query リカバリを監視します。 ibrix_archiving -l Express Query の MIF からのリカバリ中は、状態が RECOVERY と表示されます。 状態が OK または MIF に戻るのを待ちます。 状態が OK に戻れば、追加の手順は必要ありません。 Express Query は、MIF の発生以降 にロギングされたファイルシステムのすべての未完了の変更を使用して、データベースを 更新します。 5. 6. 1 つ以上のファイルシステムで MIF 条件が発生し、クラスターおよびファイルシステムの ヘルスチェックが OK ではない場合は、前述の手順をやり直します。 クラスターおよびファイルシステムのヘルスチェックが OK ステータスであっても、Express Query が 1 つ以上のファイルシステムで MIF 状態のままであることがあります。 このよ うな状況はまれですが、一部のデータが破損していてリカバリできない場合に発生しま す。 このような状況を解決するには、次の手順を実行します。 a. 該当するファイルシステムの完全バックアップがある場合は、復元を実行します。 b. 完全バックアップがない場合は、次の手順を実行します。 1. 次のコマンドを入力して、ファイルシステムの Express Query を無効にします。 ibrix_fs –T –D –f <FSNAME> 2. 次のコマンドを入力して、ファイルシステムの現在のデータベースを削除しま す。 rm –rf <FS_MOUNTPOINT>/.archiving/database 3. 次のコマンドを入力して、ファイルシステムの Express Query を有効にします。 ibrix_fs –T –E –f <FSNAME> 注記: Express Query が有効になった段階で、<FSNAME> で指定されたファイ ルシステムのデータベースへのデータの再設定が開始されます。 4. MDExport ツールで作成したカスタムメタデータのバックアップがある場合は、 『CLI リファレンスガイド』に記載されている方法で、MDImport を使用して再イ ンポートできます。 注記: この方法で作成したバックアップがない場合は、カスタムメタデータを 手動で再作成する必要があります。 5. 次のコマンドを入力して、再同期が完了するのを待ちます。 ibrix_archiving -l このコマンドを、ファイルシステムに OK ステータスが表示されるまで繰り返し ます。 6. 174 上記のどの方法でも解決できない場合は、HP にご連絡ください。 トラブルシューティング 16 9720/9730 ストレージの復旧 システムが故障しリカバリの必要がある場合、またはサーバーブレードを追加もしくは交換す る場合は、ここでの説明に従ってください。 注意: Quick Restore DVD では、ファイルサービングノードを出荷時の状態にまで復元しま す。 これは、破壊的プロセスであり、ローカルハードドライブ上のデータをすべて完全に消去 します。 最新の IBRIX ソフトウェアのリリースの取得 最新の HP IBRIX 6.2.1 ISO イメージを入手するには、HP StoreAll Download Drivers and Software の Web ページで登録し、ソフトウェアをダウンロードします。 DVD を使用する 1. 2. ISO イメージを使用して DVD を作成します。 ドライブとブレード前面を接続している Onboard Administrator またはドングルにケーブ ル接続された USB DVD ドライブに、Quick Restore DVD を挿入します。 重要: 外部電源を持つ外部 USB ドライブを使用してください。デバイスの駆動に USB バスパワーを使用しないでください。 3. 4. ブレードを再起動して、DVD からブートします。 [HP Storage] 画面が表示されたら、[qr] と入力してソフトウェアをインストールします。 USB キーを使用する 1. 2. 3. ISO を Linux システムにコピーします。 USB キーを Linux システムに挿入します。 cat /proc/partitions を実行して、USB デバイスのパーティションを特定します。 このパーティションは、dev/sdX として表示されます。 例を次に示します。 cat /proc/partitions major minor #blocks 8 128 15633408 4. name sdi 次の dd コマンドを実行して、USB を QR インストーラーにします。 dd if=<ISO file name with path> of=/dev/sdi oflag=direct bs=1M 例を次に示します。 dd if=9000-QRDVD-6.2.96-1.x86_64.iso of=/dev/sdi oflag=direct bs=1M 4491+0 records in 4491+0 records out 4709154816 bytes (4.7 GB) copied, 957.784 seconds, 4.9 MB/s 5. 6. 7. USB キーをブレードに挿入します。 ブレードを USB キーからブートします [Storage] 画面が表示されたら、[qr] と入力してソフトウェアをインストールします。 リカバリの準備 ユーザーネットワークに NIC モニターが構成されている場合は、モニターを取り外します。 NIC 監視が構成されているかどうか判断するには、次のコマンドを実行してください。 ibrix_nic -i -h <hostname> 次のようなラインの出力を確認します。 最新の IBRIX ソフトウェアのリリースの取得 175 Monitored By : titan16 モニターを取り外すには、次のコマンドを使用します。 ibrix_nic -m -h MONITORHOST -D DESTHOST/IFNAME 例を次に示します。 ibrix_nic -m -h titan16 -D titan15/eth2 9720 または 9730 ファイルサービングノードのリカバリ 注記: IBRIX 9730 システム上のブレード 1 をリカバリする場合、Quick Restore 手順を実行す れば、クラスター作成に必要な手順をひととおり行えます。 それにはシャーシコンポーネント の検証が必要ですが、クラスターの構成や構成変更は必要ありません。 故障ブレードをリカバリするには、次の手順を実行してください。 1. サーバーにログインします。 • 9730 システム。 インストールウィザードの初期画面が現れ、セットアップウィザー ドがシステムのファームウェアを検証し、ファームウェアの更新が必要かどうか知ら せます。 (ウィザード中に表示されるインストール/構成時間は新規インストール時 の場合です。 ノードの交換時はより短時間になります。) 重要: HP では、インストールを継続する前にファームウェアを更新することを推奨 しています。 9730 システムは、特定のファームウェアレシピでテストしています。 サポートされているファームウェアレシピへのアップグレードを行わずにインストー ルを継続すると、システムの欠陥につながる場合があります。 • 176 9720 システム。 System Deployment Menu が表示されます。 [Join an existing cluster] を選んでください。 9720/9730 ストレージの復旧 2. ウィザードはネットワークをスキャンして既存のクラスターを検出します。 [Join Cluster] ダイアログボックスで、クラスターで使用する管理コンソール (Fusion Manager) を選択し ます。 注記: 管理コンソールの場所を特定できない場合、次の画面が表示されます。 [Enter FM IP] を選んで手順 5 に進んでください。 3. 管理コンソールで生成されたホスト名が [Verify Hostname] ダイアログボックスに表示され ます。 このサーバーの正確なホスト名を入力します。 [Verify Configuration] ダイアログボックスには、このノードの設定が表示されます。 前の 手順でホスト名を変更したため、概要の IP アドレスが不正になっています。 [Reject] を選 ぶと次の画面が表示されます。 [Enter FM IP] を選んでください。 9720 または 9730 ファイルサービングノードのリカバリ 177 178 4. [System Date and Time] ダイアログボックスに、システムの日付 (日/月/年) および時刻 (24 時間形式) を入力します。 Tab キーを押して [Time Zone] フィールドを選択し、Enter キーを押してタイムゾーンのリストを表示します。 リストから該当するタイムゾーンを選 択します。 5. [Server Networking Configuration] ダイアログボックスで、クラスターネットワークである bond0 用にこのサーバーを設定します。 次のことに留意してください。 • ホスト名には英数字および特殊文字のハイフン (–) を使用できます。 ホスト名にはア ンダースコア (_) は使用しないでください。 • IP アドレスは、bond0 上のサーバーの IP アドレスを指定します。 • デフォルトゲートウェイは、ネットワーク間のルートを提供します。 使用しているデ フォルトゲートウェイが bond0 以外のサブネット上に存在する場合、このフィール ドの入力はスキップします。 9720/9730 ストレージの復旧 [Configuration Summary] に現在の設定が表示されます。 [Ok] を選んでインストールを継 続してください。 6. この手順は 9730 システムのみ該当します。 IBRIX 9720 system システムのブレード復旧 時は、手順 8 に進んでください。 復旧する 9730 ブレードには、シャーシの OA/VC 情報が必要です。 この情報はブレー ド 1 から直接入手するか、手動で OA/VC 認証情報を入力することができます。 ウィザードでは次の項目を確認し検証します。 • OA および VC のファームウェア • VC 構成 • iLO の hpspAdmin のユーザーアカウント • シャーシ構成 • SAS スイッチのファームウェア。更新が必要な場合は通知します。 • SAS 構成情報 9720 または 9730 ファイルサービングノードのリカバリ 179 7. • ストレージのファームウェア。更新が必要な場合は通知します。 • ストレージ構成 • ブレードのネットワーク [Join a Cluster – Step 2] ダイアログボックスで、必要な情報を入力します。 注記: ダイアログボックスの [Register IP] は、Fusion Manager (管理コンソール) の IP ア ドレスです。このブレードの登録 IP アドレスではありません。 8. Network Configuration ダイアログボックスは、システムに構成されたインターフェイスを 一覧表示します。 情報が正しい場合、[Continue] を選んで次の手順に進んでください。 ボンドに指定された情報が正しくない場合は、ボンドを選択して [Configure] を選び、イ ンターフェイスをカスタマイズします。 [Select Interface Type] ダイアログボックスで [Bonded Interface] を選んでください。 [Edit Bonded Interface] ダイアログボックスで, IP ア ドレスとネットマスクを入力し、ボンドオプションを指定して、お使いの構成に合わせて スレーブデバイスを変更してください。 180 9720/9730 ストレージの復旧 9. [Configuration Summary] ダイアログボックスに、指定した設定が表示されます。 [Commit] を選択して設定を適用します。 10. 指定したホスト名は、管理コンソールを使用して以前に登録したものであるため、次の メッセージが表示されます。 [Yes] を選択して、既存のサーバーを置き換えます。 9720 または 9730 ファイルサービングノードのリカバリ 181 11. ウィザードはパッシブな管理コンソール (Fusion Manager) をブレードに登録し、構成して 起動します。 ウィザードは、次に追加のセットアップスクリプトを実行します。 注記: iLO に接続し、仮想コンソールを使用している場合は、プラットフォームスクリ プト実行時に iLO 接続が切断されます。 少しの時間をおいて、iLO に再接続し仮想コン ソールを立ち上げることができます。 構成が完了したら、ログファイルの場所を示すメッセージが表示されます。 • ログは /usr/local/ibrix/autocfg/logs で閲覧できます。 • IBRIX 9730 構成のログは、/var/log/hp/platform/install/ X9730_install.log で閲覧できます。 復旧の完了 1. 2. ノードのルートにアクセスできることを確認します。 復元プロセスでは、root パスワード が出荷時のデフォルトである hpinvent に設定されます。 復旧したノードに関する情報を確認します。 ibrix_server -f [-p] [-M] [-N] -h SERVERNAME 3. ベンダーストレージ情報を確認します。 アクティブな Fusion Manager をホストしている ノードから、次のコマンドを実行します。 ibrix_vs -l コマンドでは、ステータス、UUID、ファームウェアバージョン、およびサーバーやスト レージコンポーネント、ドライブエンクロージャー、ドライブコンポーネント、ボリュー ム、ドライブに関するその他の情報を報告します。 また、LUN マッピングも表示します。 4. アクティブな Fusion Manager をホストしているノードで、次のコマンドを実行し、サー バーブレードを最適なパフォーマンスに調整します。 ibrix_host_tune -S -h <hostname of new server blade> -o rpc_max_timeout=64,san_timeout=120 5. 6. 残りのすべてのノードで、/root/.ssh/known_hosts ファイルからリカバリしたばか りのホスト名の ssh キーを削除します。 (キーは、リカバリしたノードに以前にアクセス していたノードにのみ存在します。) QuickRestore DVD を使用する前に NIC 監視を無効にした場合は、監視を再び有効化しま す。 ibrix_nic -m -h MONITORHOST -A DESTHOST/IFNAME 182 9720/9730 ストレージの復旧 例を次に示します。 ibrix_nic -m -h titan16 -A titan15/eth2 7. 8. ノード上の HP Insight Remote Support を設定します。 「IBRIX 9000 システム上での HP Insight Remote Support の構成」 (24 ページ) を参照してください。 アクティブな Fusion Manager をホストしているノードから、ibrix_health -l を実行 してエラーが報告されないことを確認します。 注記: ibrix_health コマンドで、復旧したノードの故障が報告される場合、次のコマ ンドを実行してください。 ibrix_health –i –h <hostname> このコマンドでボリュームグループの不具合が報告される場合は、次のコマンドを実行し てください。 ibrix_pv -a -h <Hostname of restored node> 9. お使いのシステムで次のファイルがカスタマイズされている場合、復旧したノードでそれ らを更新します。 • /etc/hosts: 稼働しているノードから、復旧したノードの /etc/hosts にこのファ イルをコピーしてください。 • /etc/machines: すべてのサーバーが、すべてのノードにサーバーホスト名のエン トリーを所有することを確認してください。 サービスの復元 ファイルサービングノードの Quick Restore を実行する場合、NFS、SMB、FTP、および HTTP のエクスポート情報はノードに自動的に復元されません。 このため、運用がノードにフェイル バックされた後に、NFS、SMB、FTP、および HTTP の各共有について、クライアントシステム からノードへの I/O が動作しません。 この状況を回避するために、ノード上の NFS、SMB、 FTP、および HTTP のエクスポートを、ノードがフェイルバックする前に手動でリストアしま す。 SMB サービスの復元: 次の手順を実行します。 1. 復元したノードが以前に SMB サービスのドメイン認証を実行するように設定されていた 場合、次のコマンドを実行します。 ibrix_auth -n DOMAIN_NAME -A AUTH_PROXY_USER_NAME@domain_name [-P AUTH_PROXY_PASSWORD] -h HOSTNAME 例を次に示します。 ibrix_auth -n ibq1.mycompany.com -A [email protected] -P password -h ib5-9 コマンドが失敗した場合は、以下の点を確認してください。 2. • DNS サービスが、ibrix_auth コマンドを実行したノード上で実行していることを 確認します。 • -n および -A オプションで、有効なドメイン名をフルパスで入力していることを確認 します。 likewise データベースを Active Directory ドメインに再参加させます。 /opt/likewise/bin/domainjoin-cli join <domain_name> Administrator 3. 元の共有の情報を、管理コンソールデータベースから、復元したノードへ適用します。 ア クティブな管理コンソールをホストしているノードで、初めに一時的な SMB 共有を作成 します。 ibrix_cifs -a –f FSNAME –s SHARENAME -p SHAREPATH 次に、一時的な SMB 共有を削除します。 復旧の完了 183 ibrix_cifs -d -s SHARENAME 4. 次のコマンドを実行して、元の共有情報が復元したノード上に適用されていることを確認 します。 ibrix_cifs -i -h SERVERNAME HTTP サービスの復元: 次の手順を実行します。 1. 適切なアクションを実行します。 2. • Active Directory 認証を使用している場合、復元したノードを手動で AD ドメインに参 加させます。 • ローカルユーザー認証を使用している場合、GUI で一時的なローカルユーザーを作成 して、この設定をすべてのサーバーに適用します。 この手順により、ローカルユー ザーデータベースの再同期が行われます。 次のコマンドを実行します。 ibrix_httpconfig -R -h HOSTNAME 3. HTTP サービスが復元されていることを確認します。 GUI または CLI を使用して、復元し たノードがサーブしている共有を特定し、その共有を参照します。 すべての Vhosts および HTTP 共有がノード上に復元されているはずです。 FTP サービスの復元: 次の手順を実行します。 1. 適切なアクションを実行します。 2. • Active Directory 認証を使用している場合、復元したノードを手動で AD ドメインに参 加させます。 • ローカルユーザー認証を使用している場合、GUI で一時的なローカルユーザーを作成 して、この設定をすべてのサーバーに適用します。 この手順により、ローカルユー ザーデータベースの再同期が行われます。 次のコマンドを実行します。 ibrix_ftpconfig -R -h HOSTNAME 3. HTTP サービスが復元されていることを確認します。 GUI または CLI を使用して、復元し たノードがサーブしている共有を特定し、その共有を参照します。 すべての Vhosts および FTP 共有がノード上に復元されているはずです。 トラブルシューティング iLO リモートコンソールがキー入力に反応しない ネットワークがまだ設定されていないため、リカバリ時にローカル端末を使用する必要があり ます。 iLO 統合リモートコンソールを使用しているときに、コンソールがキー入力に反応しな くなる場合もあります。 これを直すには、ブレードを取り外して取り付け直してください。 そうすれば iLO リモート コンソールが正しく反応するようになります。 または、ローカル KVM を使ってリカバリを実 行することもできます。 184 9720/9730 ストレージの復旧 17 サポートとその他の資料 HP のサポート窓口 各地のテクニカルサポート情報については、次の HP サポート Web サイトを参照してくださ い。 http://www.hp.com/jp/support (日本語) 関連情報 IBRIX 9720 Storage の使用 • 『HP IBRIX 9000 Storage File System ユーザーガイド』 • 『HP IBRIX 9000 Storage CLI リファレンスガイド』 • 『HP IBRIX 9000 Storage リリースノート』 • 『HP ExDS9100c/9720 Storage System Controller Cache Module Customer Self Repair Instructions』 • 『HP ExDS9100c/9720 Storage System Controller Battery Customer Self Repair Instructions』 • 『HP ExDS9100c/9720 Storage System Controller Customer Self Repair Instructions』 • 『HP 9720 Storage Controller User Guide』 (HP X9700c の設置、管理およびトラブル シューティング方法を説明しています) これらのドキュメントを参照するには、IBRIX Manuals ページ:http://www.hp.com/support/ IBRIXManuals (英語) にアクセスします。日本語版が用意されているマニュアルは、http:// www.hp.com/jp/manual/ (日本語) から入手できます。 ファイルサービングノードの使用とメンテナンス • 『HP ProLiant BL460c Server Blade Maintenance and Service Guide』 • 『HP ProLiant BL460c Server Blade User Guide』 これらのマニュアルにアクセスするには、Manuals ページ (http://www.hp.com/support/manuals (英語)) に移動して、[bladesystem] > [BladeSystem Server Blades] の順にクリックし、[HP Proliant BL 460c G7 Server Series] または [HP Proliant BL 460c G6 Server Series] を選択します。 HP BladeSystem c7000 エンクロージャーのトラブルシューティングとメ ンテナンス • 『HP BladeSystem c7000 Enclosure Maintenance and Service Guide』 この文書は、コンピューターのサービスに関する有資格者のみが使用します。 • 『HP BladeSystem c-Class Enclosure Troubleshooting Guide』 これらのマニュアルにアクセスするには、Manuals ページ (http://www.hp.com/support/manuals (英語)) に移動して、[bladesystem] > [HP Blade System c-Class Enclosures] > [HP BladeSystem c7000 Enclosures] の順にクリックします。 HP 3Gb SAS BL スイッチの取り付けとメンテナンス • 『HP 3Gb SAS BL Switch Installation Instructions』 • 『HP 3Gb SAS BL Switch Customer Self Repair Instructions』 HP のサポート窓口 185 これらのマニュアルにアクセスするには、Manuals ページ (http://www.hp.com/support/manuals (英語)) に移動して、[bladesystem] > [BladeSystem Interconnects] > [HP BladeSystem SAS Interconnects] の順にクリックします。 X9700cx (HP 600 Modular Disk System) のメンテナンス • 『HP 600 Modular Disk System Maintenance and Service Guide』 取り外しと交換の手順を説明しています。 この文書は、コンピューターのサービスに関す る有資格者のみが使用します。 これらのマニュアルにアクセスするには、Manuals ページ (http://www.hp.com/support/manuals (英語)) に移動して、[storage] > [Disk Storage Systems] > [HP 600 Modular Disk System] の順に クリックします。 HP Web サイト その他の製品情報については、HP の次の Web サイトを参照してください。 • http://www.hp.com/jp/X9000 (日本語) • http://www.hp.com/jp (日本語) • http://www.hp.com/jp/storage (日本語) • http://www.hp.com/support/manuals (英語) • http://www.hp.com/support/downloads (英語) ラックに関する注意 ラックの安定性を保つことにより、けがや装置の損傷を防ぎます。 警告! けがや装置の損傷を防止するために、次の点に注意してください。 • ラックの水平脚を床まで伸ばしてください。 • ラックの全重量が水平脚にかかるようにしてください。 • ラックに固定脚を取り付けてください。 • 複数のラックを設置する場合は、ラックをしっかりと連結してください。 • ラックコンポーネントは一度に 1 つずつ引き出してください。 一度に複数のコンポーネ ントを引き出すと、ラックが不安定になる場合があります。 製品の保証 HP 製品の保証については、保証情報に関する次の HP の Web サイトを参照してください。 http://www.hp.com/go/storagewarranty (英語) 186 サポートとその他の資料 A 段階的なアップグレード IBRIX 5.6 より前のバージョンを実行中の場合は、下表に示す増分アップグレードを実行しま す。 IBRIX 5.6 を実行中の場合は、6.1 にアップグレードしてから、6.2 にアップグレードしま す。 アップグレード前のバージョン アップグレード後のバージョン 参照する項 IBRIX バージョン 5.4 IBRIX バージョン 5.5 「IBRIX ソフトウェアの 5.5 リリース へのアップグレード」 (202 ページ) IBRIX バージョン 5.5 IBRIX バージョン 5.6 「IBRIX ソフトウェアの 5.6 リリース へのアップグレード」 (198 ページ) IBRIX バージョン 5.6 IBRIX バージョン 6.1 「IBRIX ソフトウェアの 6.1 リリース へのアップグレード」 (187 ページ) IBRIX ソフトウェアの 6.1 リリースへのアップグレード この項では、最新の IBRIX ソフトウェアリリースにアップグレードする方法について説明しま す。 Fusion Manager およびすべてのファイルサービングノードは、同時に新しいリリースに アップグレードする必要があります。 次のことに留意してください。 • IBRIX ソフトウェアの 6.1 リリースへのアップグレードは、現在 IBRIX ソフトウェア 5.6.x および 6.x を実行しているシステムでサポートされます。 注記: IBRIX ソフトウェア 5.4.x を実行しているシステムの場合は、初めに 5.5.x にアッ プグレードし、次に 5.6.x にアップグレードしてから、6.1 にアップグレードしてくださ い。 「IBRIX ソフトウェアの 5.5 リリースへのアップグレード」 (202 ページ) を参照して ください。 IBRIX ソフトウェア 5.5.x を実行しているシステムの場合は、初めに 5.6.x にアップグレー ドしてから、6.1 にアップグレードしてください。 「IBRIX ソフトウェアの 5.6 リリース へのアップグレード」 (198 ページ) を参照してください。 • ルートパーティションにアップグレード用の空きスペースが十分確保されていることを確 認してください。 約 4GB が必要です。 • アップグレードを開始する前に、クラスターノード間でパスワードを使用しないアクセス が可能であることを確認してください。 • アップグレードの実行中は、Fusion Manager のアクティブ/パッシブ構成を変更しないで ください。 • Linux 9000 クライアントは、6.x リリースにアップグレードする必要があります。 注記: IBRIX 5.x リリースからアップグレードする場合、ibrix_supportticket コマンド を使用して収集されたすべてのサポートチケットがアップグレードの実行中に削除されます。 6.1 にアップグレードする前に、/admin/platform/diag/supporttickets ディレクトリ からアーカイブファイル (.tgz) のコピーをダウンロードしてください。 9720 シャーシファームウェアのアップグレード 9720 システムを IBRIX ソフトウェア 6.1 にアップグレードする前に、9720 シャーシファー ムウェアがバージョン 4.4.0-13 になっている必要があります。ファームウェアがこのレベル でない場合は、IBRIX アップグレードに進む前に、ファームウェアをアップグレードしてくだ さい。 ファームウェアをアップグレードするには、次の手順を実行します。 1. http://www.hp.com/go/StoreAll (英語) に移動します。 2. [HP IBRIX 9000 Storage] ページで、[Support] セクションから [HP Support & Drivers] を選 択します。 IBRIX ソフトウェアの 6.1 リリースへのアップグレード 187 3. 4. 5. Business Support Center で [Download Drivers and Software] を選択し、さらに [HP 9720 Base Rack] > [Red Hat Enterprise Linux 5 Server (x86-64)] の順序で選択します。 [HP 9720 Storage Chassis Firmware] バージョン 4.0.0-13 をクリックします。 ファームウェアをダウンロードし、『HP 9720 Network Storage System 4.0.0-13 Release Notes』の説明に従ってインストールします。 IBRIX ソフトウェアの 6.x から 6.1 へのオンラインアップグレード オンラインアップグレードは、IBRIX 6.x リリース以降でのみサポートされます。 以前のリリー スの IBRIX からのアップグレードは、適切なオフラインアップグレード手順を使用する必要が あります。 オンラインアップグレードを実行する際は、以下の点に注意してください。 • アップグレードの実行中は、ファイルシステムのマウントが維持され、クライアント I/O が続行します。 • ノードの数にかかわらず、アップグレードプロセスには約 45 分を要します。 • I/O 中断の合計時間はノード IP ごとに 2 分のフェイルオーバー時間と 2 分のフェイルバッ ク時間の合計 4 分です。 • 2 分以上のタイムアウトが設定されたクライアント I/O がサポートされます。 アップグレードの準備 アップグレードの準備を行うには、次の手順を実行します。 1. すべてのノードが稼働していることを確認します。 クラスターノードのステータスを確認 するには、GUI のダッシュボードを確認するか、ibrix_health コマンドを使用します。 2. クラスター内の各ノードで高可用性機能が有効になっていることを確認します。 3. ssh 共有鍵が設定されていることを確認します。 これを行うには、アクティブなインス タンスのアジャイル Fusion Manager をホストしているノード上で、次のコマンドを実行 します。 ssh <server_name> クラスター内の各ノードについてこのコマンドを実行し、常時パスワードの入力が求めら れないことを確認します。 4. 5. 6. アクティブなタスクが実行されていないことを確認します。 クラスター上で実行中のアク ティブなリモート複製タスク、データ階層化タスクまたは再バランスタスクがあれば、そ れらをすべて停止します (ibrix_task -l を使用してアクティブなタスクをリスト表示 します)。 アップグレードが完了したら、これらのタスクを再開できます。 6.1 リリースでは、アジャイル管理コンソールをホストしているノードがクラスターネッ トワークに登録されている必要があります。 次のコマンドを実行して、アジャイル Fusion Manager をホストしているノードがクラスターネットワーク上の IP アドレスを使用して いることを確認します。 ibrix_fm -f ノードがユーザーネットワーク上で構成されている場合は、対応策について「ノードがク ラスターネットワークに登録されていない 」 (141 ページ) を参照してください。 9720 システムでは、既存のベンダーストレージを削除します。 ibrix_vs -d -n EXDS ベンダーストレージは、アップグレード後に自動的に登録されます。 アップグレードの実行 オンラインアップグレードは、IBRIX 6.x~6.1 リリースのみでサポートされます。 次の手順を 実行します。 1. IBRIX 9000 ソフトウェアドロップボックスから、最新の HP IBRIX 6.1 ISO イメージを取得 します。 リリースの登録とドロップボックスへのアクセスの取得については、HP サポー トにお問い合わせください。 188 段階的なアップグレード 2. 3. 4. 5. 6. ISO イメージをマウントして、ディレクトリ構造全体を OS を実行しているディスク上の /root/ibrix ディレクトリにコピーします。 OS を実行しているディスク上で /root/ibrix ディレクトリに移動し、ディレクトリ構 造全体に対して chmod -R 777 * を実行します。 アップグレードスクリプトを実行して、画面の指示に従います。 ./auto_online_ibrixupgrade Linux 9000 クライアントをアップグレードします。 「Linux 9000 クライアントのアップ グレード」 (139 ページ) を参照してください。 HP から新しいライセンスが提供された場合、このガイドの「ライセンス」の章の説明に 従ってインストールします。 アップグレード後 次の手順を実施してください。 • アップグレード前に停止したリモート複製タスク、再バランスタスクまたはデータ階層化 タスクがある場合は、これらのタスクを開始します。 • クラスターに G6 サーバーが含まれている場合、iLO2 ファームウェアのバージョンを確 認してください。 高可用性機能が正しく動作するためには、ファームウェアのバージョン が 2.05 である必要があります。 サーバーの iLO2 ファームウェアのバージョンがこれよ り低い場合、次の URL からバージョン 2.05 の iLO2 をダウンロードして、ファームウェ アの更新をそれぞれの G6 サーバーにコピーしてください。 この URL に記載されている インストール手順に従ってください。 この問題は、G7 サーバーには影響しません。 http://h20000.www2.hp.com/bizsupport/TechSupport/SoftwareDescription.jsp?lang=en& cc=us&prodTypeId=15351&prodSeriesId=1146658& swItem=MTX-949698a14e114478b9fe126499&prodNameId=1135772&swEnvOID=4103& swLang=8&taskId=135&mode=3 (英語) • inode 形式での変更は、以下の目的に使用するファイルに影響します。 ◦ スナップショット。 スナップショットに使用するファイルを IBRIX ソフトウェア 6.0 以降で作成するか、またはファイルを含む 6.0 より前のファイルシステムをスナップ ショット向けにアップグレードする必要があります。 ファイルシステムをアップグ レードするには、upgrade60.sh ユーティリティを使用します。 詳細については、 「6.0 以前のファイルシステムのアップグレードによるソフトウェアスナップショッ トのサポート」 (193 ページ) を参照してください。 ◦ データ保管。 データ保管に使用するファイル (WORM および自動コミットを含む) を IBRIX ソフトウェア 6.1.1 以降で作成するか、またはファイルを含む 6.1.1 より前の ファイルシステムをデータ保管機能向けにアップグレードする必要があります。 ファ イルシステムをアップグレードするには、ibrix_reten_adm -u -f FSNAME コ マンドを使用します。 ibrix_reten_adm -u -f FSNAME コマンドを実行する前 と後に、追加の手順が必要です。 詳細については、「6.0 以前のファイルシステムの アップグレードによるソフトウェアスナップショットのサポート」 (193 ページ) を参 照してください。 IBRIX ソフトウェアの 5.6.x または 6.0.x から 6.1 へのオフラインアップグレード アップグレードの準備 アップグレードの準備を行うには、次の手順を実行します。 1. すべてのノードが稼働していることを確認します。 クラスターノードのステータスを確認 するには、GUI のダッシュボードを確認するか、ibrix_health コマンドを使用します。 2. ssh 共有鍵が設定されていることを確認します。 これを行うには、アクティブなインス タンスのアジャイル Fusion Manager をホストしているノード上で、次のコマンドを実行 します。 ssh <server_name> クラスターの各ノードで、このコマンドを繰り返します。 IBRIX ソフトウェアの 6.1 リリースへのアップグレード 189 3. 4. 5. 6. 7. ファイルシステムマウントオプションなど、カスタムチューニングパラメーターがあれ ば、すべてメモします。 アップグレードの完了時に、これらのパラメーターを再適用でき ます。 アクティブなタスクが実行されていないことを確認します。 クラスター上で実行中のアク ティブなリモート複製タスク、データ階層化タスクまたは再バランスタスクがあれば、そ れらをすべて停止します (ibrix_task -l を使用してアクティブなタスクをリスト表示 します)。 アップグレードが完了したら、これらのタスクを再開できます。 6.1 リリースでは、アジャイル管理コンソールをホストしているノードがクラスターネッ トワークに登録されている必要があります。 次のコマンドを実行して、アジャイル Fusion Manager をホストしているノードがクラスターネットワーク上の IP アドレスを使用して いることを確認します。 ibrix_fm -f ノードがユーザーネットワーク上で構成されている場合は、対応策について「ノードがク ラスターネットワークに登録されていない 」 (141 ページ) を参照してください。 クラスターまたはファイルシステムへのすべてのクライアント I/O を停止します。 Linux クライアント上で lsof </mountpoint> を使用して、アクティブなプロセスに属して いる開いているファイルを表示します。 パッシブな Fusion Manager をホストしているすべてのノード上で、Fusion Manager を maintenance モードにします。 <ibrixhome>/bin/ibrix_fm -m nofmfailover 8. アクティブな Fusion Manager のノードで、すべてのファイルサービングノードへの自動 フェイルオーバーを無効にします。 <ibrixhome>/bin/ibrix_server -m -U 9. 次のコマンドを実行して、自動フェイルオーバーがオフになっていることを確認します。 出力の HA カラムは、off を表示している必要があります。 <ibrixhome>/bin/ibrix_server -l 10. Linux 9000 クライアント上のファイルシステムをアンマウントします。 ibrix_umount -f MOUNTPOINT 11. すべてのノード上の SMB、NFS および NDMP サービスを停止します。 アクティブな Fusion Manager をホストしているノードで、次のコマンドを実行します。 ibrix_server -s -t cifs -c stop ibrix_server -s -t nfs -c stop ibrix_server -s -t ndmp -c stop SMB を使用している場合、すべてのファイルサービングノード上で likewise サービスが停 止していることを確認します。 ps –ef | grep likewise kill -9 を使用して、実行中のすべての likewise サービスを停止します。 NFS を使用している場合は、次のコマンドを実行して、すべての NFS プロセスが停止し ていることを確認します。 ps –ef | grep nfs 必要に応じて、次のコマンドを使用して NFS サービスを停止します。 /etc/init.d/nfs stop kill -9 を使用して、実行中のすべての NFS プロセスを停止します。 必要に応じてすべてのノード上で次のコマンドを実行し、マウントされているファイルシ ステムで開いているすべてのファイルハンドルを特定します。 lsof </mountpoint> kill -9 を使用して、ファイルシステム上で開いているファイルハンドルを持つすべて のプロセスを停止します。 nl nl 190 段階的なアップグレード 12. 各ファイルシステムを手動でマウント解除します。 ibrix_umount -f FSNAME ファイルシステムがマウント解除されるまで、最長 15 分待機します。 アップグレードを続行する前に、ファイルシステムのマウント解除に関するすべての問題 のトラブルシューティングを行います。 「ファイルシステムのマウント解除の問題」 (142 ページ) を参照してください。 13. 9720 システムでは、既存のベンダーストレージを削除します。 ibrix_vs -d -n EXDS ベンダーストレージは、アップグレード後に自動的に登録されます。 アップグレードの実行 このアップグレード手法は、IBRIX ソフトウェア 5.6.x から 6.1 リリースへのアップグレード のみでサポートされます。 次の手順を実行します。 1. IBRIX 9000 ソフトウェアドロップボックスから、最新の HP IBRIX 6.1 ISO イメージを取得 します。 リリースの登録とドロップボックスへのアクセスの取得については、HP サポー トにお問い合わせください。 ISO イメージをマウントして、ディレクトリ構造全体を OS を実行しているディスク上の /root/ibrix ディレクトリにコピーします。 2. 3. 4. 5. OS を実行しているディスク上で /root/ibrix ディレクトリに移動し、ディレクトリ構 造全体に対して chmod -R 777 * を実行します。 次のアップグレードスクリプトを実行します。 ./auto_ibrixupgrade このアップグレードスクリプトは、必要なサービスを自動的に停止して、アップグレード の完了後に再開します。 このアップグレードスクリプトは、すべてのファイルサービング ノード上に Fusion Manager をインストールします。 アップグレードを実行したノード上 では Fusion Manager が active モードになり、その他のファイルサービングノードでは passive モードになります。 クラスター内に専用管理サーバーが存在する場合、このサー バー上には Fusion Manager が passive モードでインストールされます。 Linux 9000 クライアントをアップグレードします。 「Linux 9000 クライアントのアップ グレード」 (139 ページ) を参照してください。 HP から新しいライセンスが提供された場合、このガイドの「ライセンス」の章の説明に 従ってインストールします。 アップグレード後 次の手順を実行します。 1. 次のコマンドを実行して、物理ボリュームを再検出します。 ibrix_pv -a 2. 3. マウントオプションなどのカスタムチューニングパラメーターがあれば、すべて適用しま す。 すべてのファイルシステムを再マウントします。 ibrix_mount -f <fsname> -m </mountpoint> 4. 高可用性機能を使用していた場合は、再び有効化します。 ibrix_server -m 5. アップグレード前に停止したリモート複製タスク、再バランスタスクまたはデータ階層化 タスクがある場合は、これらのタスクを開始します。 SMB を使用している場合は、次のパラメーターを設定して、SMB ソフトウェアと Fusion Manager データベースを同期します。 6. • smb signing enabled • smb signing required IBRIX ソフトウェアの 6.1 リリースへのアップグレード 191 • ignore_writethru ibrix_cifsconfig を使用して、クラスターに適切な値を指定して (1= 有効、0= 無効) パラメーターを設定します。 次の例では、パラメーターを 6.1 リリースのデフォルト値 に指定しています。 ibrix_cifsconfig -t -S "smb_signing_enabled=0, smb_signing_required=0" ibrix_cifsconfig -t -S "ignore_writethru=1" SMB 署名機能は、クライアントが SMB 共有にアクセスするために SMB 署名をサポート する必要があるかどうかを指定します。 この機能の詳細については、『HP IBRIX 9000 Storage File System ユーザーガイド』 を参照してください。 ignore_writethru が有効 な場合、IBRIX ソフトウェアはライトスルーバッファリングを無視して、これを要求する 一部のユーザーアプリケーションの SMB 書き込みパフォーマンスを向上します。 7. 8. Linux 9000 クライアント上にファイルシステムをマウントします。 bond1 上にクラスターネットワークが構成されている場合、6.1 リリースでは Fusion Manager の VIF (Agile_Cluster_VIF) も bond1 上に存在している必要があります。 システ ムを確認するには、ibrix_nic -l および ibrix_fm -f コマンドを実行します。 bond1 の TYPE が Cluster に設定され、両方のノードの IP_ADDRESS が管理コンソールが登 録されているサブネットまたはネットワークと一致していることを確認します。 例を次に 示します。 [root@ib121-121 fmt]# ibrix_nic -l HOST IFNAME TYPE STATE IP_ADDRESS MAC_ADDRESS BACKUP_HOST BACKUP_IF ROUTE VLAN_TAG LINKMON ----------------------------- ------- ------- ---------------------- ------------- --------------------------- ---------- ----- -------- ------ib121-121 bond1 Cluster Up, LinkUp 10.10.121.121 10:1f:74:35:a1:30 No ib121-122 bond1 Cluster Up, LinkUp 10.10.121.122 10:1f:74:35:83:c8 No ib121-121 [Active FM Nonedit] bond1:0 Cluster Up, LinkUp (Active FM) 10.10.121.220 No [root@ib121-121 fmt]# ibrix_fm -f NAME IP ADDRESS --------- ---------ib121-121 10.10.121.121 ib121-122 10.10.121.122 システム上に不一致がある場合、ポート 1234 および 9009 に接続するとエラーが表示さ れます。この状況を修正するには、「Fusion Manager VIF の bond1 への移動」 (197 ペー ジ) を参照してください。 9. inode 形式が変更されたため、スナップショットに使用されるファイルを IBRIX File Serving Software 6.0 以降で作成する必要があります。または、ファイルが含まれる 6.0 より前の ファイルシステムをスナップショットで使用できるようにアップグレードする必要があり ます。 ファイルシステムのアップグレードの詳細については、「6.0 以前のファイルシス テムのアップグレードによるソフトウェアスナップショットのサポート」 (193 ページ) を 参照してください。 Linux 9000 クライアントのアップグレード Linux 9000 クライアントをアップグレードする前に、必ずクラスターノードをアップグレード してください。 各クライアント上で次の手順を実施します。 1. 最新の HP 9000 Client 6.1 パッケージをダウンロードします。 2. tar ファイルを展開します。 3. アップグレードスクリプトを実行します。 ./ibrixupgrade -f このアップグレードスクリプトは、必要なサービスを自動的に停止して、アップグレード の完了後に再開します。 4. 次のコマンドを実行して、クライアントで IBRIX ソフトウェアが実行されていることを確 認します。 /etc/init.d/ibrix_client status 192 段階的なアップグレード IBRIX Filesystem Drivers loaded IBRIX IAD Server (pid 3208) running... 上の出力例に示すように、IAD サービスが実行している必要があります。 実行していない場 合は、HP サポートにお問い合わせください。 Linux クライアントへのカーネルのマイナーアップデートのインストール 9000 クライアントソフトウェアと互換性のある Linux カーネルのマイナーアップデートをイ ンストールすると、クライアントソフトウェアが自動的にアップグレードされます。 カーネルのマイナーアップデートのインストールを計画している場合、初めに次のコマンドを 実行して、アップデートが 9000 クライアントソフトウェアと互換性があることを確認してく ださい。 /usr/local/ibrix/bin/verify_client_update <kernel_update_version> 次の例は、カーネルバージョン 2.6.9-89.ELsmp の RHEL 4.8 クライアントの場合です。 # /usr/local/ibrix/bin/verify_client_update 2.6.9-89.35.1.ELsmp Kernel update 2.6.9-89.35.1.ELsmp is compatible. カーネルのマイナーアップデートの互換性が確認されたら、ベンダー RPM を使用してアップ デートをインストールし、システムを再起動します。 新しいカーネルに応じて 9000 クライ アントソフトウェアが自動的に更新され、9000 クライアントサービスが自動的に起動します。 ibrix_version -l -C コマンドを使用して、クライアントのカーネルバージョンを確認し ます。 nl 注記: verify_client コマンドを使用するには、9000 クライアントソフトウェアがイン ストールされている必要があります。 Windows 9000 クライアントのアップグレード 各クライアント上で次の手順を実施します。 1. コントロールパネルの [プログラムの追加と削除]ユーティリティを使用して、古い Windows 9000 クライアントソフトウェアを削除します。 2. アップグレード用の Windows 9000 クライアント MSI ファイルをコンピューターにコピー します。 3. Windows インストーラーを起動して指示に従い、アップグレードを完了します。 4. Windows 9000 クライアントを再度クラスターに登録して、[Start Service after Registration] オプションを選択します。 5. [管理ツール] | [サービス]で、9000 クライアントサービスが開始されていることを確認し ます。 6. Windows 9000 クライアントを起動します。 [Active Directory Settings] タブで [ Update] をクリックして、現在の Active Directory 設定を取得します。 7. IBRIX Windows クライアント GUI を使用してファイルシステムをマウントします。 注記: リモートデスクトップを使用してアップグレードを実行している場合は、ログアウト してから再度ログインして、ドライブがマウントされていることを確認する必要があります。 6.0 以前のファイルシステムのアップグレードによるソフトウェアスナップショッ トのサポート ソフトウェアスナップショットをサポートするために、IBRIX 6.0 リリースで inode 形式が変更 されました。 upgrade60.sh ユーティリティは、6.0 以前のリリースで作成されたファイル システムをアップグレードして、ファイルシステム上でのソフトウェアスナップショットの取 得を可能にします。 このユーティリティは、実際にアップグレードを行うことなく、必要な変換を判断できます。 このユーティリティを使用する際は、以下の点に注意する必要があります。 • ファイルシステムはマウント解除する必要があります。 • BAD とマークされたセグメントはアップグレードできません。 IBRIX ソフトウェアの 6.1 リリースへのアップグレード 193 • アップグレードはファイルシステム内のセグメントを所有しているすべてのファイルサー ビングノードで並行して実行されます。各ノードでは少なくとも 1 つのスレッドが実行さ れます。 複数のコントローラーが存在するシステムでは、このユーティリティは可能な場 合に各コントローラーのスレッドを実行します。 • 最大 3.8TB のサイズのファイルがアップグレードされます。 より大きなファイルでのス ナップショットを可能にするには、アップグレードの完了後にこれらのファイルを移行す る必要があります (「大きなファイルの移行」 (194 ページ) を参照)。 • 通常、アップグレードは 1TB のデータあたり約 3 時間を要します。 システムの構成は、 この数字の影響を受ける場合があります。 ユーティリティの実行 通常、ユーティリティは次のように実行してファイルシステムをアップグレードします。 upgrade60.sh file system たとえば、次のコマンドはファイルシステム fs1 上でフルアップグレードを行います。 upgrade60.sh fs1 進捗およびステータスのレポート このユーティリティは、各ノードの /usr/local/ibrix/log/upgrade60 ディレクトリに ログファイルを生成し、アップグレード中のセグメントの情報を記録します。 各ノードには、 そのノードのセグメントに関するログファイルが含まれています。 ログファイルの名前は <host>_<segment>_<date>_upgrade.log です。 たとえば、次の ログファイルは、ホスト ib4–2 のセグメント ilv2 のものです。 ib4-2_ilv2_2012-03-27_11:01_upgrade.log ユーティリティの再開 アップグレードが停止した場合やシステムがシャットダウンした場合、アップグレードユー ティリティを再開して操作を続行できます (アップグレードを停止するには、コマンドライン で Ctrl + C キーを押すか、プロセスに割り込み信号を送信します)。 システムに悪影響はありませんが、中断時にファイルシステムにより新しく割り当てられた特 定のブロックが失われます。 ibrix_fsck を corrective モードで実行するとこれらのブロッ クを復旧できます。 注記: upgrade60.sh ユーティリティは INACTIVE 状態のセグメントをアップグレードでき ません。 ファイルシステムがマウント解除された状態でノードを再起動またはシャットダウン すると、このノードが所有しているファイルシステムのセグメントは INACTIVE 状態となりま す。 これらのセグメントを ACTIVE 状態に移行するには、ibrix_mount を使用してファイル システムをマウントします。 次に、ibrix_umount を使用してファイルシステムをアンマウ ントして upgrade60.sh の実行を再開します。セグメントの状態は Linux の lvscan コマン ドで確認できます。 大きなファイルの移行 upgrade60.sh ユーティリティでは、3.8TB より大きなファイルはアップグレードしません。 アップグレードが完了するとファイルシステムがマウントされ、次のコマンドを使用してファ イルシステム内の別のセグメントに大きなファイルを移行します。 ibmigrate -f filesystem -m 1 -d destination_segment file 次の例では、file.9 を現在のセグメントから移行先のセグメント 2 に移行しています。 ibmigrate -f ibfs -m 1 -d 2 /mnt/ibrix/test_dir/dir1/file.9 ファイルを移行すると、ファイルのスナップショットを取得できます。 要約 アップグレードユーティリティの実行 upgrade60.sh [-v –n] file system 194 段階的なアップグレード -n オプションは必要な変換をリスト表示しますが、変換は行われません。 -v オプションは詳 細な情報を表示します。 6.1.1 より前のファイルシステムのデータ保管機能のためのアップグレード IBRIX 6.1.1 またはそれ以降で作成したファイルシステムでは、データ保管が自動的に有効に なっています。 IBRIX 6.0 以前で作成したファイルシステムでデータ保管を有効にするには、 この項の説明に従って、ibrix_reten_adm -u コマンドを実行します。 データ保管を有効にするには、次の手順を実行します。 1. 6.0 より前のファイルシステムを使用している場合は、 項 (193 ページ) の説明に従って、 upgrade60.sh ユーティリティを実行します。 2. ファイルシステムがマウントされているノードで、次のコマンドを実行します。 ibrix_reten_adm -u -f FSNAME この例では、FSNAME は、データ保管機能のためにアップグレードするファイルシステム の名前です。 このコマンドによって、ノードにおいてデータ保管が有効になり、ファイルシステムがア ンマウントされます。 3. 4. このコマンドによるファイルシステムのアップグレードの完了後に、ファイルシステムを 再マウントします。 ibrix_fs コマンドを入力して、ファイルシステムのデータ保管と自動コミット期間を希 望する値に設定します。 ibrix_fs コマンドの詳細については、『HP IBRIX 9000 Storage CLI リファレンスガイド』 を参照してください。 アップグレードの問題のトラブルシューティング アップグレードが正常に完了しない場合は、以下の項目を確認してください。 追加の支援が必 要な場合は、HP サポートまでお問い合わせください。 自動アップグレード 次の点を確認してください。 • /usr/local/ibrix/setup/upgrade の初回の実行に失敗する場合 は、/usr/local/ibrix/setup/upgrade.log にエラーがないか確認してください。 アップグレードスクリプトを実行する前に、すべてのサーバーで IBRIX ソフトウェアが稼 働していることが必須です。 • 新しい OS のインストールに失敗する場合、ノードの電源を再投入して 再起動してくださ い。 再起動後にインストールが開始しない場合は、マシンの電源を再投入して、grub ブートメニューから upgrade 行を選択してください。 • アップグレード後に、/usr/local/ibrix/setup/logs/postupgrade.log にエラー または警告がないか確認してください。 • いずれかのノードで構成の復元に失敗した場合は、そのノードの /usr/local/ibrix/autocfg/logs/appliance.log を調べて、どの機能の復元に失 敗したのかを特定してください。 /usr/local/ibrix/setup/logs/以下にある特定の 機能のログファイルで、詳細な情報を調査してください。 構成のコピーを再試行するには、次のコマンドを使用します。 /usr/local/ibrix/autocfg/bin/ibrixapp upgrade –f –s • 新しいイメージのインストールには成功しても、構成の復元に失敗しサーバーを以前のイ ンストールに戻す必要がある場合は、次のコマンドを使用し、次にマシンを再起動しま す。 この手順により、サーバーは古いバージョン (別のパーティション) から起動します。 /usr/local/ibrix/setup/boot_info –r • パブリックネットワークインターフェイスがダウンして、ノードへアクセスできなくなっ た場合、そのノードの電源を再投入してください。 注記: 各ノードには、/tmp にそれぞれの ibrixupgrade.log が格納されています。 IBRIX ソフトウェアの 6.1 リリースへのアップグレード 195 手動アップグレード 次の点を確認してください。 • 復元スクリプトを完了できない場合は、/usr/local/ibrix/setup/logs/restore.log で詳細を確認してください。 • 構成の復元に失敗した場合は、/usr/local/ibrix/autocfg/logs/appliance.log を調べて、どの機能の復元に失敗したのかを特定してください。 /usr/local/ibrix/ setup/logs/以下にある特定の機能のログファイルで、詳細な情報を調査してください。 構成のコピーを再試行するには、次のコマンドを使用します。 /usr/local/ibrix/autocfg/bin/ibrixapp upgrade –f –s iLO ファームウェアが古いためオフラインアップグレードに失敗する ノード上の iLO2 ファームウェアが古い場合、auto_ibrixupgrade スクリプトは失敗しま す。 /usr/local/ibrix/setup/logs/auto_ibrixupgrade.log に、エラーのレポート とファームウェアのアップデート方法の説明が含まれています。 ファームウェアのアップグレード後に、ノード上で次のコマンドを実行して IBRIX ソフトウェ アのアップグレードを完了してください。 /root/ibrix/ibrix/ibrixupgrade -f ノードがクラスターネットワークに登録されていない アジャイル Fusion Manager をホストしているノードは、クラスターネットワークに登録する 必要があります。 ibrix_fm コマンドでノードの IP アドレスがユーザーネットワークのもの であることがレポートされる場合、IP アドレスをクラスターネットワークに再割り当てする必 要があります。 たとえば、次のコマンドは、アクティブな Fusion Manager をホストしている ノード ib51–101 の IP アドレス (15.226.51.101) がユーザーネットワーク上のもので、クラ スターネットワーク上のものではないことをレポートしています。 [root@ib51-101 ibrix]# ibrix_fm -i FusionServer: ib51-101 (active, quorum is running) ================================================== [root@ib51-101 ibrix]# ibrix_fm -f NAME IP ADDRESS -------- ---------ib51-101 15.226.51.101 ib51-102 10.10.51.102 1. この例のように、ユーザーネットワーク上のノードがアクティブな Fusion Manager をホ ストしている場合、このノード上の Fusion Manager を停止します。 [root@ib51-101 ibrix]# /etc/init.d/ibrix_fusionmanager stop Stopping Fusion Manager Daemon [ [root@ib51-101 ibrix]# 2. OK ] 現在アクティブな Fusion Manager をホストしているノード (この例では ib51–102) で、 ノード ib51–101 の登録を解除します。 [root@ib51-102 ~]# ibrix_fm -u ib51-101 Command succeeded! 3. アクティブな Fusion Manager をホストしているノードで、ノード ib51–101 を登録し て、正しい IP アドレスを割り当てます。 [root@ib51-102 ~]# ibrix_fm -R ib51-101 -I 10.10.51.101 Command succeeded! 注記: Fusion Manager を登録する際は、-R で指定されたホスト名がサーバーのホスト 名と一致している必要があります。 196 段階的なアップグレード ibrix_fm コマンドで、ノード ib51–101 が正しい IP アドレスを持ち、ノード ib51–102 が アクティブな Fusion Manager をホストしていることが示されます。 [root@ib51-102 ~]# ibrix_fm -f NAME IP ADDRESS -------- ---------ib51-101 10.10.51.101 ib51-102 10.10.51.102 [root@ib51-102 ~]# ibrix_fm -i FusionServer: ib51-102 (active, quorum is running) ================================================== ファイルシステムのマウント解除の問題 ファイルシステムが正しくマウント解除されない場合、すべてのサーバー上で以下の手順を実 行してください。 1. 以下のコマンドを実行します。 chkconfig ibrix_server off chkconfig ibrix_ndmp off chkconfig ibrix_fusionmanager off 2. 3. すべてのサーバーを再起動します。 以下のコマンドを実行して、サービスを on 状態に戻します。 コマンドは、サービスを開 始しません。 chkconfig ibrix_server on chkconfig ibrix_ndmp on chkconfig ibrix_fusionmanager on 4. ファイルシステムをマウント解除して、アップグレード手順を続行します。 Fusion Manager VIF の bond1 への移動 9720 システムをインストールすると、クラスターネットワークは bond1 に移動します。 6.1 リリースでは、ポート 1234 および 9009 にアクセスできるようにするために、Fusion Manager VIF (Agile_Cluster_VIF) も bond1 に移動する必要があります。Agile_Cluster_VIF を bond1 に移 動するには、以下の手順を実行してください。 1. アクティブな Fusion Manager で、すべてのパッシブな管理コンソールをリスト表示して、 これらの管理コンソールを maintenance モードに移行します。次にアジャイル構成からこ れらの管理コンソールを登録解除します。 # ibrix_fm -f # ibrix_fm -m nofmfialover # ibrix_fm –u <management_console_name> nl nl 2. 3. 新しい Agile_Cluster_VIF_DEV および関連する Agile_Cluster_VIF_IP を定義します。 IBRIX データベースで、Fusion Manager のローカルクラスターアドレスを bond0 から bond1 に変更します。 a. 定義済みの Agile_Cluster_VIF_IP 登録アドレスを変更します。 アクティブな Fusion Manager で、bond1 サブネット上の新しい Agile _Cluster_VIF_IP を指定します。 ibrix_fm –t –I <new_Agile_Cluster_VIF_IP> 注記: ibrix_fm –t コマンドについては説明していませんが、この操作に使用す ることができます。 b. 各ファイルサービングノードで、/etc/ibrix/iadconf.xml ファイルを編集しま す。 vi /etc/ibrix/iadconf.xml このファイル内の次の行に、新しい Agile_Cluster_VIF_IP アドレスを記述します。 IBRIX ソフトウェアの 6.1 リリースへのアップグレード 197 <property name=”fusionManagerPrimaryAddress” value=”xxx.xxx.xxx.xxx’/> 4. アクティブな Fusion Manager で、各ノードの bond1 ローカルクラスター IP アドレスを 使用して、すべてのバックアップ管理コンソールを再登録します。 # ibrix_fm –R <management_console_name> —I <local_cluster_network_IP> 注記: Fusion Manager を登録する際は、-R で指定されたホスト名がサーバーのホスト 名と一致している必要があります。 5. バックアップ管理コンソールを passive モードに戻します。 # ibrix_fm –m passive 6. アクティブな Fusion Manager を nofmfialover モードにして強制的にフェイルオーバーを 実行します (パッシブな Fusion Manager がアクティブな役割を担うまで最大 1 分を要し ます)。 # ibrix_fm –m nofmfialover 7. 新しくアクティブになった Fusion Manager から、以前アクティブであった Fusion Manager の登録を解除します。 # ibrix_fm –u <original_active_management_console_name> 8. その Fusion Manager を新しい値を使用して再登録し、passive モードに移行します。 # ibrix_fm –R <agileFM_name> —I <local_cluster_network_ip> # ibrix_fm –m passive nl 9. すべての管理コンソールが bond1 ローカルクラスターネットワーク上で正しく登録され ていることを確認します。 # ibrix_fm –f 登録されたすべての管理コンソールとその新しいローカルクラスター IP アドレスが表示さ れている必要があります。 エントリーが正しくない場合、該当する Fusion Manager の登 録を解除して、再登録します。 10. ファイルサービングノードを再起動します。 手順の完了後に、Fusion Manager がフェイルオーバーしない、または /usr/local/ibrix/ log/Iad.log ファイルにポート 1234 または 9009 との通信のエラーがレポートされる場合 は、HP サポートに問い合わせて追加の支援を受けてください。 IBRIX ソフトウェアの 5.6 リリースへのアップグレード この項では、最新の IBRIX ソフトウェアリリースにアップグレードする方法について説明しま す。 管理コンソールおよびすべてのファイルサービングノードは、同時に新しいリリースに アップグレードする必要があります。 次のことに留意してください。 • IBRIX ソフトウェア 5.6 リリースへのアップグレードは、現在 IBRIX ソフトウェア 5.5.x を 実行しているシステムでサポートされます。 それ以前のリリースを実行しているシステム の場合は、初めに 5.5 リリースにアップグレードしてしてから、5.6 にアップグレードし てください。 • このアップグレード手順は、オペレーティングシステムを Red Hat Enterprise Linux 5.5 に アップグレードします。 重要: クラスターのアップグレードの進行中は、新しいリモート複製ジョブを開始しないで ください。 アプリケーションの開始前に複製ジョブが実行中である場合、アップグレードの完 了後に問題なくこのジョブの実行が続行されます。 IBRIX ソフトウェア 5.6 へのアップグレードはオフラインアップグレードとしてのみサポート されます。 このアップグレードではカーネルのアップグレードが必要となるため、ローカル ディスクを再フォーマットする必要があります。 クライアントでは、システムのアップグレー ド中に管理アクセスおよびファイルシステムアクセスに短時間の中断が発生します。 198 段階的なアップグレード 現在のインストールに応じて 2 つのアップグレード手順を使用できます。 使用している IBRIX ソフトウェア 5.5 システムが QR 手順を通じてインストールされたものである場合、自動アッ プグレード手順を使用できます。 アップグレード手順を使用して IBRIX ソフトウェア 5.5 シス テムをインストールした場合、手動での操作が必要となります。 使用しているシステムが QR 手順を使用してインストールされたものかどうかを判断するには、df コマンドを実行します。 /、/local、/stage、および /alt の各ディレクトリに個別のファイルシステムがマウント されていることが確認できる場合、お使いのシステムは Quick Restore によりインストールさ れており、自動アップグレード手順を使用できます。 これらのマウントポイントを確認できな い場合、手動によるアップグレード手順を進めます。 • 自動アップグレード: このプロセスは、ローカルディスク上の個別のパーティションス ペースを使用して、ノード固有の構成情報を保存します。 各ノードのアップグレード後 に、それぞれの構成が自動的に再適用されます。 • 手動アップグレード: 各サーバーのアップグレード前に、このプロセスではノード固有の 構成情報をサーバーから外部デバイスにバックアップする必要があります。 サーバーの アップグレード後に、ノード固有の構成情報を手動でコピーして復元する必要がありま す。 標準構成の 9720 システムの場合のアップグレードの所要時間は約 45 分です。 注記: IBRIX 5.x リリースからアップグレードする場合、ibrix_supportticket コマンド を使用して収集されたすべてのサポートチケットがアップグレードの実行中に削除されます。 /admin/platform/diag/supporttickets ディレクトリからアーカイブファイル (.tgz) のコピーをダウンロードしてください。 自動アップグレード アップグレードの実行時は、すべてのファイルサービングノードおよび管理コンソールが稼働 している必要があります。 稼働していないノードまたは管理コンソールがある場合、アップグ レードスクリプトは失敗します。 クラスターノードのステータスを確認するには、GUI のダッ シュボードを確認するか、ibrix_health コマンドを使用します。 クラスター内のすべてのノードを自動的にアップグレードするには、以下の手順を実行しま す。 1. 管理コンソール GUI のダッシュボードで、すべてのノードが稼働していることを確認しま す。 2. HP キオスク http://www.software.hp.com/kiosk (英語) で、最新リリースのイメージを取 得します (HP から提供されたログイン認証情報が必要です)。 3. リリースの .iso ファイルを、現在アクティブな管理コンソールにコピーします。 4. iso のコピーの場所を引数に指定して、次のコマンドを実行します。 /usr/local/ibrix/setup/upgrade <iso> アップグレードスクリプトは、クラスター内のすべてのサーバー上で必要な手順をすべて 実行し、進捗状況を /usr/local/ibrix/setup/upgrade.log ファイルに記録しま す。 スクリプトの完了後、各サーバーは自動的に再起動して最新のソフトウェアのインス トールを開始します。 5. インストールが完了すると、アップグレードプロセスはノード固有の構成情報を自動的に 復元し、クラスターは最新のソフトウェアを実行します。 アクティブな管理コンソール上 に UPGRADE FAILED メッセージが表示された場合は、指定されたログファイルで詳細を 確認してください。 手動アップグレード 手動アップグレードプロセスでは、クラスター構成の保存に使用する外部ストレージを必要と します。 各サーバーはこのメディアにネットワーク経由ではなく直接アクセスできる必要があ ります。ネットワーク構成は保存される構成の一部となるためです。 USB スティックまたは DVD を使用することをお勧めします。 注記: アップグレード手順を開始する前に、必ずすべての手順を確認してください。 IBRIX ソフトウェアの 5.6 リリースへのアップグレード 199 アジャイル管理コンソール構成をホストしているノードを特定するには、ibrix_fm -i コマ ンドを実行します。 アップグレードの準備 次の手順を実行します。 1. すべてのノードが稼働していることを確認します。 2. アクティブな管理コンソールのノードで、すべてのファイルサービングノードへの自動 フェイルオーバーを無効にします。 <ibrixhome>/bin/ibrix_server -m -U 3. 次のコマンドを実行して、自動フェイルオーバーがオフになっていることを確認します。 出力の HA カラムは、off を表示している必要があります。 <ibrixhome>/bin/ibrix_server -l 4. アクティブな管理コンソールのノードで、すべてのファイルサービングノード上の NFS および SMB サービスを停止して、NFS および SMB クライアントのタイムアウトを防ぎ ます。 <ibrixhome>/bin/ibrix _server -s -t cifs -c stop <ibrixhome>/bin/ibrix _server -s -t nfs -c stop CIFS を使用している場合、すべてのファイルサービングノード上で likewise サービスが停 止していることを確認します。 ps –ef | grep likewise kill -9 を使用して、実行中のすべての likewise サービスを停止します。 5. ファイルシステムが Windows 9000 クライアントからマウントされている場合、Windows クライアントの GUI を使用してファイルシステムをアンマウントします。 すべての IBRIX ファイルシステムをアンマウントします。 <ibrixhome>/bin/ibrix _umount -f <fsname> 6. ノード構成の保存 アクティブな管理コンソールをホストしているノードから開始して、各ノードで以下の手順を 実行します。 1. /usr/local/ibrix/setup/save_cluster_config を実行します。 このスクリプト は、<hostname>_cluser_config.tgz と言う名前の tgz ファイルを作成します。こ のファイルには、ノード構成のバックアップが格納されます。 2. /tmp にある <hostname>_cluser_config.tgz ファイルを、外部ストレージメディア に保存します。 アップグレードの実行 各ノード上で次の手順を実施します。 1. HP キオスク http://www.software.hp.com/kiosk (英語) で、最新の Quick Restore イメージ を取得します (HP から提供されたログイン認証情報が必要です)。 2. ISO イメージを使用して DVD を作成します。 3. Quick Restore DVD をサーバーの DVD-ROM ドライブに挿入します。 4. サーバーを再起動して、DVD-ROM からブートします。 5. IBRIX 9000 Network Storage System 画面が表示されたら、qr と入力して、IBRIX ソフト ウェアをファイルサービングノードにインストールします。 ソフトウェアがインストールされると、サーバーが自動的に再起動します。 DVD を DVD-ROM ドライブから取り外します。 ノード構成の復元 以前にアクティブであった管理コンソールから開始して、各ノードで以下の手順を実行しま す。 200 段階的なアップグレード 2. 3. ノードにログインします。 構成ウィザードがポップアップ表示されます。 構成ウィザー ドから抜けます。 ノード構成情報を保存した外部ストレージメディアを接続します。 構成を復元します。 次の復元スクリプトを実行して、ノードの構成情報が保存されている tgz ファイルを引数として渡します。 /usr/local/ibrix/setup/restore <saved_config.tgz> 4. ノードを再起動します。 1. アップグレードの完了 次の手順を実行します。 1. すべての IBRIX ファイルシステムを再マウントします。 <ibrixhome>/bin/ibrix_mount -f <fsname> -m </mountpoint> 2. 3. Windows クライアントの GUI を使用して、Windows 9000 クライアント上の以前にマウ ントされていたすべて IBRIX ファイルシステムを再マウントします。 アップグレードを実行する前に自動フェイルオーバーが有効化されていた場合、アクティ ブな管理コンソールをホストしているノードからこれを再有効化します。 <ibrixhome>/bin/ibrix_server -m 4. 自動フェイルオーバーが有効化されたことを確認します。 <ibrixhome>/bin/ibrix_server -l 出力の HA には、on が表示されている必要があります。 5. アクティブな管理コンソールをホストしているノードから、アップグレードされた構成の 手動バックアップを実行します。 <ibrixhome>/bin/ibrix_fm -B 6. すべてのファイルサービングノードについてバージョンインジケーターが一致しているこ とを確認します。 アクティブな管理コンソールから次のコマンドを実行します。 <ibrixhome>/bin/ibrix_version –l バージョンの不一致がある場合、該当するノード上で /ibrix/ibrixupgrade -f スク リプトを再実行して、バージョンを再確認します。 すべてのバージョンインジケーターが 一致すれば、インストールは成功です。 すべての手順に従ってもバージョンインジケー ターが一致しない場合は、HP サポートにお問い合わせください。 7. クラスターの稼働状態を確認します。 <ibrixhome>/bin/ibrix_health -l 出力に Passed / on が表示されれば正常です。 8. アジャイル構成では、パッシブな管理コンソールをホストしているすべてのノードで、管 理コンソールを passive モードに戻します。 <ibrixhome>/bin/ibrix_fm -m passive 9. HP から新しいライセンスが提供された場合、このドキュメントの「ライセンス」の章の 説明に従ってインストールします。 アップグレードの問題のトラブルシューティング アップグレードが正常に完了しない場合は、以下の項目を確認してください。 追加の支援が必 要な場合は、HP サポートまでお問い合わせください。 自動アップグレード 次の点を確認してください。 • /usr/local/ibrix/setup/upgrade の初回の実行に失敗する場合 は、/usr/local/ibrix/setup/upgrade.log にエラーがないか確認してください。 アップグレードスクリプトを実行する前に、すべてのサーバーで IBRIX ソフトウェアが稼 働していることが必須です。 IBRIX ソフトウェアの 5.6 リリースへのアップグレード 201 • 新しい OS のインストールに失敗する場合、ノードの電源を再投入して 再起動してくださ い。 再起動後にインストールが開始しない場合は、マシンの電源を再投入して、grub ブートメニューから upgrade 行を選択してください。 • アップグレード後に、/usr/local/ibrix/setup/logs/postupgrade.log にエラー または警告がないか確認してください。 • いずれかのノードで構成の復元に失敗した場合は、そのノードの /usr/local/ibrix/autocfg/logs/appliance.log を調べて、どの機能の復元に失 敗したのかを特定してください。 /usr/local/ibrix/setup/logs/以下にある特定の 機能のログファイルで、詳細な情報を調査してください。 構成のコピーを再試行するには、使用しているサーバーに適切なコマンドを使用してくだ さい。 ◦ ファイルサービングノードの場合 /usr/local/ibrix/autocfg/bin/ibrixapp upgrade –s ◦ アジャイルノード (アジャイル管理コンソールをホストしているファイルサービング ノード) の場合 /usr/local/ibrix/autocfg/bin/ibrixapp upgrade –f –s • 新しいイメージのインストールには成功するが、構成の復元に失敗しサーバーを以前のイ ンストールに戻す必要がある場合は、boot_info –r を実行して、次にマシンを再起動 します。 この手順により、サーバーは古いバージョン (別のパーティション) から起動し ます。 • パブリックネットワークインターフェイスがダウンして、ノードへアクセスできなくなっ た場合、そのノードの電源を再投入してください。 手動アップグレード 次の点を確認してください。 • 復元スクリプトを完了できない場合は、/usr/local/ibrix/setup/logs/restore.log で詳細を確認してください。 • 構成の復元に失敗した場合は、/usr/local/ibrix/autocfg/logs/appliance.log を調べて、どの機能の復元に失敗したのかを特定してください。 /usr/local/ibrix/ setup/logs/以下にある特定の機能のログファイルで、詳細な情報を調査してください。 構成のコピーを再試行するには、使用しているサーバーに適切なコマンドを使用してくだ さい。 ◦ ファイルサービングノードの場合 /usr/local/ibrix/autocfg/bin/ibrixapp upgrade –s ◦ アジャイルノード (アジャイル管理コンソールをホストしているファイルサービング ノード) の場合 /usr/local/ibrix/autocfg/bin/ibrixapp upgrade –f –s IBRIX ソフトウェアの 5.5 リリースへのアップグレード この項では、IBRIX ソフトウェア 5.5 へのアップグレード方法について説明します。 管理コン ソールおよびすべてのファイルサービングノードは、同時に新しいリリースにアップグレード する必要があります。 重要: クラスターのアップグレードの進行中は、新しいリモート複製ジョブを開始しないで ください。 アプリケーションの開始前に複製ジョブが実行中である場合、アップグレードの完 了後に問題なくこのジョブの実行が続行されます。 202 段階的なアップグレード 注記: IBRIX 5.x リリースからアップグレードする場合、ibrix_supportticket コマンド を使用して収集されたすべてのサポートチケットがアップグレードの実行中に削除されます。 /admin/platform/diag/supporttickets ディレクトリからアーカイブファイル (.tgz) のコピーをダウンロードしてください。 アップグレードはオンラインまたはオフラインで実行します。 • オンラインアップグレード: ファイルシステムのマウントを維持しながらソフトウェアを アップグレードします。 ファイルサービングノードをアップグレードする前に、ノードを バックアップノードにフェイルオーバーさせる必要があります。これにより、ファイルシ ステムのアクセスが継続されます。 この手順はメジャーアップグレードには使用できませ んが、マイナーアップグレードやメンテナンスアップグレードには適しています。 • オフラインアップグレード: この手順では、ノード上でファイルシステムをマウント解除 してサービスを停止する必要があります (各ファイルサービングノードは、NFS または SMB のアンマウント操作が失敗した際に再起動が必要となる場合があります)。 その後 で、アップグレードを開始できます。 クライアントでは、各ファイルサービングノードの アップグレード中にファイルシステムへのアクセスが短時間中断します。 オフラインアップグレードは、自動または手動の手順で実行できます。 オンラインアップグ レードは手動で行う必要があります。 自動アップグレード 自動アップグレード手順は、オフラインアップグレードとして実行します。 各ファイルサービ ングノードがアップグレードされるときは、すべてのファイルシステムがノードからマウント 解除され、サービスが停止します。 クライアントでは、ノードのアップグレード中にファイル システムへのアクセスが短時間中断します。 アップグレードの実行時は、すべてのファイルサービングノードおよび管理コンソールが稼働 している必要があります。 稼働していないノードまたは管理コンソールが存在する場合、アッ プグレードスクリプトは失敗し、代わりに手動アップグレード手順を使用しなければなりませ ん。 クラスターノードのステータスを確認するには、GUI のダッシュボードを確認します。 クラスター内のすべてのノードを自動的にアップグレードするには、以下の手順を実行しま す。 1. 管理コンソール GUI のダッシュボードで、すべてのノードが稼働していることを確認しま す。 2. 次のコマンドを実行して、偶数の FSN がペアの高可用性アーキテクチャーで構成されて いることを確認します。 ibrix_server –l 3. 4. 5. 現在アクティブな管理コンソールで、以前のリリースのインストールで使用した <installer_dir>/ibrix ディレクトリを ibrix.old に移動します。 たとえば、この ノード上の以前の IBRIX のインストールで、tar アーカイブを /root で展開した場合、イ ンストーラーは /root/ibrix に格納されています。 現在アクティブな管理コンソールで、任意のディレクトリに配布 tar アーカイブを展開す るか、配布 DVD をマウントします。 tar アーカイブを展開すると、ibrix という名前の サブディレクトリが作成され、そこにインストーラープログラムが格納されます。 たとえ ば、tar アーカイブを /root に展開した場合、インストーラーは /root/ibrix に格納さ れます。 アクティブな管理コンソールで、必要に応じてインストーラーディレクトリに移動しま す。 次のコマンドを実行します。 ./auto_ibrixupgrade アップグレードスクリプトは、クラスター内のすべてのサーバー上で必要な手順をすべて 実行し、進捗状況を upgrade.log ファイルに記録します。 ログファイルはインストー ラーディレクトリに存在します。 IBRIX ソフトウェアの 5.5 リリースへのアップグレード 203 手動アップグレード アップグレードパス アップグレードパスには、標準アップグレードとアジャイルアップグレードの 2 種類がありま す。 • 標準アップグレードは、管理コンソールソフトウェアを実行する専用管理サーバーマシン またはブレードが存在するクラスターで使用します。 • アジャイルアップグレードは、アジャイル管理コンソール構成を持つクラスターで使用し ます。この構成では、管理コンソールソフトウェアがクラスター内の 2 つのノードでアク ティブ/パッシブ構成でインストールされています。 アジャイル管理コンソール構成を使用しているかどうかを判断するには、ibrix_fm -i コマ ンドを実行します。 ステータスの出力で quorum is not configured がレポートされる場 合、使用しているクラスターはアジャイル構成ではありません。 使用している管理コンソール構成に対応したアップグレード手順を使用するようにしてくださ い。 • 標準アップグレードの手順は、204 ページを参照してください。 • アジャイルアップグレードの手順は、208 ページを参照してください。 オンラインアップグレードとオフラインアップグレード 標準およびアジャイルアップグレードの両方で、オンラインおよびオフラインアップグレード 手順を使用できます。 • オンラインアップグレード: ファイルシステムのマウントを維持しながらソフトウェアを アップグレードします。 ファイルサービングノードをアップグレードする前に、ノードを バックアップノードにフェイルオーバーさせる必要があります。これにより、ファイルシ ステムのアクセスが継続されます。 この手順はメジャーアップグレードには使用できませ んが、マイナーアップグレードやメンテナンスアップグレードには適しています。 • オフラインアップグレード: この手順では、初めにファイルシステムをマウント解除して サービスを停止する必要があります (各ファイルサービングノードは、NFS または SMB のアンマウント操作が失敗した際に再起動が必要となる場合があります)。 その後で、アッ プグレードを開始できます。 クライアントでは、各ファイルサービングノードのアップグ レード中にファイルシステムへのアクセスが短時間中断します。 専用管理サーバーマシンまたはブレードを持つクラスターの標準アップグレード 管理コンソールソフトウェアをホストしている専用の管理サーバーマシンまたはブレードがク ラスターに存在する場合は、この手順を使用します。 IBRIX ソフトウェア 5.4.x から 5.5 への アップグレードは、オンラインまたはオフラインで実行できます。 将来のリリースではオフラ インアップグレードが必要となる予定です。 注記: アップグレード手順を開始する前に、必ずすべての手順を確認してください。 標準オンラインアップグレード 管理コンソールを最初にアップグレードする必要があります。 次に、ファイルサービングノー ドおよび 9000 クライアントを任意の順序でアップグレードできます。 管理コンソールのアップグレード 管理サーバーマシンまたはブレード上で、以下の手順を実行します。 1. すべてのファイルサービングノード上で自動フェイルオーバーを無効化します。 <ibrixhome>/bin/ibrix_server -m -U 2. 自動フェイルオーバーがオフであることを確認します。 <ibrixhome>/bin/ibrix_server -l 出力の HA カラムは、off を表示している必要があります。 204 段階的なアップグレード 3. 4. 5. 6. 以前のリリースのインストールに使用した <installer_dir>/ibrix ディレクトリを ibrix.old に移動します。 たとえば、このノード上の以前の IBRIX のインストールで、 tar アーカイブを /root で展開した場合、インストーラーは /root/ibrix に格納されて います。 任意のディレクトリに配布 tar アーカイブを展開するか、または配布 DVD をマウントしま す。 tar アーカイブを展開すると、ibrix という名前のサブディレクトリが作成され、そ こにインストーラープログラムが格納されます。 たとえば、tar アーカイブを /root に展 開した場合、インストーラーは /root/ibrix に格納されます。 必要に応じてインストーラーのディレクトリに移動して、アップグレードを実行します。 ./ibrixupgrade -f 管理コンソールが動作していることを確認します。 /etc/init.d/ibrix_fusionmanager status status コマンドで、正しいサービスが実行していることがレポートされる必要がありま す。 次のような出力が得られます。 Fusion Manager Daemon (pid 18748) running... 7. /usr/local/ibrix/log/fusionserver.log でエラーの有無を確認します。 ファイルサービングノードのアップグレード 管理コンソールがアップグレードされたら、各ファイルサービングノード上で以下の手順を実 行します。 1. 管理コンソールから、手動でファイルサービングノードのフェイルオーバーを行います。 <ibrixhome>/bin/ibrix_server -f -p -h HOSTNAME ノードは自動的に再起動します。 2. 3. 4. 以前のリリースのインストールに使用した <installer_dir>/ibrix ディレクトリを ibrix.old に移動します。 たとえば、このノード上の以前の IBRIX のインストールで、 tar アーカイブを /root で展開した場合、インストーラーは /root/ibrix に格納されて います。 任意のディレクトリに配布 tar アーカイブを展開するか、または配布 DVD をマウントしま す。 tar アーカイブを展開すると、ibrix という名前のサブディレクトリが作成され、そ こにインストーラープログラムが格納されます。 たとえば、tar アーカイブを/root で展開 した場合、インストーラーは/root/ibrix に格納されます。 必要に応じてインストーラーのディレクトリに移動して、次のコマンドを実行します。 ./ibrixupgrade -f アップグレードプロセスによりサービスが自動的に停止し、プロセスの完了後にサービス が再開します。 5. アップグレードが完了したら、ノード上で IBRIX ソフトウェアサービスが実行されている ことを確認します。 /etc/init.d/ibrix_server status 以下のような出力が得られます。 IAD サービスがシステム上で稼働していない場合、HP サポートにお問い合わせください。 IBRIX Filesystem Drivers loaded ibrcud is running.. pid 23325 IBRIX IAD Server (pid 23368) running... 6. ibrix および ipfs サービスが稼働中であることを確認します。 lsmod|grep ibrix ibrix 2323332 0 (unused) lsmod|grep ipfs ipfs1 102592 0 (unused) いずれかの grep コマンドが空白を返す場合、HP サポートにお問い合わせください。 IBRIX ソフトウェアの 5.5 リリースへのアップグレード 205 7. 管理コンソールから、新しいバージョンの IBRIX ソフトウェアの FS/IAS がファイルサー ビングノードにインストールされていることを確認します。 <ibrixhome>/bin/ibrix_version -l –S 8. アップグレードが正常に完了したら、サービングノードのフェイルバックを行います。 <ibrixhome>/bin/ibrix_server -f -U -h HOSTNAME 9. クラスター内の各ファイルサービングノードで、手順 1~8 を繰り返します。 すべてのファイルサービングノードをアップグレードしてフェイルバックを実行してから、 アップグレードを完了します。 アップグレードの完了 1. 管理コンソールから、自動フェイルオーバーをオンに戻します。 <ibrixhome>/bin/ibrix_server –m 2. 自動フェイルオーバーが有効化されたことを確認します。 <ibrixhome>/bin/ibrix_server -l 出力の HA には、on が表示されている必要があります。 3. すべてのファイルサービングノードについてバージョンインジケーターが一致しているこ とを確認します。 管理コンソールから次のコマンドを実行します。 <ibrixhome>/bin/ibrix_version –l バージョンの不一致がある場合、該当するノード上で /ibrix/ibrixupgrade -f スク リプトを再実行して、バージョンを再確認します。 すべてのバージョンインジケーターが 一致すれば、インストールは成功です。 すべての手順に従ってもバージョンインジケー ターが一致しない場合は、HP サポートにお問い合わせください。 4. クラスターの新しいセグメントマップを伝播します。 <ibrixhome>/bin/ibrix_dbck -I -f FSNAME 5. クラスターの稼働状態を確認します。 <ibrixhome>/bin/ibrix_health -l 出力で Passed / on が指定されれば正常です。 標準オフラインアップグレード このアップグレード手順は、メジャーアップグレードに適しています。 管理コンソールを最初 にアップグレードする必要があります。 次に、ファイルサービングノードを任意の順序でアッ プグレードできます。 アップグレードの準備 1. 管理コンソールで、すべてのファイルサービングノードへの自動フェイルオーバーを無効 にします。 <ibrixhome>/bin/ibrix_server -m -U 2. 管理コンソールから、自動フェイルオーバーがオフになっていることを確認します。 出力 の HA カラムは、off を表示している必要があります。 <ibrixhome>/bin/ibrix_server -l 3. すべてのファイルサービングノード上の NFS および SMB サービスを停止し、NFS および SMB クライアントのタイムアウトを防ぎます。 <ibrixhome>/bin/ibrix_server -s -t cifs -c stop <ibrixhome>/bin/ibrix_server -s -t nfs -c stop CIFS を使用している場合、すべてのファイルサービングノード上で likewise サービスが停 止していることを確認します。 ps –ef | grep likewise kill -9 を使用して、実行中のすべての likewise サービスを停止します。 206 段階的なアップグレード 4. 管理コンソールから、すべての IBRIX ファイルシステムをアンマウントします。 <ibrixhome>/bin/ibrix_umount -f <fsname> 管理コンソールのアップグレード 管理コンソール上で、以下の手順を実行します。 1. 構成のバックアップを強制的に行います。 <ibrixhome>/bin/ibrix_fm -B 出力は、/usr/local/ibrix/tmp/fmbackup.zip に格納されます。 このファイルを、 必ずクラスター外の場所に保存するようにしてください。 2. 3. 4. 5. 以前のリリースのインストールに使用した <installer_dir>/ibrix ディレクトリを ibrix.old に移動します。 たとえば、このノード上の以前の IBRIX のインストールで、 tar アーカイブを /root で展開した場合、インストーラーは /root/ibrix に格納されて います。 任意のディレクトリに配布 tar アーカイブを展開するか、または配布 DVD をマウントしま す。 tar アーカイブを展開すると、ibrix という名前のサブディレクトリが作成され、そ こにインストーラープログラムが格納されます。 たとえば、tar アーカイブを /root に展 開した場合、インストーラーは /root/ibrix に格納されます。 必要に応じてインストーラーのディレクトリに移動して、次のコマンドを実行します。 ./ibrixupgrade -f 管理コンソールが正常に起動していることを確認します。 /etc/init.d/ibrix_fusionmanager status status コマンドは、適切なサービスが実行しているかどうかを確認します。 以下のような 出力が得られます。 Fusion Manager Daemon (pid 18748) running... 6. /usr/local/ibrix/log/fusionserver.log でエラーの有無を確認します。 ファイルサービングノードのアップグレード 管理コンソールがアップグレードされたら、各ファイルサービングノード上で以下の手順を実 行します。 1. 以前のリリースのインストールに使用した <installer_dir>/ibrix ディレクトリを ibrix.old に移動します。 たとえば、このノード上の以前の IBRIX のインストールで、 tar アーカイブを /root で展開した場合、インストーラーは /root/ibrix に格納されて います。 2. 任意のディレクトリに配布 tar アーカイブを展開するか、または配布 DVD をマウントしま す。 tar アーカイブを展開すると、ibrix という名前のサブディレクトリが作成され、そ こにインストーラープログラムが格納されます。 たとえば、tar アーカイブを /root に展 開した場合、インストーラーは /root/ibrix に格納されます。 3. 必要に応じてインストーラーのディレクトリに移動して、次のコマンドを実行します。 ./ibrixupgrade -f アップグレードプロセスによりサービスが自動的に停止し、プロセスの完了後にサービス が再開します。 4. アップグレードが完了したら、ノード上で IBRIX ソフトウェアサービスが実行されている ことを確認します。 /etc/init.d/ibrix_server status 以下の例のような出力が得られます。 IAD サービスがシステム上で稼働していない場合、 HP サポートにお問い合わせください。 IBRIX Filesystem Drivers loaded ibrcud is running.. pid 23325 IBRIX IAD Server (pid 23368) running... IBRIX ソフトウェアの 5.5 リリースへのアップグレード 207 5. 以下のコマンドを実行して、ibrix および ipfs サービスが実行していることを確認しま す。 lsmod|grep ibrix ibrix 2323332 0 (unused) lsmod|grep ipfs ipfs1 102592 0 (unused) いずれかの grep コマンドが空白を返す場合、HP サポートにお問い合わせください。 6. 管理コンソールから、新しいバージョンの IBRIX ソフトウェアの FS/IAS がファイルサー ビングノードにインストールされていることを確認します。 <ibrixhome>/bin/ibrix_version -l –S アップグレードの完了 1. すべてのファイルシステムを再マウントします。 <ibrixhome>/bin/ibrix_mount -f <fsname> -m </mountpoint> 2. 管理コンソールから、自動フェイルオーバーをオンに戻します。 <ibrixhome>/bin/ibrix_server -m 3. 自動フェイルオーバーが有効化されたことを確認します。 <ibrixhome>/bin/ibrix_server -l 出力の HA には、on が表示されている必要があります。 4. 管理コンソールから、アップグレードされた構成の手動バックアップを実行します。 <ibrixhome>/bin/ibrix_fm -B 5. すべてのファイルサービングノードについてバージョンインジケーターが一致しているこ とを確認します。 管理コンソールから次のコマンドを実行します。 <ibrixhome>/bin/ibrix_version –l バージョンの不一致がある場合、該当するノード上で /ibrix/ibrixupgrade -f スク リプトを再実行して、バージョンを再確認します。 すべてのバージョンインジケーターが 一致すれば、インストールは成功です。 すべての手順に従ってもバージョンインジケー ターが一致しない場合は、HP サポートにお問い合わせください。 6. クラスターの稼働状態を確認します。 <ibrixhome>/bin/ibrix_health -l 出力に Passed / on が表示されれば正常です。 アジャイル管理コンソール構成を持つクラスターのアジャイルアップグレード 使用しているクラスターがアジャイル管理コンソール構成を持っている場合、以下の手順を使 用します。 IBRIX ソフトウェア 5.4.x から 5.5 へのアップグレードは、オンラインまたはオフ ラインで実行できます。 将来のリリースではオフラインアップグレードが必要となる予定で す。 注記: アップグレード手順を開始する前に、必ずすべての手順を確認してください。 アジャイルオンラインアップグレード 以下の順序で、アジャイルオンラインアップグレードを実行します。 • アクティブな管理コンソールをホストしているファイルサービングノード • パッシブな管理コンソールをホストしているファイルサービングノード • 残りのファイルサービングノードおよび 9000 クライアント 管理コンソールをホストしているファイルサービングノードのアップグレード 次の手順を実行します。 208 段階的なアップグレード 1. アクティブな管理コンソールをホストしているノードで、管理コンソール構成のバック アップを強制的に実行します。 <ibrixhome>/bin/ibrix_fm -B 出力は、/usr/local/ibrix/tmp/fmbackup.zip に格納されます。 このファイルを、 必ずクラスター外の場所に保存するようにしてください。 2. アクティブな管理コンソールのノードで、すべてのファイルサービングノードへの自動 フェイルオーバーを無効にします。 <ibrixhome>/bin/ibrix_server -m -U 3. 自動フェイルオーバーがオフであることを確認します。 <ibrixhome>/bin/ibrix_server -l 出力の HA カラムは、off を表示している必要があります。 4. アクティブな管理コンソールをホストしているノードで、管理コンソールを maintenance モードにします。 この手順により、アクティブな管理コンソールの役割が現在パッシブで あるアジャイル管理コンソールをホストしているノードにフェイルオーバーします。 <ibrixhome>/bin/ibrix_fm -m nofmfailover 5. フェイルオーバーが完了するまで約 60 秒待機します。次に、フェイルオーバーのターゲッ トであったノード上で次のコマンドを実行します。 <ibrixhome>/bin/ibrix_fm -i このコマンドで、アジャイル管理コンソールが現在このノード上で Active (アクティブ) であることがレポートされる必要があります。 6. 手順 4 でアクティブな管理コンソールのフェイルオーバーを行ったノードで、管理コン ソールのステータスを maintenance から passive に変更します。 <ibrixhome>/bin/ibrix_fm -m passive 7. アクティブな管理コンソールをホストしているノードで、現在パッシブであるノードの手 動フェイルオーバーを行います。 <ibrixhome>/bin/ibrix_server -f -p -h HOSTNAME ノードが再起動するまで数分待機してから、次のコマンドを実行し、フェイルオーバーが 正常に完了したことを確認します。 出力は、Up, FailedOver をレポートしている必要 があります。 <ibrixhome>/bin/ibrix_server -l 8. アクティブな管理コンソールをホストしているノードで、管理コンソールを maintenance モードにします。 <ibrixhome>/bin/ibrix_fm -m nofmfailover この手順により、アクティブな管理コンソールの役割が現在パッシブであるアジャイル管 理コンソール (元はアクティブであったノード) をホストしているノードにフェイルバック します。 9. フェイルオーバーが完了するまで約 90 秒待機します。次に、フェイルオーバーのターゲッ トであったノード上で次のコマンドを実行します。 <ibrixhome>/bin/ibrix_fm -i このコマンドで、アジャイル管理コンソールが現在このノード上で Active (アクティブ) で あることがレポートされる必要があります。 10. アクティブであるアジャイル管理コンソールのノードで、以前のリリースのインストール で使用した <installer_dir>/ibrix ディレクトリを ibrix.old に移動します。 た とえば、このノード上の以前の IBRIX のインストールで、tar アーカイブを /root で展開 した場合、インストーラーは /root/ibrix に格納されています。 11. アクティブな管理コンソールのノードで、任意のディレクトリに配布 tar アーカイブを展 開するか、配布 DVD をマウントします。 tar アーカイブを展開すると、ibrix という名 nl IBRIX ソフトウェアの 5.5 リリースへのアップグレード 209 前のサブディレクトリが作成され、そこにインストーラープログラムが格納されます。 た とえば、tar アーカイブを /root に展開した場合、インストーラーは /root/ibrix に格納されます。 12. 必要に応じてインストーラーのディレクトリに移動して、アップグレードを実行します。 ./ibrixupgrade -f インストーラーは、このノード上の管理コンソールのソフトウェアおよびファイルサービ ングノードのソフトウェアの両方をアップグレードします。 nl 13. 管理コンソールのステータスを確認します。 /etc/init.d/ibrix_fusionmanager status status コマンドは、適切なサービスが実行しているかどうかを確認します。 以下のような 出力が得られます。 Fusion Manager Daemon (pid 18748) running... 次のコマンドも実行してください。このコマンドでコンソールが Active (アクティブ) であ ることがレポートされる必要があります。 <ibrixhome>/bin/ibrix_fm -i 14. /usr/local/ibrix/log/fusionserver.log でエラーの有無を確認します。 15. アップグレードが正常に完了したら、サービングノードのフェイルバックを行います。 ア クティブであるアジャイル管理コンソールのノードで、次のコマンドを実行します。 <ibrixhome>/bin/ibrix_server -f –U -h HOSTNAME 16. 手順 8 でアクティブな管理コンソールのフェイルバックを行ったノードで、管理コンソー ルのステータスを maintenance から passive に変更します。 <ibrixhome>/bin/ibrix_fm –m passive 17. パッシブな管理コンソールのノードがファイルサービングノードでもある場合、アクティ ブな管理コンソールからこのノードへのフェイルオーバーを行います。 <ibrixhome>/bin/ibrix_server -f –p -h HOSTNAME ノードが再起動するまで数分待機してから、次のコマンドを実行し、フェイルオーバーが 正常に完了したことを確認します。 出力は、Up, FailedOver をレポートしている必要 があります。 <ibrixhome>/bin/ibrix_server -l 18. パッシブであるアジャイル管理コンソールのノードで、以前のリリースのインストールで 使用した <installer_dir>/ibrix ディレクトリを ibrix.old に移動します。 たと えば、このノード上の以前の IBRIX のインストールで、tar アーカイブを /root で展開し た場合、インストーラーは /root/ibrix に格納されています。 19. パッシブであるアジャイル管理コンソールをホストしているノードで、任意のディレクト リに配布 tar アーカイブを展開するか、配布 DVD をマウントします。 tar アーカイブを展 開すると、ibrix という名前のサブディレクトリが作成され、そこにインストーラープロ グラムが格納されます。 たとえば、tar アーカイブを /root に展開した場合、インストー ラーは /root/ibrix に格納されます。 20. 必要に応じてインストーラーのディレクトリに移動して、アップグレードを実行します。 ./ibrixupgrade -f インストーラーは、このノード上の管理コンソールのソフトウェアおよびファイルサービ ングノードのソフトウェアの両方をアップグレードします。 nl 21. 管理コンソールのステータスを確認します。 /etc/init.d/ibrix_fusionmanager status status コマンドは、適切なサービスが実行しているかどうかを確認します。 以下のような 出力が得られます。 Fusion Manager Daemon (pid 18748) running... 210 段階的なアップグレード 次のコマンドも実行してください。このコマンドでコンソールがパッシブであることがレ ポートされる必要があります。 <ibrixhome>/bin/ibrix_fm -i 22. /usr/local/ibrix/log/fusionserver.log でエラーの有無を確認します。 23. アップグレードが正常に完了したら、ノードのフェイルバックを行います。 アクティブで あるアジャイル管理コンソールのノードで、次のコマンドを実行します。 <ibrixhome>/bin/ibrix_server -f -U -h HOSTNAME 24. アジャイル管理コンソールをホストしている 2 つのノード上で、アジャイル管理コンソー ルのソフトウェアおよびファイルサービングノードのソフトウェアがアップグレードされ たことを確認します。 <ibrixhome>/bin/ibrix_version -l -S 以下に出力例を示します。 Fusion Manager version: 5.5.XXX =============================== Segment Servers =============== HOST_NAME FILE_SYSTEM IAD/IAS IAD/FS OS KERNEL_VERSION ARCH --------- ---------------------- ------- ------- --------- -------------- ---ib50-86 5.5.205(9000_5_5) 5.5.XXX 5.5.XXX GNU/Linux 2.6.18-128.el5 x86_64 ib50-87 5.5.205(9000_5_5) 5.5.XXX 5.5.XXX GNU/Linux 2.6.18-128.el5 x86_64 これで、残りの任意のファイルサービングノードをアップグレードできるようになりました。 残りのファイルサービングノードのアップグレード 各ファイルサービングノード上で次の手順を実施します。 1. ファイルサービングノードを手動でフェイルオーバーします。 <ibrixhome>/bin/ibrix_server -f -p -h HOSTNAME ノードは自動的に再起動します。 2. 3. 4. 以前のリリースのインストールに使用した <installer_dir>/ibrix ディレクトリを ibrix.old に移動します。 たとえば、このノード上の以前の IBRIX のインストールで、 tar アーカイブを /root で展開した場合、インストーラーは /root/ibrix に格納されて います。 任意のディレクトリに配布 tar アーカイブを展開するか、または配布 DVD をマウントしま す。 tar アーカイブを展開すると、ibrix という名前のサブディレクトリが作成され、そ こにインストーラープログラムが格納されます。 たとえば、tar アーカイブを/root で展開 した場合、インストーラーは/root/ibrix に格納されます。 必要に応じてインストーラーのディレクトリに移動して、次のコマンドを実行します。 ./ibrixupgrade -f アップグレードプロセスによりサービスが自動的に停止し、プロセスの完了後にサービス が再開します。 5. アップグレードが完了したら、ノード上で IBRIX ソフトウェアサービスが実行されている ことを確認します。 /etc/init.d/ibrix_server status 以下のような出力が得られます。 IAD サービスがシステム上で稼働していない場合、HP サポートにお問い合わせください。 IBRIX Filesystem Drivers loaded ibrcud is running.. pid 23325 IBRIX IAD Server (pid 23368) running... 6. ibrix および ipfs サービスが稼働中であることを確認します。 lsmod|grep ibrix ibrix 2323332 0 (unused) lsmod|grep ipfs IBRIX ソフトウェアの 5.5 リリースへのアップグレード 211 ipfs1 102592 0 (unused) いずれかの grep コマンドが空白を返す場合、HP サポートにお問い合わせください。 7. 管理コンソールから、新しいバージョンの IBRIX ソフトウェアの FS/IAS がファイルサー ビングノードにインストールされていることを確認します。 <ibrixhome>/bin/ibrix_version -l –S 8. アップグレードが正常に完了したら、サービングノードのフェイルバックを行います。 <ibrixhome>/bin/ibrix_server -f -U -h HOSTNAME 9. クラスター内の残りのファイルサービングノードで、手順 1~8 を繰り返します。 すべてのファイルサービングノードをアップグレードしてフェイルバックを実行してから、 アップグレードを完了します。 アップグレードの完了 1. アクティブな管理コンソールをホストしているノードで、自動フェイルオーバーをオンに 戻します。 <ibrixhome>/bin/ibrix_server –m 2. 自動フェイルオーバーが有効化されたことを確認します。 <ibrixhome>/bin/ibrix_server -l 出力の HA カラムは、on を表示している必要があります。 3. すべてのファイルサービングノードについてバージョンインジケーターが一致しているこ とを確認します。 アクティブな管理コンソールから次のコマンドを実行します。 <ibrixhome>/bin/ibrix_version –l バージョンの不一致がある場合、該当するノード上で /ibrix/ibrixupgrade -f スク リプトを再実行して、バージョンを再確認します。 すべてのバージョンインジケーターが 一致すれば、インストールは成功です。 すべての手順に従ってもバージョンインジケー ターが一致しない場合は、HP サポートにお問い合わせください。 4. クラスターの新しいセグメントマップを伝播します。 <ibrixhome>/bin/ibrix_dbck -I -f FSNAME 5. クラスターの稼働状態を確認します。 <ibrixhome>/bin/ibrix_health -l 出力で Passed / on が指定されれば正常です。 アジャイルオフラインアップグレード このアップグレード手順は、メジャーアップグレードに適しています。 以下の順序で、アジャ イルオフラインアップグレードを実行します。 • アクティブな管理コンソールをホストしているファイルサービングノード • パッシブな管理コンソールをホストしているファイルサービングノード • 残りのファイルサービングノード 注記: アクティブな管理コンソールをホストしているノードを特定するには、次のコマンド を実行します。 <ibrixhome>/bin/ibrix_fm -i アップグレードの準備 1. 212 アクティブな管理コンソールのノードで、すべてのファイルサービングノードへの自動 フェイルオーバーを無効にします。 <ibrixhome>/bin/ibrix_server -m -U 段階的なアップグレード 2. 自動フェイルオーバーがオフであることを確認します。 出力の HA カラムは、off を表 示している必要があります。 <ibrixhome>/bin/ibrix_server -l 3. アクティブな管理コンソールのノードで、すべてのファイルサービングノード上の NFS および SMB サービスを停止して、NFS および SMB クライアントのタイムアウトを防ぎ ます。 <ibrixhome>/bin/ibrix_server -s -t cifs -c stop <ibrixhome>/bin/ibrix_server -s -t nfs -c stop CIFS を使用している場合、すべてのファイルサービングノード上で likewise サービスが停 止していることを確認します。 ps –ef | grep likewise kill -9 を使用して、実行中のすべての likewise サービスを停止します。 4. すべての IBRIX ファイルシステムをアンマウントします。 <ibrixhome>/bin/ibrix_umount -f <fsname> 管理コンソールをホストしているファイルサービングノードのアップグレード 次の手順を実行します。 1. アクティブな管理コンソールをホストしているノードで、管理コンソール構成のバック アップを強制的に実行します。 <ibrixhome>/bin/ibrix_fm -B 出力は、/usr/local/ibrix/tmp/fmbackup.zip に格納されます。 このファイルを、 必ずクラスター外の場所に保存するようにしてください。 2. パッシブな管理コンソールをホストしているノードで、管理コンソールを maintenance モードにします。 <ibrixhome>/bin/ibrix_fm -m nofmfailover 3. アクティブな管理コンソールのノードで、以前のリリースのインストールで使用した <installer_dir>/ibrix ディレクトリを ibrix.old に移動します。 たとえば、この ノード上の以前の IBRIX のインストールで、tar アーカイブを /root で展開した場合、イ ンストーラーは /root/ibrix に格納されています。 アクティブな管理コンソールのノードで、任意のディレクトリに配布 tar アーカイブを展 開するか、配布 DVD をマウントします。 tar アーカイブを展開すると、ibrix という名 前のサブディレクトリが作成され、そこにインストーラープログラムが格納されます。 た とえば、tar アーカイブを /root に展開した場合、インストーラーは /root/ibrix に格 納されます。 必要に応じてインストーラーのディレクトリに移動して、アップグレードを実行します。 ./ibrixupgrade -f インストーラーは、このノード上の管理コンソールのソフトウェアおよびファイルサービ ングノードのソフトウェアの両方をアップグレードします。 4. 5. 6. 管理コンソールのステータスを確認します。 /etc/init.d/ibrix_fusionmanager status status コマンドは、適切なサービスが実行しているかどうかを確認します。 以下のような 出力が得られます。 Fusion Manager Daemon (pid 18748) running... 7. 8. /usr/local/ibrix/log/fusionserver.log でエラーの有無を確認します。 残りの管理コンソールノードをアップグレードします。 以前のリリースのインストールに 使用した <installer_dir>/ibrix ディレクトリを ibrix.old に移動します。 次に、 任意のディレクトリに配布 tar アーカイブを展開するか、または配布 DVD をマウントしま す。 tar アーカイブを展開すると、ibrix という名前のサブディレクトリが作成され、そ こにインストーラープログラムが格納されます。 たとえば、tar アーカイブを /root に展開した場合、インストーラーは /root/ibrix に格納されます。 nl IBRIX ソフトウェアの 5.5 リリースへのアップグレード 213 9. 必要に応じてインストーラーのディレクトリに移動して、アップグレードを実行します。 ./ibrixupgrade -f インストーラーは、このノード上の管理コンソールのソフトウェアおよびファイルサービ ングノードのソフトウェアの両方をアップグレードします。 10. アップグレードを実施し、その管理コンソールが maintenance モードになっているノード で、管理コンソールを passive モードに戻します。 <ibrixhome>/bin/ibrix_fm -m passive これで、このノードはアクティブな管理コンソールのバックアップ操作を正常に再開しま す。 残りのファイルサービングノードのアップグレード 残りのファイルサービングノード上で次の手順を実施します。 1. 以前のリリースのインストールに使用した <installer_dir>/ibrix ディレクトリを ibrix.old に移動します。 たとえば、このノード上の以前の IBRIX のインストールで、 tar アーカイブを /root で展開した場合、インストーラーは /root/ibrix に格納されて います。 2. 任意のディレクトリに配布 tar アーカイブを展開するか、または配布 DVD をマウントしま す。 tar アーカイブを展開すると、ibrix という名前のサブディレクトリが作成され、そ こにインストーラープログラムが格納されます。 たとえば、tar アーカイブを /root に展 開した場合、インストーラーは /root/ibrix に格納されます。 3. 必要に応じてインストーラーのディレクトリに移動して、次のコマンドを実行します。 ./ibrixupgrade -f アップグレードプロセスによりサービスが自動的に停止し、プロセスの完了後にサービス が再開します。 4. アップグレードが完了したら、ノード上で IBRIX ソフトウェアサービスが実行されている ことを確認します。 /etc/init.d/ibrix_server status 以下の例のような出力が得られます。 IAD サービスがシステム上で稼働していない場合、 HP サポートにお問い合わせください。 IBRIX Filesystem Drivers loaded ibrcud is running.. pid 23325 IBRIX IAD Server (pid 23368) running... 5. 以下のコマンドを実行して、ibrix および ipfs サービスが実行していることを確認しま す。 lsmod|grep ibrix ibrix 2323332 0 (unused) lsmod|grep ipfs ipfs1 102592 0 (unused) いずれかの grep コマンドが空白を返す場合、HP サポートにお問い合わせください。 6. アクティブな管理コンソールのノードから、新しいバージョンの IBRIX ソフトウェアの FS/IAS がファイルサービングノードにインストールされていることを確認します。 <ibrixhome>/bin/ibrix_version -l –S アップグレードの完了 214 1. IBRIX ファイルシステムを再マウントします。 <ibrixhome>/bin/ibrix_mount -f <fsname> -m </mountpoint> 2. アクティブな管理コンソールをホストしているノードで、自動フェイルオーバーをオンに 戻します。 <ibrixhome>/bin/ibrix_server -m 段階的なアップグレード 3. 自動フェイルオーバーが有効化されたことを確認します。 <ibrixhome>/bin/ibrix_server -l 出力の HA には、on が表示されている必要があります。 4. アクティブな管理コンソールをホストしているノードから、アップグレードされた構成の 手動バックアップを実行します。 <ibrixhome>/bin/ibrix_fm -B 5. すべてのファイルサービングノードについてバージョンインジケーターが一致しているこ とを確認します。 アクティブな管理コンソールから次のコマンドを実行します。 <ibrixhome>/bin/ibrix_version –l バージョンの不一致がある場合、該当するノード上で /ibrix/ibrixupgrade -f スク リプトを再実行して、バージョンを再確認します。 すべてのバージョンインジケーターが 一致すれば、インストールは成功です。 すべての手順に従ってもバージョンインジケー ターが一致しない場合は、HP サポートにお問い合わせください。 6. クラスターの稼働状態を確認します。 <ibrixhome>/bin/ibrix_health -l 出力に Passed / on が表示されれば正常です。 アップグレードの問題のトラブルシューティング 自動アップグレードのエラー upgrade.log ファイルを確認して、エラーの発生源を特定します (ログファイルはインストー ラーディレクトリに存在します)。 自動アップグレードを実行できない場合は、手動アップグ レード手順を進めます。 ibrixupgrade がハングする RPM データベースの損傷が原因で、インストールがハングする可能性があります。 この損傷 は、Red Hat Package Manager 内の不整合により発生します。 次のコマンドを使用して RPM データベースを再構築して、インストールを再試行してくださ い。 rm の後にはスペースが続き、次に 2 つのアンダースコアが続きます。また、rpm の後に はスペースが続き、次に 2 つのダッシュが続きます。 cd /var/lib/rpm rm __* rpm --rebuilddb 管理コンソールに使用されていない古い NFS マウントポイントが存在する場合、ibrixupgrade もハングする可能性があります。 このような場合は、該当するマウントポイントをすべて消去 し、管理コンソールを再起動して、アップグレード手順を再度実行してください。 IBRIX ソフトウェアの 5.5 リリースへのアップグレード 215 B IBRIX 9730 コンポーネントおよびケーブル配線図 メインラックの背面図 SAS スイッチの下に IBRIX 9730 CX が 2 個配置されており、残りの IBRIX 9730 CX は SAS ス イッチの上に配置されています。 IBRIX 9730 CX は下から数えます (たとえば、IBRIX 9730 CX 1 はラックの最下部にあり、IBRIX 9730 CX 2 は IBRIX 9730 CX 1 のすぐ上にあります)。 216 1. 9730 CX 6 2. 9730 CX 5 3. 9730 CX 4 4. 9730 CX 3 5. c7000 6. 9730 CX 2 7. 9730 CX 1 8. Onboard Administratror (x2) 9. 6G SAS スイッチ (x4) 10. Flex 10 VC モジュール (×2) 11. TFT7600 12. 1U サポートシェルフ IBRIX 9730 コンポーネントおよびケーブル配線図 拡張ラックの背面図 1. 9730 CX 8 2. 9730 CX 7 IBRIX 9730 CX I/O モジュールおよび SAS ポートコネクター 1. セカンダリ I/O モジュール (ドロアー 2) 2. SAS ポート 2 のコネクター 3. SAS ポート 1 のコネクター 4. プライマリ I/O モジュール (ドロアー 2) 5. SAS ポート 2 のコネクター 6. SAS ポート 1 のコネクター 7. SAS ポート 1 のコネクター 8. SAS ポート 2 のコネクター 9. プライマリ I/O モジュール (ドロアー 1) 10. SAS ポート 1 のコネクター 11. SAS ポート 2 のコネクター 12. セカンダリ I/O モジュール (ドロアー 1) 拡張ラックの背面図 217 IBRIX 9730 CX 1 と SAS スイッチの接続 SAS スイッチへの接続には次のものがあります。 • プライマリ I/O モジュール (ドロアー 1) の SAS ポート 1 コネクターと、SAS スイッチの ベイ 5 のポート 1 • セカンダリ I/O モジュール (ドロアー 1) の SAS ポート 1 コネクターと、SAS スイッチの ベイ 6 のポート 1 • プライマリ I/O モジュール (ドロアー 2) の SAS ポート 1 コネクターと、SAS スイッチの ベイ 7 のポート 1 • セカンダリ I/O モジュール (ドロアー 2) の SAS ポート 1 コネクターと、SAS スイッチの ベイ 8 のポート 1 ヒント: 9730 CX の位置に該当する番号は、9730 CX と接続する SAS スイッチのポート番 号と一致しています。 (SAS スイッチのポートは、左から順に 1~8 のラベル表示があります。) たとえば、9730 CX 2 は各 SAS スイッチのポート 2 に接続します。 IBRIX 9730 CX 7 は各 SAS スイッチのポート 7 に接続します。 218 IBRIX 9730 コンポーネントおよびケーブル配線図 IBRIX 9730 CX 2 と SAS スイッチの接続 ドロアー 1: • プライマリ I/O モジュール (ドロアー 1) の SAS ポート 1 コネクターと、SAS スイッチの ベイ 5 のポート 2 • セカンダリ I/O モジュール (ドロアー 1) の SAS ポート 1 コネクターと、SAS スイッチの ベイ 6 のポート 2 ドロアー 2: • プライマリ I/O モジュール (ドロアー 2) の SAS ポート 1 コネクターと、SAS スイッチの ベイ 7 のポート 2 • セカンダリ I/O モジュール (ドロアー 2) の SAS ポート 1 コネクターと、SAS スイッチの ベイ 8 のポート 2 IBRIX 9730 CX 2 と SAS スイッチの接続 219 IBRIX 9730 CX 3 と SAS スイッチの接続 ドロアー 1: • プライマリ I/O モジュール (ドロアー 1) の SAS ポート 1 コネクターと、SAS スイッチの ベイ 5 のポート 3 • セカンダリ I/O モジュール (ドロアー 1) の SAS ポート 1 コネクターと、SAS スイッチの ベイ 6 のポート 3 ドロアー 2: • プライマリ I/O モジュール (ドロアー 2) の SAS ポート 1 コネクターと、SAS スイッチの ベイ 7 のポート 3 • セカンダリ I/O モジュール (ドロアー 2) の SAS ポート 1 コネクターと、SAS スイッチの ベイ 8 のポート 3 220 IBRIX 9730 コンポーネントおよびケーブル配線図 IBRIX 9730 CX 7 と SAS スイッチの接続 (拡張ラック) ドロアー 1: • プライマリ I/O モジュール (ドロアー 1) の SAS ポート 1 コネクターと、SAS スイッチの ベイ 5 のポート 7 • セカンダリ I/O モジュール (ドロアー 1) の SAS ポート 1 コネクターと、SAS スイッチの ベイ 6 のポート 7 ドロアー 2: • プライマリ I/O モジュール (ドロアー 2) の SAS ポート 1 コネクターと、SAS スイッチの ベイ 7 のポート 7 • セカンダリ I/O モジュール (ドロアー 2) の SAS ポート 1 コネクターと、SAS スイッチの ベイ 8 のポート 7 IBRIX 9730 CX 7 と SAS スイッチの接続 (拡張ラック) 221 C IBRIX 9730 スペアパーツリスト この付録では、IBRIX 9730 Storage コンポーネントのスペアパーツを一覧します。 このスペア パーツ情報は、本書の発行時点において最新のものです。 最新のスペアパーツ情報について は、http://partsurfer.hp.com (英語) を参照してください。 HP IBRIX 9730 パフォーマンスシャーシ (QZ729A) 説明 スペアパーツ番号 SPS-PWR MOD、SINGLE PHASE 413494-001 SPS-MODULE、LCD 415839-001 SPS-CA、KIT、MISC 416002-001 SPS-CA、SUV 416003-001 SPS-HARDWARE KIT 432463-001 SPS-PLASTICS/HARDWARE KIT 441835-001 SPS-SFP、1Gb、VC、RJ-45 453578-001 SPS-P/S、2450W、12V、HTPLG 500242-001 SPS-BD、LCD PASS THRU 519348-001 SPS-UPS R/T3KVA 2U DTC HV INTL G2 638842-001 SPS-MODULE ENET BLc VC FLEX 10 688896-001 HP IBRIX 9730 140 TB MLStorage 2xBL パフォーマンスモジュール (QZ730A) 説明 スペアパーツ番号 SPS-CA EXT MINI SAS、2M 408767-001 SPS-FAN SYSTEM 413996-001 SPS-PLASTICS/HARDWARE 414063-001 SPS-PWR SUPPLY 441830-001 SPS-DRV、HD 146G SAS 2.5 SP 10K 453138-001 SPS-BD、MEM、MOD、256MB、40B 462974-001 SPS-PROC WSM 2.4 80W E5620 594887-001 SPS-DIMM 4GB PC3 10600R 512MX4 595424-001 SPS-BD PCA HP FBWC 1G CL5 598414-001 SPS-BD SYSTEM I/O G7 605659-001 SPS-BD SMART ARRAY CTRL IDP1 8/8 MEZZ 615360-001 SPS-PLASTICS/HARDWARE MISC 619821-001 SPS-COVER TOP 619822-001 SPS-BACKPLANE HDD SAS 619823-001 SPS-CAGE HDD W/BEZEL 619824-001 222 IBRIX 9730 スペアパーツリスト 説明 スペアパーツ番号 SPS-ENCLOS. TAPE BLADE 3000C NO DRIVE 621742-001 SPS-HEATSINK VC 624787-001 SPS-DRV HD 2TB 7.2K EVA FATA M6412 FC 637981-001 HP IBRIX 9730 210 TB ML Storage 2xBL パフォーマンスモジュール (QZ731A) 説明 スペアパーツ番号 SPS-CA EXT MINI SAS、2M 408767-001 SPS-FAN SYSTEM 413996-001 SPS-PLASTICS/HARDWARE 414063-001 SPS-PWR SUPPLY 441830-001 SPS-DRV、HD 146G SAS 2.5 SP 10K 453138-001 SPS-BD、MEM、MOD、256MB、40B 462974-001 SPS-PROC WSM 2.4 80W E5620 594887-001 SPS-DIMM 4GB PC3 10600R 512MX4 595424-001 SPS-BD PCA HP FBWC 1G CL5 598414-001 SPS-BD SYSTEM I/O G7 605659-001 SPS-BD SMART ARRAY CTRL IDP1 8/8 MEZZ 615360-001 SPS-PLASTICS/HARDWARE MISC 619821-001 SPS-COVER TOP 619822-001 SPS-BACKPLANE HDD SAS 619823-001 SPS-CAGE HDD W/BEZEL 619824-001 SPS-ENCLOS. TAPE BLADE 3000C NO DRIVE 621742-001 SPS-HEATSINK VC 624787-001 SPS-DRV HD 3TB 6G SAS 7.2K 3.5 DP MDL SC 653959-001 HP X9730 140 TB 6G ML Storage 2xBL パフォーマンスモジュール (QZ732A) 説明 スペアパーツ番号 SPS-CA EXT MINI SAS、2M 408767-001 SPS-FAN SYSTEM 413996-001 SPS-PLASTICS/HARDWARE 414063-001 SPS-PWR SUPPLY 441830-001 SPS-BD、MEM、MOD、256MB、40B 462974-001 SPS-DRV HD 2TB 6G SAS 7.2K 3.5 LFF 508010-001 SPS-PROC WSM 2.4 80W E5620 594887-001 HP IBRIX 9730 210 TB ML Storage 2xBL パフォーマンスモジュール (QZ731A) 223 説明 スペアパーツ番号 SPS-DIMM 4GB PC3 10600R 512MX4 595424-001 SPS-BD PCA HP FBWC 1G CL5 598414-001 SPS-BD SYSTEM I/O G7 605659-001 SPS-BD SMART ARRAY CTRL IDP1 8/8 MEZZ 615360-001 SPS-PLASTICS/HARDWARE MISC 619821-001 SPS-COVER TOP 619822-001 SPS-BACKPLANE HDD SAS 619823-001 SPS-CAGE HDD W/BEZEL 619824-001 SPS-ENCLOS. TAPE BLADE 3000C NO DRIVE 621742-001 SPS-HEATSINK VC 624787-001 SPS-DRV HD 3TB 6G SAS 7.2K 3.5 DP MDL SC 653959-001 HP X9730 210TB 6G ML Storage 2xBL パフォーマンスモジュール (QZ733A) 説明 スペアパーツ番号 SPS-CA EXT MINI SAS、2M 408767-001 SPS-FAN SYSTEM 413996-001 SPS-PLASTICS/HARDWARE 414063-001 SPS-PWR SUPPLY 441830-001 SPS-DRV、HD 146G SAS 2.5 SP 10K 453138-001 SPS-BD、MEM、MOD、256MB、40B 462974-001 SPS-PROC WSM 2.4 80W E5620 594887-001 SPS-DIMM 4GB PC3 10600R 512MX4 595424-001 SPS-BD PCA HP FBWC 1G CL5 598414-001 SPS-BD SYSTEM I/O G7 605659-001 SPS-BD SMART ARRAY CTRL IDP1 8/8 MEZZ 615360-001 SPS-PLASTICS/HARDWARE MISC 619821-001 SPS-COVER TOP 619822-001 SPS-BACKPLANE HDD SAS 619823-001 SPS-CAGE HDD W/BEZEL 619824-001 SPS-ENCLOS. TAPE BLADE 3000C NO DRIVE 621742-001 SPS-HEATSINK VC 624787-001 SPS-DRV HD 3TB 6G SAS 7.2K 3.5 DP MDL SC 653959-001 224 IBRIX 9730 スペアパーツリスト D IBRIX 9720 コンポーネントおよびケーブル配線図 ベースキャビネットおよび拡張キャビネット IBRIX 9720 Storage の最小のベースキャビネットは、3~16 個のパフォーマンスブロック (サー バーブレード) と 1~4 個のキャパシティブロックを収容します。 拡張キャビネットは 4 個の キャパシティブロック追加に対応できるため、システムとしては 8 個のキャパシティブロック を持つことになります。 サーバーは、アクティブな Fusion Manager をホストしているサーバーの 1 つで、ファイル サービングノードとして構成されています。 Fusion Manager はファイルサービングノードの 管理を行います。 ファイルサービングノードはファイルシステムの管理セグメントを担当しま す。 ベースキャビネットの前面図 1. X9700c 1 2. TFT モニターおよびキーボード 3. c-Class ブレードエンクロージャー 4. X9700cx 1 ベースキャビネットおよび拡張キャビネット 225 キャパシティブロック 1 個のベースキャビネットの背面図 1. 管理スイッチ 2 2. 管理スイッチ 1 3. X9700c 1 4. TFT モニターおよびキーボード 5. c-Class ブレードエンクロージャー 6. X9700cx 1 226 IBRIX 9720 コンポーネントおよびケーブル配線図 フル装備のベースキャビネットの前面図 1 X9700c 4 6 X9700cx 3 2 X9700c 3 7 TFT モニターおよびキーボード 3 X9700c 2 8 c-Class ブレードエンクロージャー 4 X9700c 1 9 X9700cx 2 5 X9700cx 4 10 X9700cx 1 ベースキャビネットおよび拡張キャビネット 227 フル装備のベースキャビネットの背面図 1 管理スイッチ 2 7 X9700cx 4 2 管理スイッチ 1 8 X9700cx 3 3 X9700c 4 9 TFT モニターおよびキーボード 4 X9700c 3 10 c-Class ブレードエンクロージャー 5 X9700c 2 11 X9700cx 2 6 X9700c 1 12 X9700cx 1 228 IBRIX 9720 コンポーネントおよびケーブル配線図 拡張キャビネットの前面図 オプションの X9700 拡張キャビネットは 1~4 個のキャパシティブロックを収容できます。 次の配線図は、キャパシティブロックが 4 個の拡張キャビネットの前面図です。 1. X9700c 8 5. X9700cx 8 2. X9700c 7 6. X9700cx 7 3. X9700c 6 7. X9700cx 6 4. X9700c 5 8. X9700cx 5 ベースキャビネットおよび拡張キャビネット 229 キャパシティブロックが 4 個の拡張キャビネットの背面図 1. X9700c 8 5. X9700cx 8 2. X9700c 7 6. X9700cx 7 3. X9700c 6 7. X9700cx 6 4. X9700c 5 8. X9700cx 5 パフォーマンスブロック (c-Class ブレードエンクロージャー) パフォーマンスブロックは 9720 用の特殊なサーバーブレードです。サーバーブレードには、 ブレードエンクロージャー内のベイに従って番号が付けられます。 サーバー 1 の場合はブレー ドエンクロージャーのベイ 1 になります。 サーバーブレードは隣接している必要があり、サー バーブレード間に空のブレードベイがあってはいけません。 IBRIX 9720 Storage サーバーブ レードのみ、ブレードエンクロージャーに挿入できます。 サーバーブレードはファイルサービングノードとして構成されています。 1 つのノードがアク ティブな Fusion Manager をホストし、他のノードはパッシブな Fusion Managers をホストし ます。 • アクティブな Fusion Manager は、ファイルサービングノードや IBRIX クライアントなど のクラスター構成の管理を担当しています。 Fusion Manager はファイルシステムの I/O 動作には含まれません。 • ファイルシステムの個々のセグメントは、ファイルサービングノードによって管理されま す。 各セグメントは特定のファイルサービングノードに割り当てられ、各ノードは数個の セグメントを「所有」しています。 セグメントのオーナーシップは、ファイルシステムの アクティブな使用中にノード間で移行できます。 Fusion Manager は、この移行中は実行 状態である必要があります。 下の配線図は、1~16 の番号が付いたハーフハイトデバイスベイを収容しているパフォーマン スブロック (c-Class ブレードエンクロージャー) の前面図です。 230 IBRIX 9720 コンポーネントおよびケーブル配線図 c-Class ブレードエンクロージャーの前面図 下の配線図は、1~16 の番号が付いたハーフハイトデバイスベイを収容しているパフォーマン スブロック (c-Class ブレードエンクロージャー) の前面図です。 c-Class ブレードエンクロージャーの背面図 1. インターコネクトベイ 1 (Virtual Connect Flex-10 10 Ethernet Module) 6. インターコネクトベイ 6 (将来の使用に備えて予約) 2. インターコネクトベイ 2 (Virtual Connect Flex-10 10 Ethernet Module) 7. インターコネクトベイ 7 (将来の使用に備えて予約) 3. インターコネクトベイ 3 (SAS スイッチ) 8. インターコネクトベイ 8 (将来の使用に備えて予約) 4. インターコネクトベイ 4 (SAS スイッチ) 9. Onboard Administrator 1 5. インターコネクトベイ 5 (将来の使用に備 10. Onboard Administrator 2 えて予約) Flex-10 ネットワーク IBRIX 9720 Storage のサーバーブレードは、Flex-10 10Gb NIC を 2 つ内蔵しています。 Flex-10 テクノロジーは、パフォーマンスシャーシのインターコネクトベイ 1 と 2 にある Flex-10 NIC と Flex-10 Virtual Connect モジュールで構成されています。 各 Flex-10 NIC は、トータルの帯 域幅が 10Gb で、FlexNIC とも呼ばれる 4 個の物理インターフェイス (NIC) デバイスから成り ます。 FlexNIC は、IBRIX 9720 Storage 上で次のように構成されます。 パフォーマンスブロック (c-Class ブレードエンクロージャー) 231 IBRIX 9720 Storage は自動的に eth0 および eth3 を予約し、ボンドされたデバイス (bond0) を 作成します。 これは管理ネットワークです。 eth0 および eth3 は Flex-10 Virtual Connect (VC) モジュールに物理的に接続されていますが、VC ドメインは、このネットワークがサイトネッ トワークから見えないように構成されています。 この構成により、eth1 および eth2 は、各サーバーブレードとサイトネットワークの接続に使 用できます。 サイトネットワークに接続するには、「アップリンク」として許可されたポート を 1 つ以上サイトネットワークに接続する必要があります。 これらのポートは「Virtual Connect Flex-10 Ethernet モジュールのケーブル接続 — ベースキャビネット」 (235 ページ) に緑色で示 されています。 サイトネットワークの同じスイッチに複数のポートを接続する場合、すべての ポートが同じメディアタイプを使用する必要があります。 さらに、HP では 10 link の使用を 推奨しています。 9720 Storage は、ネットワークボンドにモード 1 (アクティブ/バックアップ) を使用します。 他のボンディングモードには対応していません。 適切に構成すれば、これにより、各ブレード に完全に冗長なネットワーク接続を提供できます。 NIC、Virtual Connect モジュール、アップ リンクまたはサイトネットワークスイッチの単一の故障で、ネットワークデバイスが故障する ことがなくなります。 ただし、サイトのネットワークインフラストラクチャがボンディングさ れたインターフェイス用に適切に構成され、冗長性とパフォーマンスの両方の点で正しく動作 することが重要です。 キャパシティブロック キャパシティブロックは、12 個のディスクドライブを収容する X9700c シャーシと、70 個の ディスクドライブを収容する X9700cx JBOD エンクロージャーから構成されます。 X9700cx エンクロージャーには、実際には 2 つの JBOD (各引き出しドロアー (左右) につき 1 つずつ) があります。 各ドロアーには 35 個のディスクドライブを収容します。 シリアル番号は、X9700c シャーシのシリアル番号です。 すべてのサーバーは、シリアル接続 された SCSI (SAS) ファブリックにより各アレイに接続されています。 次のような特徴があり ます。 • 各サーバーには、2 個の SAS ポートを持つ P700m SAS ホストバスアダプター (HBA) が あります。 • 各 SAS ポートは、サーバーブレードエンクロージャーバックプレーンで SAS スイッチに 接続されています。 各サーバーが冗長な SAS ファブリックに接続されるような SAS ス イッチが 2 つあります。 • 各アレイには、冗長型コントローラーが 2 つあります。 そのコントローラーはそれぞれ 各 SAS スイッチに接続されています。 アレイ内では、ディスクドライブは別々の「ボックス」に割り当てられており、ボックス 1 は X9700c エンクロージャー、ボックス 2 および 3 はそれぞれ左および右の引き出しドロアーで す。 下の配線図は、アレイボックス内での番号を示しています。 232 IBRIX 9720 コンポーネントおよびケーブル配線図 1. ボックス 1—X9700c 2. ボックス 2—X9700cx、左ドロアー (前から見た場合) 3. ボックス 3—X9700cx、右ドロアー (前から見た場合) アレイには通常コントローラーが 2 つあります。 各コントローラーにはバッテリー駆動型の キャッシュがあります。 また、各コントローラーには専用のファームウェアがあります。 通 常は、すべてのサーバーが、すべてのアレイへの冗長パスを 2 個持っています。 X9700c (12 ディスクドライブのアレイコントローラー) X9700c 前面図 1. ベイ 1 5. 電源 LED 2. ベイ 2 6. システム障害 LED 3. ベイ 3 7. UID LED 4. ベイ 4 8. ベイ 12 X9700c 背面図 1. バッテリー 1 9. ファン 2 2. バッテリー 2 10. X9700c コントローラー 2 3. SAS エキスパンダーポート 1 11. SAS エキスパンダーポート 2 4. UID 12. SAS ポート 1 5. 電源 LED 13. X9700c コントローラー 1 6. システム障害 LED 14. ファン 1 キャパシティブロック 233 7. オン/オフ電源ボタン 15. 電源 1 8. 電源 2 X9700cx (70 ディスクドライブの高密度 JBOD) 注記: このコンポーネントは HP 600 Modular Disk System としても知られています。 このコ ンポーネントの LED およびボタンの説明については、http://www.hp.com/support/manuals (英語) の『HP 600 Modular Disk System User Guide』を参照してください。 [Storage] で [Disk Storage Systems] をクリックし、[Disk Enclosures] で [HP 600 Modular Disk System] をクリック します。 X9700cx 前面図 1. ドロアー 1 2. ドロアー 2 X9700cx 背面図 1. 電源 5. In SAS ポート 2. プライマリ I/O モジュール (ドロアー 2) 6. セカンダリ I/O モジュール (ドロアー 1) 3. プライマリ I/O モジュール (ドロアー 1) 7. セカンダリ I/O モジュール (ドロアー 2) 4. Out SAS ポート 8. ファン 234 IBRIX 9720 コンポーネントおよびケーブル配線図 配線図 キャパシティブロックのケーブル接続 — ベースキャビネットおよび拡張キャビ ネット キャパシティブロックは X9700c と X9700cx で構成されます。 注意: IBRIX 9720 Storage が正常に動作するには、キャパシティブロックを正しくケーブル 接続することが重要です。 1 X9700c 2 X9700cx プライマリ I/O モジュール (ドロアー 2) 3 X9700cx セカンダリ I/O モジュール (ドロアー 2) 4 X9700cx プライマリ I/O モジュール (ドロアー 1) 5 X9700cx セカンダリ I/O モジュール (ドロアー 1) Virtual Connect Flex-10 Ethernet モジュールのケーブル接続 — ベースキャビネッ ト 配線図 235 サイトネットワーク Onboard Administrator 利用可能なアップリンクポート 1. 管理スイッチ 2 7. ベイ 5 (将来の使用に備えて予約) 2. 管理スイッチ 1 8. ベイ 6 (将来の使用に備えて予約) 3. ベイ 1 (サイトネットワーク接続用の Virtual 9. Connect Flex-10 10Gb Ethernet Module) ベイ 7 (オプションコンポーネント用に予約) 4. ベイ 2 (サイトネットワーク接続用の Virtual 10. Connect Flex-10 10Gb Ethernet Module) ベイ 8 (オプションコンポーネント用に予約) 5. ベイ 3 (SAS スイッチ) 11. Onboard Administrator 1 6. ベイ 4 (SAS スイッチ) 12. Onboard Administrator 2 236 IBRIX 9720 コンポーネントおよびケーブル配線図 SAS スイッチのケーブル接続 — ベースキャビネット 注記: 引き出し線 1~3 は、追加の X9700c コンポーネントを示します。 1 X9700c 4 2 X9700c 3 3 X9700c 2 4 X9700c 1 5 SAS スイッチポート 1~4 (c-Class ブレードエンクロージャーのインターコネクトベイ 3)。 ポート 2~4 は追加の容量ブロック用に予約されています。 6 SAS スイッチポート 5~8 (c-Class ブレードエンクロージャーのインターコネクトベイ 3)。 拡張キャビ ネット用 7 SAS スイッチポート 1~4 (c-Class ブレードエンクロージャーのインターコネクトベイ 4)。 ポート 2~4 は追加の容量ブロック用に予約されています。 8 SAS スイッチポート 5~8 (c-Class ブレードエンクロージャーのインターコネクトベイ 4)。 拡張キャビ ネット用 SAS スイッチのケーブル接続 — 拡張キャビネット 注記: 引き出し線 1~3 は、追加の X9700c コンポーネントを示します。 配線図 237 1 X9700c 8 5 SAS スイッチポート 1~4 (c-Class ブレードエンクロージャーのインター コネクトベイ 3)。 ベースキャビネットが使用。 2 X9700c 7 6 SAS スイッチポート 5~8 (c-Class ブレードエンクロージャーのインター コネクトベイ 3)。 3 X9700c 6 7 SAS スイッチポート 1~4 (c-Class ブレードエンクロージャーのインター コネクトベイ 4)。 4 X9700c 5 8 SAS スイッチポート 5~8 (c-Class ブレードエンクロージャーのインター コネクトベイ 4)。 ベースキャビネットが使用。 238 IBRIX 9720 コンポーネントおよびケーブル配線図 E IBRIX 9720 スペアパーツリスト この付録では、IBRIX 9720 Storage コンポーネントのスペアパーツを一覧します。 このスペア パーツ情報は、本書の発行時点において最新のものです。 最新のスペアパーツ情報について は、http://partsurfer.hp.com (英語) を参照してください。 IBRIX 9720 Storage Base (AW548A) 説明 スペアパーツ番号 アクセサリーキット 5069-6535 CABLE、CONSOLE D-SUB9 - RJ45 L 5188-3836 CABLE、CONSOLE D-SUB9 - RJ45 L 5188-6699 PWR-CORD OPT-903 3-COND 2.3-M- 8120-6805 SPS-BRACKETS、PDU 252641-001 SPS-RACK、UNIT、10642、10KG2 385969-001 SPS-PANEL、SIDE、10642、10KG2 385971-001 SPS-STABLIZER、600MM、10GK2 385973-001 SPS-SHOCK PALLET、600MM、10KG2 385976-001 SPS-SPS-STICK、ATTACH'D CBL、C13 0-1FT 419595-001、419595-001N SPS-RACK、BUS BAR & Wire Tray 457015-001 SPS-STICK、4XC-13、Attached CBL 460430-001 SPS-STICK、4X FIXED、C-13、OFFSET、WW 483915-001 HP J9021A SWITCH 2810–24G J9021-69001 X9700 拡張ラック (AQ552A) 説明 スペアパーツ番号 SPS-BRACKETS、PDU 252641-001 SPS-PANEL、SIDE、10642、10KG2 385971-001 SPS-STABLIZER、600MM、10GK2 385973-001 SPS-SPS-STICK、ATTACH'D CBL、C13 0-1FT 419595-001 SPS-RACK、BUS BAR & WIRE TRAY 457015-001 SPS-STICK、4X FIXED、C-13、OFFSET、WW 483915-001 X9700 サーバーシャーシ (AW549A) 説明 スペアパーツ番号 SPS-PWR MOD、SINGLE PHASE 413494-001 SPS-FAN SYSTEM 413996-001 SPS-BLANK、BLADE 414051-001 SPS-BLANK、INTERCONNECT 414053-001 IBRIX 9720 Storage Base (AW548A) 239 説明 スペアパーツ番号 SPS-CA、SUV 416003-001 SPS-RACKMOUNT KIT 432461-001 SPS-BD、MUSKET SAS SWITCH 451789-001 SPS-SFP、1、VC、RJ-45 453578-001 SPS-MODULE ENET、BLC VC、FLEX 10 456095-001 SPS-P/S、2450W、12V、HTPLG 500242-001 SPS-MODULE、OA、DDR2 503826-001 SPS-BD MID PLANE ASSY 519345-001 SPS-SLEEVE、ONBRD ADM 519346-001 SPS-LCD MODULE、WIDESCREEN、ASSY 519349-001 X9700 ブレードサーバー (AW550A) 説明 スペアパーツ番号 SPS-BD、SA DDR2、BBWC、512MB 451792-001 SPS-BD、BATTERY CHARGER、MOD、4/V700HT 462976-001 SPS-BD、MEM、MOD、256MB、40B 462974-001 SPS-BD、RAID CNTRL、SAS 484823-001 SPS-DRV、HD、300、SAS、10K、2.5"、DP、HP 493083-001 SPS-DIMM、4 PC3-8500R、128MX8、ROHS 501535-001 SPS-HEATSINK、BD 508955-001 SPS-MISC CABLE KIT 511789-001 SPS-PLASTICS/HARDWARE、MISC 531223-001 SPS-BACKPLANE、HDD、SAS 531225-001 SPS-CAGE、HDD、W/BEZEL 531228-001 X9700 82TB キャパシティブロック (X9700c および X9700cx) (AQ551A) 次のことに留意してください。 • コントローラー間の通信には X9700c ミッドプレーンが使用されます。 • X9700c にはバックプレーンが 2 つあります。 説明 スペアパーツ番号 SPS-RAIL KIT 383663-001 SPS-BD、DIMM、DDR2、MOD、512MB (X9700c) 398645-001 SPS-BD、MIDPLANE (X9700c) 399051-001 SPS-FAN MODULE (X9700c) 399052-001 SPS-BD、USB、UID (X9700c) 399053-001 SPS-BD、POWER UID、W/CABLE (X9700c) 399054-001 240 IBRIX 9720 スペアパーツリスト 説明 スペアパーツ番号 SPS-BD、RISER (X9700c) 399056-001 SPS-BD、7-SEGMENT、DISPLAY (X9700c) 399057-001 SPS-POWER SUPPLY (X9700c) 405914-001 SPS-CA EXT MINI SAS、2M 408767-001 SPS-CA EXT MINI SAS、4M 408768-001 SPS-FAN、SYSTEM (X9700cx) 413996-001 SPS-RACKMOUNT KIT 432461-001 SPS-BATTERY MODULE (X9700c) 436941-001 SPS-PWR SUPPLY (X9700cx) 441830-001 SPS-BD、BACKPLANE II (X9700c) 454574-001 SPS-POWER BLOCK、W/POWER B/P BDS (X9700cx) 455974-001 SPS-HDD、B/P、W/CABLES & DRAWER ASSY (X9700cx) 455976-001 SPS-BD、LED PANEL、W/CABLE (X9700cx) 455979-001 SPS-DRV、HD、1TB、7.2K、DP SAS、3.5" HP 461289-001 SPS-BD、CONTROLLER、9100C (X9700c) 489833-001 SPS-BD、2 PORT、W/1.5 EXPAND (X9700cx) 498472-001 SPS-DRV、HD、1TB、7.2K、6G DP SAS 508011-001 SPS-CHASSIS (X9700c) 530929-001 X9700 164TB キャパシティブロック (X9700c および X9700cx) (AW598B) 次のことに留意してください。 • コントローラー間の通信には X9700c ミッドプレーンが使用されます。 • X9700c にはバックプレーンが 2 つあります。 説明 スペアパーツ番号 SPS-PLASTICS KIT 314455-001 SPS-RAIL KIT 383663-001 SPS-BD、DIMM、DDR2、MOD、512MB (X9700c) 398645-001 SPS-BD、MIDPLANE (X9700c) 399051-001 SPS-FAN MODULE (X9700c) 399052-001 SPS-BD、USB、UID (X9700c) 399053-001 SPS-BD、POWER UID、W/CABLE (X9700c) 399054-001 SPS-BD、RISER (X9700c) 399056-001 SPS-PWR ON/OFF BOARD W/CABLE 399055-001 SPS-BD、7-SEGMENT、DISPLAY (X9700c) 399057-001 SPS-POWER SUPPLY (X9700c) 405914-001 SPS-CA EXT MINI SAS、2M 408767-001 X9700 164TB キャパシティブロック (X9700c および X9700cx) (AW598B) 241 説明 スペアパーツ番号 SPS-CA EXT MINI SAS、4M 408768-001 SPS-FAN、SYSTEM (X9700cx) 413996-001 SPS-RACKMOUNT KIT 432461-001 SPS-BATTERY MODULE (X9700c) 436941-001 SPS-PWR SUPPLY (X9700cx) 441830-001 SPS-BD、BACKPLANE II (X9700c) 454574-001 SPS-HW PLASTICS KIT 441835-001 SPS-POWER SUPPLY、1200W 449423-001 SPS-POWER BLOCK、W/POWER B/P BDS (X9700cx) 455974-001 SPS-HDD、B/P、W/CABLES & DRAWER ASSY (X9700cx) 455976-001 SPS-BD、LED PANEL、W/CABLE (X9700cx) 455979-001 SPS-BD、CONTROLLER、9100C (X9700c) 489833-001 SPS-DRV、HD、1TB、7.2K、DP SAS、3.5" HP 461289-001 SPS-POWER UID BEZEL ASSEMBLY 466264-001 SPS-BD、2 PORT、W/1.5 EXPAND (X9700cx) 498472-001 SPS-DRV、HD、2 TB、7.2K、DP SAS、3.5” HP 508010-001 M6412C DISK ENCLOSURE 530834-001 SPS-CHASSIS (X9700c) 530929-001 ACCESS PANEL 531224-001 242 IBRIX 9720 スペアパーツリスト F 警告および注意事項 静電気対策の情報 システムの損傷を防ぐために、システムのセットアップおよび部品の取り扱いの際に従わなけ ればならない注意事項を必ず守ってください。 人間の指など、導電体からの静電気放電によっ て、システムボードやその他の静電気に弱いデバイスが損傷することがあります。 その結果、 本体の耐用年数が短くなる場合があります。 静電気による損傷の防止 静電気による損傷を防止するため、以下のことを守ってください。 • 運搬や保管の際は、静電気防止用のケースに入れ、手で直接触れることは避けます。 • 静電気に弱い部品は、静電気防止措置のなされている作業台に置くまでは、専用のケース に入れたままにしておきます。 • 部品をケースから取り出す前に、まずアースされている面にケースごと置きます。 • ピン、リード線、回路には触れないでください。 • 静電気に弱いコンポーネントや部品に触れなければならないときには、常に自分の身体に 対して適切なアースを行います。 アースの方法 アースにはいくつかの方法があります。 静電気に弱い部品を取り扱うときには、以下のうち 1 つ以上の方法でアースを行ってください。 • すでにアースされているコンピューター本体にアースバンドをつなぎます。 アースバンド は柔軟な帯状のもので、アースコード内の抵抗は、1MΩ±10% です。 アースを正しく行 うために、アースバンドを肌に密着させてください。 • 立って作業する場合、かかとやつま先にアースバンドを付けます。 導電性または静電気拡 散性の床の場合、両足にアースバンドを付けます。 • 工具は導電性のものを使用します。 • 折りたたみ式の静電気防止マットが付いた、携帯式の作業用具もあります。 上記のような、適切にアースを行うための器具がないときは、HP のサポート窓口にお問い合 わせください。 注記: 静電気の詳細および製品のインストールの支援については、HP のサポート窓口にお問 い合わせください。 アースの方法 アースにはいくつかの方法があります。 静電気に弱い部品を取り扱うときには、以下のうち 1 つ以上の方法でアースを行ってください。 • すでにアースされているコンピューター本体にアースバンドをつなぎます。 アース バン ドは柔軟な帯状のもので、アース コード内の抵抗は、1MΩ±10% です。 アースを正しく 行うために、アースバンドを肌に密着させてください。 • 立って作業する場合、かかとやつま先にアースバンドを付けます。 導電性または静電気拡 散性の床の場合、両足にアースバンドを付けます。 • 工具は導電性のものを使用します。 • 折りたたみ式の静電気防止マットが付いた、携帯式の作業用具もあります。 上記のような、適切にアースを行うための器具がないときは、HP のサポート窓口にお問い合 わせください。 静電気対策の情報 243 注記: 静電気の詳細および製品のインストールの支援については、HP のサポート窓口にお問 い合わせください。 装置の記号 次の記号が貼付された装置は、人体に危険をおよぼす可能性があるので注意が必要です。 警告! これらの記号が貼付された装置の表面または内部部品に触れると、感電の危険があることを示 します。 修理はすべて、HP のサポート窓口に依頼してください。 感電防止のため、カバーは 開けないでください。 警告! これらの記号が貼付された RJ-45 ソケットはネットワークインターフェイス接続を示します。 感電、火災、装置の損傷を防止するため、電話や電気通信用のコネクターをこのソケットに接 続しないでください。 警告! これらの記号が貼付された装置の表面または内部部品の温度が非常に高くなる可能性があるこ とを示します。 この表面に手を触れるとやけどをする場合があります。 警告! これらの記号が貼付された電源やシステムは、装置の電源が複数あることを示します。 警告! 製品や機械にこの記号が付いている場合は、1 人で安全に取り扱うことができる重量を超えて いることを示します。 重量警告 警告! デバイスは非常に大きな重量があります。 けがや装置の損傷を防止するために、次の点に注意 してください。 • ホットプラグ可能な電源やモジュールをすべて取り外し、つり上げる前にデバイスの全体 の重量を減らしてください。 • 手動での取り扱いについては、地域の労働安全衛生条件およびガイドラインに従ってくだ さい。 • 設置または取り外しの間、特にデバイスがレールに固定されていないときは、デバイスの つり上げと安定には支援が必要です。 22.5 kg (50 lb) 以上のデバイスの場合、2 人以上で 一緒にコンポーネントをラックに載せてください。 コンポーネントを胸より上の高さの ラックに入れる場合は、2 人がデバイスを支え、3 人目がレールの調整を手伝う必要があ ります。 244 警告および注意事項 ラックに関する警告と注意事項 以下の注意事項はラックの安定性と安全性を確保するために示されています。 これらの注意事 項を守ってラックの安定性と安全性を確保し、人的および物的な損傷を防止することが重要で す。 インストールマニュアルに記載されているすべての警告と注意事項に従ってください。 警告! けがや装置の損傷を防止するために、次の点に注意してください。 • 重量のある装置を取り扱う場合は、ご使用の地域で定められた安全な取り扱いに関する規 定に従ってください。 • 設置または除去作業を行う場合は、製品を持ち上げたり固定したりするための適切な人数 を確保してください。 • ラックの水平脚を床まで伸ばしてください。 • ラックの全重量が水平脚にかかるようにしてください。 • 1 つのラックだけを設置する場合は、ラックに固定脚を取り付けてください。 • 複数のラックを設置する場合は、ラックを連結してください。 • 装置下部の固定器具は完全に広げて使用してください。 オプションやボードを設置する際 には、装置が確実に支えられバランスが取れていることを確認してください。 • コンポーネントをスライドさせてラックに押し込む際には十分に注意してください。 スラ イドレールに指をはさむ場合があります。 • コンポーネントをスライドさせてラックの外に拡張する際には、ラックが正しく固定され ていることを確認してください。 コンポーネントは一度に 1 つずつ引き出してください。 一度に複数のコンポーネントを引き出すと、ラックが不安定になる場合があります。 警告! ラックに電力を供給している AC 電源の分岐回路が過負荷になっていないことを確認 します。 AC 電源の分岐回路が過負荷になっている場合、けが、火災、装置の損傷の危険性が 高まります。 ラックの負荷の合計が、分岐回路の定格の 80% を超えないようにしてくださ い。 電気設備の配線と設置要件については、管轄の電力会社にお問い合わせください。 デバイスに関する警告と注意事項 ラックに関する警告と注意事項 245 警告! 感電や装置の損傷を防ぐため、必ず以下の注意事項を守ってください。 • カバーを取り外したり内部コンポーネントに触る場合は、製品が十分に冷えていることを 確認してください。 • 電源コードのアース用プラグは常に取り付けてください。 アース用プラグは安全上必要で す。 • 常に手の届く範囲内のアース付き電源コンセントに電源コードを差し込んでください。 • デバイスの電源を切断するには、電源コンセントまたはデバイスのいずれかから電源コー ドを引き抜いてください。 • 通電のおそれがあるため非導電性器具は使用しないでください。 • 電圧のかかったデバイスのホットプラグ領域で作業を行う場合は、時計、指輪、アクセサ リー等をすべて身体から取り外してください。 • デバイスはアクセスの管理された場所に設置し、資格のある担当者のみが接触できるよう にします。 • ホットプラグ非対応領域のアクセスカバーを取り外す前には、装置の電源を落とし、すべ ての電源コードを抜き取ってください。 • 製品の電源が入っている状態で、ホットプラグ非対応のコンポーネントを交換しないでく ださい。 デバイスの電源を落とし、すべての電源コードを抜き取ります。 • 製品マニュアルに指定されているレベルを超えた修理を行わないでください。 トラブル シューティングと修理の手順はすべて、サブアセンブリまたはモジュールレベルの修理ま でしか記載されていません。 個々のボードとサブアセンブリは非常に複雑であるため、コ ンポーネントレベルの修理やプリント配線基板の変更は絶対に行わないでください。 不正 な修理を行うと安全性を損なうことになります。 警告! けがや装置の損傷を防ぐために、ホットプラグ非対応のコンポーネントの設置は、コ ンピューターの装置業務に関する資格があり、手順や注意事項に関する十分な知識を持ち、危 険エネルギーレベルの生じる可能性がある製品の取り扱いに習熟した担当者が行ってくださ い。 警告! けがや装置の損傷を防ぐために、ご使用の地域で定められた重量のある装置の安全な 取り扱いに関する規定に従ってください。 246 警告および注意事項 注意: 規格に合った無停電電源装置 (UPS) を使用して、設置したソリューションを電力変動 や一時的な中断から保護してください。 UPS は、電源サージや電圧スパイクによって発生する 損傷からハードウェアを保護し、停電中でもシステムが動作を継続できるようにします。 注意: システムの通気を適切に保つため、デバイスの前後には最低 7.6 センチメートル (3.0 インチ) の隙間を空けてください。 注意: 動作可能な IBRIX 9720 Storage でホットプラグ可能なコンポーネントを交換する場合、 故障したコンポーネントを取り外してから交換品を取り付けるまで、約 30 秒あけてください。 これは、取り外したコンポーネントに関する構成データが、システムのレジストリから確実に 消去されるのに必要な時間です。 気流の損失を抑えるため、コンポーネントを取り外した状態 で数分以上作業を中断しないでください。 空のシャーシベイによる過熱を防ぐため、ブランキ ングパネルを使うか、交換が済むまでシャーシ内のコンポーネントを少し外れた状態にしてく ださい。 注意: 物理的な構成変更は、使用頻度の少ない時間帯や使用されていない時間帯にスケジュー ルを設定します。 システムの再構築、RAID の移行、アレイの拡大、LUN の拡張などを実行し ている場合や大量の I/O 処理が行われている場合、ハードドライブの増設や交換、コントロー ラーなどの構成機器のホットプラグなど、物理構成の変更を加えないようにしてください。 た とえば、大量の I/O 処理中にコントローラーを追加したり、交換したりすると、新しいコント ローラーの起動時に一時停止、パフォーマンスの低下、デバイスへのアクセス切断などが発生 します。 コントローラーの起動プロセスが完了すれば、全機能が復帰します。 注意: ホットプラグ対応のコンポーネントを交換する際には、データの損失を防ぐための処 置が実行済みであることを確認します。 デバイスに関する警告と注意事項 247 G 規定に関するご注意 規定準拠識別番号 規定に準拠していることの証明と識別のために、ご使用の製品には、固有の規定準拠識別番号 が割り当てられています。 規定準拠識別番号は、必要な認可マークおよび情報とともに、製品 銘板ラベルに印刷されています。 この製品の準拠情報を請求する場合は、必ず、この規定準拠 識別番号を参照してください。 規定準拠識別番号を製品の製品名またはモデル番号と混同しな いでください。 製品固有情報: HP ________________ 規定モデル番号: _____________ FCC および CISPR 分類: _____________ これらの製品にはレーザーコンポーネントが組み込まれています。 レーザー規定に関するご注 意の項のクラス 1 レーザーに関する注意を参照してください。 Federal Communications Commission notice (米国) Part 15 of the Federal Communications Commission (FCC) Rules and Regulations has established Radio Frequency (RF) emission limits to provide an interference-free radio frequency spectrum. Many electronic devices, including computers, generate RF energy incidental to their intended function and are, therefore, covered by these rules. These rules place computers and related peripheral devices into two classes, A and B, depending upon their intended installation. Class A devices are those that may reasonably be expected to be installed in a business or commercial environment. Class B devices are those that may reasonably be expected to be installed in a residential environment (for example, personal computers). The FCC requires devices in both classes to bear a label indicating the interference potential of the device as well as additional operating instructions for the user. FCC rating label The FCC rating label on the device shows the classification (A or B) of the equipment. Class B devices have an FCC logo or ID on the label. Class A devices do not have an FCC logo or ID on the label. After you determine the class of the device, refer to the corresponding statement. Class A equipment This equipment has been tested and found to comply with the limits for a Class A digital device, pursuant to Part 15 of the FCC rules. These limits are designed to provide reasonable protection against harmful interference when the equipment is operated in a commercial environment. This equipment generates, uses, and can radiate radio frequency energy and, if not installed and used in accordance with the instructions, may cause harmful interference to radio communications. Operation of this equipment in a residential area is likely to cause harmful interference, in which case the user will be required to correct the interference at personal expense. Class B equipment This equipment has been tested and found to comply with the limits for a Class B digital device, pursuant to Part 15 of the FCC Rules. These limits are designed to provide reasonable protection against harmful interference in a residential installation. This equipment generates, uses, and can radiate radio frequency energy and, if not installed and used in accordance with the instructions, may cause harmful interference to radio communications. However, there is no guarantee that interference will not occur in a particular installation. If this equipment does cause harmful interference to radio or television reception, which can be determined by turning the equipment off and on, the user is encouraged to try to correct the interference by one or more of the following measures: • Reorient or relocate the receiving antenna. 248 規定に関するご注意 • Increase the separation between the equipment and receiver. • Connect the equipment into an outlet on a circuit that is different from that to which the receiver is connected. • Consult the dealer or an experienced radio or television technician for help. Modification The FCC requires the user to be notified that any changes or modifications made to this device that are not expressly approved by Hewlett-Packard Company may void the user's authority to operate the equipment. Cables When provided, connections to this device must be made with shielded cables with metallic RFI/EMI connector hoods in order to maintain compliance with FCC Rules and Regulations. Canadian notice (Avis Canadien) (カナダおよびカナダ、フランス語使 用地域) Class A equipment This Class A digital apparatus meets all requirements of the Canadian Interference-Causing Equipment Regulations. Cet appareil numérique de la class A respecte toutes les exigences du Règlement sur le matériel brouilleur du Canada. Class B equipment This Class B digital apparatus meets all requirements of the Canadian Interference-Causing Equipment Regulations. Cet appareil numérique de la class B respecte toutes les exigences du Règlement sur le matériel brouilleur du Canada. European Union notice (欧州) This product complies with the following EU directives: • Low Voltage Directive 2006/95/EC • EMC Directive 2004/108/EC Compliance with these directives implies conformity to applicable harmonized European standards (European Norms) which are listed on the EU Declaration of Conformity issued by Hewlett-Packard for this product or product family. This compliance is indicated by the following conformity marking placed on the product: This marking is valid for non-Telecom products and EU harmonized Telecom products (e.g., Bluetooth). Certificates can be obtained from http://www.hp.com/go/certificates . Hewlett-Packard GmbH, HQ-TRE, Herrenberger Strasse 140, 71034 Boeblingen, Germany Canadian notice (Avis Canadien) (カナダおよびカナダ、フランス語使用地域) 249 Japanese notices (日本) VCCI-A に関するご注意 VCCI-B に関するご注意 VCCI マーク 電源コードに関するご注意 Korean notices (韓国) Class A equipment Class B equipment 250 規定に関するご注意 Taiwanese notices (台湾) BSMI Class A notice Taiwan battery recycle statement Turkish recycling notice (トルコ) Türkiye Cumhuriyeti: EEE Yönetmeliğine Uygundur Vietnamese Information Technology and Communications compliance marking (ベトナム) レーザー規定に関するご注意 English laser notice (英語) This device may contain a laser that is classified as a Class 1 Laser Product in accordance with U.S. FDA regulations and the IEC 60825-1. The product does not emit hazardous laser radiation. 警告! Use of controls or adjustments or performance of procedures other than those specified herein or in the laser product's installation guide may result in hazardous radiation exposure. To reduce the risk of exposure to hazardous radiation: • Do not try to open the module enclosure. There are no user-serviceable components inside. • Do not operate controls, make adjustments, or perform procedures to the laser device other than those specified herein. • Allow only HP Authorized Service technicians to repair the unit. Taiwanese notices (台湾) 251 The Center for Devices and Radiological Health (CDRH) of the U.S. Food and Drug Administration implemented regulations for laser products on August 2, 1976. These regulations apply to laser products manufactured from August 1, 1976. Compliance is mandatory for products marketed in the United States. Dutch laser notice (オランダ語) French laser notice (フランス語) German laser notice (ドイツ語) 252 規定に関するご注意 Italian laser notice (イタリア語) Japanese laser notice (日本語) Spanish laser notice (スペイン語) レーザー規定に関するご注意 253 リサイクルに関するご注意 English recycling notice (英語) Disposal of waste equipment by users in private household in the European Union This symbol means do not dispose of your product with your other household waste. Instead, you should protect human health and the environment by handing over your waste equipment to a designated collection point for the recycling of waste electrical and electronic equipment. For more information, please contact your household waste disposal service Bulgarian recycling notice (ブルガリア語) Изхвърляне на отпадъчно оборудване от потребители в частни домакинства в Европейския съюз Този символ върху продукта или опаковката му показва, че продуктът не трябва да се изхвърля заедно с другите битови отпадъци. Вместо това, трябва да предпазите човешкото здраве и околната среда, като предадете отпадъчното оборудване в предназначен за събирането му пункт за рециклиране на неизползваемо електрическо и електронно борудване. За допълнителна информация се свържете с фирмата по чистота, чиито услуги използвате. Czech recycling notice (チェコ語) Likvidace zařízení v domácnostech v Evropské unii Tento symbol znamená, že nesmíte tento produkt likvidovat spolu s jiným domovním odpadem. Místo toho byste měli chránit lidské zdraví a životní prostředí tím, že jej předáte na k tomu určené sběrné pracoviště, kde se zabývají recyklací elektrického a elektronického vybavení. Pro více informací kontaktujte společnost zabývající se sběrem a svozem domovního odpadu. Danish recycling notice (デンマーク語) Bortskaffelse af brugt udstyr hos brugere i private hjem i EU Dette symbol betyder, at produktet ikke må bortskaffes sammen med andet husholdningsaffald. Du skal i stedet den menneskelige sundhed og miljøet ved at afl evere dit brugte udstyr på et dertil beregnet indsamlingssted for af brugt, elektrisk og elektronisk udstyr. Kontakt nærmeste renovationsafdeling for yderligere oplysninger. Dutch recycling notice (オランダ語) Inzameling van afgedankte apparatuur van particuliere huishoudens in de Europese Unie Dit symbool betekent dat het product niet mag worden gedeponeerd bij het overige huishoudelijke afval. Bescherm de gezondheid en het milieu door afgedankte apparatuur in te leveren bij een hiervoor bestemd inzamelpunt voor recycling van afgedankte elektrische en elektronische apparatuur. Neem voor meer informatie contact op met uw gemeentereinigingsdienst. 254 規定に関するご注意 Estonian recycling notice (エストニア語) Äravisatavate seadmete likvideerimine Euroopa Liidu eramajapidamistes See märk näitab, et seadet ei tohi visata olmeprügi hulka. Inimeste tervise ja keskkonna säästmise nimel tuleb äravisatav toode tuua elektriliste ja elektrooniliste seadmete käitlemisega egelevasse kogumispunkti. Küsimuste korral pöörduge kohaliku prügikäitlusettevõtte poole. Finnish recycling notice (フィンランド語) Kotitalousjätteiden hävittäminen Euroopan unionin alueella Tämä symboli merkitsee, että laitetta ei saa hävittää muiden kotitalousjätteiden mukana. Sen sijaan sinun on suojattava ihmisten terveyttä ja ympäristöä toimittamalla käytöstä poistettu laite sähkö- tai elektroniikkajätteen kierrätyspisteeseen. Lisätietoja saat jätehuoltoyhtiöltä. French recycling notice (フランス語) Mise au rebut d'équipement par les utilisateurs privés dans l'Union Européenne Ce symbole indique que vous ne devez pas jeter votre produit avec les ordures ménagères. Il est de votre responsabilité de protéger la santé et l'environnement et de vous débarrasser de votre équipement en le remettant à une déchetterie effectuant le recyclage des équipements électriques et électroniques. Pour de plus amples informations, prenez contact avec votre service d'élimination des ordures ménagères. German recycling notice (ドイツ語) Entsorgung von Altgeräten von Benutzern in privaten Haushalten in der EU Dieses Symbol besagt, dass dieses Produkt nicht mit dem Haushaltsmüll entsorgt werden darf. Zum Schutze der Gesundheit und der Umwelt sollten Sie stattdessen Ihre Altgeräte zur Entsorgung einer dafür vorgesehenen Recyclingstelle für elektrische und elektronische Geräte übergeben. Weitere Informationen erhalten Sie von Ihrem Entsorgungsunternehmen für Hausmüll. Greek recycling notice (ギリシャ語) Απόρριψη άχρηοτου εξοπλισμού από ιδιώτες χρήστες στην Ευρωπαϊκή Ένωση Αυτό το σύμβολο σημαίνει ότι δεν πρέπει να απορρίψετε το προϊόν με τα λοιπά οικιακά απορρίμματα. Αντίθετα, πρέπει να προστατέψετε την ανθρώπινη υγεία και το περιβάλλον παραδίδοντας τον άχρηστο εξοπλισμό σας σε εξουσιοδοτημένο σημείο συλλογής για την ανακύκλωση άχρηστου ηλεκτρικού και ηλεκτρονικού εξοπλισμού. Για περισσότερες πληροφορίες, επικοινωνήστε με την υπηρεσία απόρριψης απορριμμάτων της περιοχής σας. Hungarian recycling notice (ハンガリー語) A hulladék anyagok megsemmisítése az Európai Unió háztartásaiban Ez a szimbólum azt jelzi, hogy a készüléket nem szabad a háztartási hulladékkal együtt kidobni. Ehelyett a leselejtezett berendezéseknek az elektromos vagy elektronikus hulladék átvételére kijelölt helyen történő beszolgáltatásával megóvja az emberi egészséget és a környezetet.További információt a helyi köztisztasági vállalattól kaphat. リサイクルに関するご注意 255 Italian recycling notice (イタリア語) Smaltimento di apparecchiature usate da parte di utenti privati nell'Unione Europea Questo simbolo avvisa di non smaltire il prodotto con i normali rifi uti domestici. Rispettare la salute umana e l'ambiente conferendo l'apparecchiatura dismessa a un centro di raccolta designato per il riciclo di apparecchiature elettroniche ed elettriche. Per ulteriori informazioni, rivolgersi al servizio per lo smaltimento dei rifi uti domestici. Latvian recycling notice (ラトビア語) Europos Sąjungos namų ūkio vartotojų įrangos atliekų šalinimas Šis simbolis nurodo, kad gaminio negalima išmesti kartu su kitomis buitinėmis atliekomis. Kad apsaugotumėte žmonių sveikatą ir aplinką, pasenusią nenaudojamą įrangą turite nuvežti į elektrinių ir elektroninių atliekų surinkimo punktą. Daugiau informacijos teiraukitės buitinių atliekų surinkimo tarnybos. Lithuanian recycling notice (リトアニア語) Nolietotu iekārtu iznīcināšanas noteikumi lietotājiem Eiropas Savienības privātajās mājsaimniecībās Šis simbols norāda, ka ierīci nedrīkst utilizēt kopā ar citiem mājsaimniecības atkritumiem. Jums jārūpējas par cilvēku veselības un vides aizsardzību, nododot lietoto aprīkojumu otrreizējai pārstrādei īpašā lietotu elektrisko un elektronisko ierīču savākšanas punktā. Lai iegūtu plašāku informāciju, lūdzu, sazinieties ar savu mājsaimniecības atkritumu likvidēšanas dienestu. Polish recycling notice (ポーランド語) Utylizacja zużytego sprzętu przez użytkowników w prywatnych gospodarstwach domowych w krajach Unii Europejskiej Ten symbol oznacza, że nie wolno wyrzucać produktu wraz z innymi domowymi odpadkami. Obowiązkiem użytkownika jest ochrona zdrowa ludzkiego i środowiska przez przekazanie zużytego sprzętu do wyznaczonego punktu zajmującego się recyklingiem odpadów powstałych ze sprzętu elektrycznego i elektronicznego. Więcej informacji można uzyskać od lokalnej firmy zajmującej wywozem nieczystości. Portuguese recycling notice (ポルトガル語) Descarte de equipamentos usados por utilizadores domésticos na União Europeia Este símbolo indica que não deve descartar o seu produto juntamente com os outros lixos domiciliares. Ao invés disso, deve proteger a saúde humana e o meio ambiente levando o seu equipamento para descarte em um ponto de recolha destinado à reciclagem de resíduos de equipamentos eléctricos e electrónicos. Para obter mais informações, contacte o seu serviço de tratamento de resíduos domésticos. 256 規定に関するご注意 Romanian recycling notice (ルーマニア語) Casarea echipamentului uzat de către utilizatorii casnici din Uniunea Europeană Acest simbol înseamnă să nu se arunce produsul cu alte deşeuri menajere. În schimb, trebuie să protejaţi sănătatea umană şi mediul predând echipamentul uzat la un punct de colectare desemnat pentru reciclarea echipamentelor electrice şi electronice uzate. Pentru informaţii suplimentare, vă rugăm să contactaţi serviciul de eliminare a deşeurilor menajere local. Slovak recycling notice (スロバキア語) Likvidácia vyradených zariadení používateľmi v domácnostiach v Európskej únii Tento symbol znamená, že tento produkt sa nemá likvidovať s ostatným domovým odpadom. Namiesto toho by ste mali chrániť ľudské zdravie a životné prostredie odovzdaním odpadového zariadenia na zbernom mieste, ktoré je určené na recykláciu odpadových elektrických a elektronických zariadení. Ďalšie informácie získate od spoločnosti zaoberajúcej sa likvidáciou domového odpadu. Spanish recycling notice (スペイン語) Eliminación de los equipos que ya no se utilizan en entornos domésticos de la Unión Europea Este símbolo indica que este producto no debe eliminarse con los residuos domésticos. En lugar de ello, debe evitar causar daños a la salud de las personas y al medio ambiente llevando los equipos que no utilice a un punto de recogida designado para el reciclaje de equipos eléctricos y electrónicos que ya no se utilizan. Para obtener más información, póngase en contacto con el servicio de recogida de residuos domésticos. Swedish recycling notice (スウェーデン語) Hantering av elektroniskt avfall för hemanvändare inom EU Den här symbolen innebär att du inte ska kasta din produkt i hushållsavfallet. Värna i stället om natur och miljö genom att lämna in uttjänt utrustning på anvisad insamlingsplats. Allt elektriskt och elektroniskt avfall går sedan vidare till återvinning. Kontakta ditt återvinningsföretag för mer information. リサイクルに関するご注意 257 バッテリーの廃棄に関するご注意 Dutch battery notice (オランダ語) French battery notice (フランス語) 258 規定に関するご注意 German battery notice (ドイツ語) Italian battery notice (イタリア語) バッテリーの廃棄に関するご注意 259 バッテリーに関するご注意 (日本語) Spanish battery notice (スペイン語) 260 規定に関するご注意 用語集 ACE Access control entry (アクセス制御エントリー)。 ACL Access control list (アクセス制御リスト)。 ADS Active Directory Service (Active Directory サービス)。 ALB Advanced load balancing (高度な負荷分散)。 BMC Baseboard Management Configuration。 CIFS Common Internet File System。 Windows 環境の共有フォルダー機能で使用されるプロトコル です。 CLI Command-line interface (コマンドラインインターフェイス)。 オペレーティングシステムの応 答を制御するための各種コマンドで構成されるインターフェイスです。 DAS Direct attach storage (直接接続ストレージ)。 1 台以上のサーバーに直接接続する専用ストレー ジデバイス。 DNS Domain Name System (ドメインネームシステム)。 FTP File Transfer Protocol (ファイル転送プロトコル)。 GSI Global service indicator (グローバルサービスインジケーター)。 HA High availability (高可用性)。 HBA Host bus adapter (ホストバスアダプター)。 HCA Host channel adapter (ホストチャネルアダプター)。 HDD Hard disk drive (ハードディスクドライブ)。 IAD HP 9000 Software 管理デーモン。 iLO Integrated Lights-Out。 IML Initial microcode load (初期マイクロコードロード )。 IOPS 1 秒当たりの I/O。 IPMI Intelligent Platform Management Interface。 JBOD Just a Bunch of Disks (単独ディスクの集まり)。 KVM キーボード、ビデオ、マウス。 LUN Logical unit number (論理ユニット番号)。 LUN は、論理ユニット番号、ポート ID、LDEV ID から RAID グループへのマッピングによって生じます。 LUN のサイズは、LDEV のエミュレー ションモードと、LUN に関連付けられる LDEV の数によって決まります。 MTU Maximum Transmission Unit。 NAS Network attached storage (ネットワーク接続ストレージ)。 NFS Network File System (ネットワークファイルシステム)。 フォルダーまたはマウントを共有す るためにほとんどの UNIX 環境で使用されるプロトコルです。 NIC Network interface card (ネットワークインターフェイスカード)。 ある装置と、ネットワーク 上にある他の装置との間で通信を扱う装置ための機器。 NTP Network Time Protocol (ネットワークタイムプロトコル)。 ストレージシステムの日時を、ネッ トワークに接続されたサーバーから取得可能にするプロトコル。これにより、複数のホスト とストレージ デバイスの日時が同期されます。 OA Onboard Administrator。 OFED OpenFabrics Enterprise Distribution。 OSD On-screen display (オンスクリーンディスプレイ)。 OU Active Directory Organizational Units (Active Directory 組織ユニット)。 RO Read-Only アクセス。 RPC Remote Procedure Call (リモートプロシージャーコール)。 RW Read-Write アクセス。 261 SAN Storage area network (ストレージエリアネットワーク)。 1 つ以上のサーバーから利用できる ストレージデバイスのネットワーク。 SAS Serial Attached SCSI (シリアル接続 SCSI)。 SELinux Security-Enhanced Linux。 SFU Microsoft Services for UNIX。 SID セカンダリコントローラー識別子。 SNMP Simple Network Management Protocol。 TCP/IP Transmission Control Protocol/Internet Protocol。 UDP User Datagram Protocol。 UID ユニット ID。 USM SNMP User Security Model。 VACM SNMP View Access Control Model。 VC HP Virtual Connect。 VIF 仮想インターフェイス。 WINS Windows Internet Naming Service。 WWN World Wide Name。 ファイバーチャネルデバイスに割り当てられる一意の識別子。 WWNN World Wide Node Name。 ファイバーチャネルノードの各プロセスに割り当てられる、全世 界で一意の 64 ビット識別子。 WWPN World Wide Port Name。 FC ストレージネットワークで、FC ネットワーク内の各デバイス を識別するために使用される一意の 64 ビットアドレス。 262 用語集 索引 記号 9000 クライアント IP アドレスを変更, 122 ステータスの監視, 90 チューニング, 108 トラブルシューティング, 167 プロセスの開始または停止, 108 プロセスのステータスの表示, 108 ホストグループへの追加, 70 ユーザーインターフェイス, 21 ユーザーネットワークインターフェイスの登録, 119 ユーザーネットワークインターフェイスの優先, 120 ローカルにチューニング, 112 C CLI, 21 E /etc/sysconfig/i18n ファイル, 15 exds escalate コマンド, 154 exds_netdiag コマンド, 156 exds_netperf コマンド, 157 exds_stdiag ユーティリティ, 155 F Federal Communications Commission notice (米国), 248 Flex-10 ネットワーク, 231 Fusion Manager アジャイル, 41 アジャイル構成への移行, 124 構成のバックアップ, 65 フェイルオーバー, 41 G GUI イベントの表示, 91 カスタマイズ, 20 詳細パネル, 19 ナビゲーター, 19 パスワードの変更, 22 開く, 17 ユーザーの追加, 20 H HBA 監視、高可用性, 52 情報の表示, 54 HP テクニカルサポート, 185 HP Insight Remote Support, 24 Phone Home, 27 設定, 25 トラブルシューティング, 34 hpacucli コマンド, 159 hpasmcli(4) コマンド, 95 hpspAdmin ユーザーアカウント, 22 HP のサポート窓口, 185 I Ibrix Collect, 151 設定, 153 トラブルシューティング, 154 ibrix_reten_adm -u command, 195 IBRIX ソフトウェア アップグレード, 129, 187 起動, 106 シャットダウン, 104 IBRIX ソフトウェア 5.5 アップグレード, 202 IBRIX ソフトウェア 5.6 アップグレード, 198 IML hpasmcli(4) コマンド, 95 消去または表示, 95 IP アドレス 9000 クライアントの変更, 122 L Linux 9000 クライアント、アップグレード, 139, 192 LUN レイアウト、9720, 161 N NDMP バックアップ, 65 NDMP サーバーの起動または停止, 67 NDMP パラメーターの設定, 66 新しいデバイスの再スキャン, 68 イベントの表示, 68 セッションのキャンセル, 67 セッションの表示, 66, 67 テープおよびメディアチェンジャーデバイスの表示, 67 NIC フェイルオーバー, 38 NTP サーバー, 24 O Onboard Administrator アクセス, 158 P Phone Home, 27 POST エラーメッセージ, 159 Q QuickRestoreDVD, 175 S SNMP MIB, 62 SNMP イベント通知, 60 Statistics ツール, 97 アップグレード, 98 アンインストール, 103 インストール, 97 構成の維持, 101 263 収集と同期の有効化, 97 スペース要件, 100 トラブルシューティング, 102 フェイルオーバー, 101 プロセス, 102 履歴レポート GUI, 98 レポート, 99 ログファイル, 103 U upgrade60.sh ユーティリティ, 193 V Virtual Connect ドメイン、構成, 172 W Web サイト HP, 186 Windows 9000 クライアント、アップグレード, 140, 193 あ アース 方法, 243 アジャイル Fusion Manager, 41 アップグレード 6.0 以前のファイルシステム, 193 6.0 ファイルシステム, 195 6.0 より前のファイルシステム, 195 IBRIX 5.5 ソフトウェア, 202 IBRIX ソフトウェア, 129, 187 IBRIX ソフトウェア 5.6 リリース, 198 Linux 9000 クライアント, 139, 192 Windows 9000 クライアント, 140, 193 ファームウェア, 144 アレイコンフィギュレーションユーティリティ, 159 い イベント、クラスター MIB ビューの定義, 62 SNMP trapsink の設定, 61 SNMPv3 ユーザーおよびグループの追加, 63 SNMP エージェントの設定, 61 SNMP 構成情報の表示, 64 SNMP 構成の要素の削除, 64 SNMP 通知の設定, 60 監視, 91 削除, 92 タイプ, 58 電子メール通知設定のリスト, 60 電子メール通知の設定, 58 電子メール通知の有効化または無効化, 59 表示 , 91 インテグレーテッドマネジメントログ (IML) hpasmcli(4) コマンド, 95 消去または表示, 95 え エラーメッセージ、POST, 159 264 索引 か 仮想インターフェイス, 36 ガイドライン, 36 クライアントアクセス, 39 スタンバイサーバーの構成, 37 ボンディングされた、作成, 37 監視 クラスターイベント, 91 クラスターの稼働状態, 92 サーバー , 72, 79 シャーシとコンポーネント, 75 ストレージ システム コンポーネント, 82 ノードの統計情報, 95 ファイルサービングノード, 90 ブレードエンクロージャー, 76 管理コンソール アジャイル構成への移行, 124 関連ドキュメント, 185 き 危険な状態 装置の記号, 244 記号 装置, 244 規定に関するご注意 Canadian notice (カナダ), 249 European Union notice (欧州), 249 Japanese notices (日本), 250 Korean notices (韓国), 250 Taiwanese notices (台湾), 251 識別番号, 248 リサイクルに関するご注意, 254 レーザー, 251 キャパシティブロック、9720 概要, 232 く クライアント 仮想インターフェイスへのアクセス, 39 クラスター イベント、監視, 91 稼働状況に関する統計情報, 95 バージョン番号、表示, 166 ヘルスチェック, 92 ライセンスキー, 143 ライセンス、表示, 143 ログファイル, 95 クラスターインターフェイス 定義, 118 変更、ネットワーク, 122 け 警告 重量, 244 ラックに関する注意, 186 ラックのロード, 245 ケーブル配線図、9720, 235 こ て コアダンプ, 55 高可用性 HBA 監視, 52 NIC HA, 42 アジャイル Fusion Manager, 41 サーバー HA, 42 自動フェイルオーバーの手動での構成, 49 自動フェイルオーバー、オン/オフの切り替え, 50 手動フェイルオーバー, 51 設定に関する概要レポート, 55 設定に関する詳細情報レポート, 55 設定のチェック, 54 電源, 49 トラブルシューティング, 167 ノードの電源管理, 107 ノードのフェイルバック, 52 フェイルオーバー保護, 13 コントローラーエラーメッセージ、9730, 159 コンポーネントの監視、9720, 162 停電、システムリカバリ, 106 停電後のシステム起動, 106 テクニカルサポート, 186 HP, 185 電源、サーバー, 49 電子メールイベント通知, 58 さ サーバー クラッシュキャプチャ, 55 スタンバイの構成, 37 チューニング, 108 フェイルオーバー, 43 サーバーブレード 概要, 230 起動, 16 サーバーブレード、9720 追加, 149 サーバーブレードの起動, 16 し システムの起動, 16 システムの復旧, 175 シャットダウン、ハードウェアおよびソフトウェア, 104 重量、警告, 244 使用済みの機器の廃棄、欧州連合, 254 す ストレージ 起動, 16, 106 機能, 12 コンポーネント, 12 設置, 14 ハードウェアシャットダウン, 106 ログイン, 15 ストレージ、クラスターからの削除, 114 スペアパーツリスト、9720, 239 スペアパーツリスト、9730, 222 せ セグメント 移行, 112 クラスターから退避, 114 と ドキュメント 関連ドキュメント, 185 トラブルシューティング, 151 問題の報告, 154 ね ネットワークインターフェイス ガイドライン, 36 削除, 123 定義, 118 表示, 123 ボンディングされたインターフェイスと仮想インター フェイス, 118 ルーティングテーブルエントリーの削除, 123 ルーティングテーブルエントリーを追加, 122 は ハードウェア シャットダウン, 106 電源投入, 106 パスワード、変更 GUI パスワード, 22 バックアップ Fusion Manager の構成, 65 NDMP アプリケーション, 65 ファイルシステム, 65 バッテリーの廃棄に関するご注意, 258 ふ ファームウェア、アップグレード, 144 ファイアウォールの構成, 22 ファイルサービングノード 稼働状態, 90 クラスターからの削除, 117 構成情報データベースとの整合性の維持, 172 手動フェイルオーバー, 51 ステータスの監視, 90 セグメントの移行, 112 チューニング, 108 電源管理, 107 統計情報, 95 トラブルシューティング, 167 フェイルバック, 52 復旧, 175 プロセスの開始または停止, 107 プロセスのステータスの表示, 107 ヘルスチェック, 92 ヘルスチェックの実行, 173 ユーザーネットワークインターフェイスの優先, 120 ローリングリブート, 107 265 ファイルシステム セグメントの移行, 112 フェイルオーバー NIC, 38 クラッシュキャプチャ, 55 サーバー, 43 自動, 38 自動フェイルオーバーの手動での構成, 49 手動, 51 トラブルシューティング, 167 ノードのフェイルバック, 52 へ ヘルスチェックのレポート, 93 ヘルプ 入手, 185 ほ ポート、開く, 22 ホストグループ, 69 9000 クライアントの追加, 70 削除, 71 ドメインルールの追加, 70 表示, 71 ホストグループツリーの作成, 70 ユーザーネットワークインターフェイスの優先, 121 ま マンページ, 22 も 問題の報告, 154 ゆ ユーザーネットワークインターフェイス 9000 クライアントの指定, 119 構成ルール, 122 追加, 118 定義, 118 変更, 119 優先解除, 121 優先設定, 120 ら ラックに関する注意 警告, 186 ラックのロード、警告, 245 ラベル、装置の記号, 244 り リサイクルに関するご注意, 254 リンク状態監視, 40 る ルーティングテーブルエントリー 削除, 123 追加, 122 266 索引 れ レーザー規定に関するご注意, 251 ろ ローカライズ, 15 ローリングリブート, 107 ログイン, 15 ログファイル, 95 HP サポート用に収集, 151
© Copyright 2024 ExpyDoc