管理の手引き
仮想インターフェース (VI) アーキテクチャーは、
Windows NT 大量並列処理 (MPP) 環境内での TCP/IP の代替のノード間通信プロトコルです。
VI は、Intel 社、Microsoft 社、および Compaq 社が合同で開発した、
システム・エリア・ネットワーク (SAN) 上でのパフォーマンスを向上させる新しい通信アーキテクチャーです。
このアーキテクチャーの詳細は、http://www.viarch.org を参照してください。
プロダクトは、DB2 ユニバーサル・データベースとは別売で、
VIA 使用可能化ネットワーク・インターフェース・カード (NIC)、
スイッチ、およびソフトウェア・ドライバー実装が含まれます。
独立ハードウェア・ベンダーの中には、そのような製品をリリースした、
または今後リリースする予定のものがあります。
TCP/IP と比較すると、
VI アーキテクチャーには待ち時間が短い、帯域幅が広い、
CPU の使用量が少なくて済むなどの特徴があります。
通信集約的な環境では、
VI アーキテクチャーを使用すると総合的なシステムのスループットを向上させることができます。
クラスター内のノード数が増え、データの通信量が増えると、
VI アーキテクチャーを使用することによる利益も大きくなってゆきます。
DB2 ユニバーサル・データベースでは、
Virtual Interface Architecture Specification, Version 1.0、
Intel Virtual Interface (VI) Architecture Developers' Guide, Version 1.0 に準拠し、
"Virtual Interface Architecture Conformance Suite" をパスする VI アーキテクチャーの実装をサポートしています。
この仕様書は、
Web の
http://www.intel.com/design/servers/vi/the_spec/specification.htm にあります。
この Developer's Guide は、
Web の
http://www.intel.com/design/servers/vi/developer/ia_imp_guide.htm にあります。
Conformance Suite の情報も、この同じ URL にあります。
IBM では、
DB2 ユニバーサル・データベース EEE V5.2 での仮想インターフェース (VI) アーキテクチャーのサポートを表明しています。
VI アーキテクチャーを採用し DB2 ユニバーサル・データベース EEE によってサポートされている他のプロダクトについては、
http://www.software.ibm.com/data の DB2 ユニバーサル・データベース・サポート組織に連絡するか、
1-800-237-5511 (米国とカナダのみ) に連絡してください。
DB2 ユニバーサル・データベースでテスト済みのプロダクトは、以下のとおりです。
DB2 ユニバーサル・データベースで動作する他のプロダクトがあるかもしれません。
そのプロダクトがサポートされているかどうかを確認するには、
そのプロダクトのベンダーを調べ、次いで弊社のサービスとサポートを調べてください。
以下に、
VI を使用するネットワーク・ハードウェアのセットアップに関連した前提条件の例を示します。
- GigaNet Interconnect
GigaNet Interconnect のセットアップ手順には、
このハードウェアを選択した場合に必要なハードウェア、
ソフトウェア、およびプロトコルについて情報が示されています。
GigaNet プロダクトの詳細を調べる、
あるいは GigaNet のサービスおよびサポートに連絡を取るには、
http://www.giganet.com/ の URL にアクセスしてください。
- Compaq ServerNet Interconnect
ServerNet Interconnect のセットアップ手順には、
このハードウェアを選択した場合に必要なハードウェア、
ソフトウェア、およびプロトコルについて情報が示されています。
ServerNet プロダクトの詳細を調べる、
あるいは ServerNet のサービスおよびサポートに連絡を取るには、
http://www.servernet.com/ の URL にアクセスしてください。
- Fujitsu Synfinity Interconnect
Synfinity Interconnect のセットアップ手順には、
このハードウェアを選択した場合に必要なハードウェア、
ソフトウェア、およびプロトコルについて情報が示されています。
Synfinity プロダクトの詳細を調べる、
あるいは Synfinity のサービスおよびサポートに連絡を取るには、
Fujitsu System Technologies (http://www.fjst.com/) にアクセスしてください。
VI を使用できるように DB2 を構成する必要があります。
VI を使用して DB2 を実行できるようにするには、VI を使用するのに必要な情報が収められています。
この環境を設定するときに必要なハードウェアとソフトウェアのリストには、
以下のプロダクトが含まれています。
- GigaNet GNN1000 ネットワーク・インターフェース・カード
- GigaNet GNX5000 スイッチ
- GigaNet GNCxx11 Copper Interconnect ケーブル
- GigaNet cLAN Software バージョン 2.0
DB2 ユニバーサル・データベースで GigaNet Interconnect を動作させるときに必要なステップを、
これから示します。
それぞれのステップは、各ステップで必要とされることの要旨です。
ここでは、各ステップに関係するすべてが詳細に述べられていません。
それぞれのステップで参照されている資料もご使用ください。
そこには、詳細な手順と必要な指示が載せられています。
それぞれの GigaNet GNN1000 は、GigaNet cLAN Software の CD-ROM にパッケージされています。
この CD-ROM には、GigaNet Interconnect の設定に必要なすべてのソフトウェアが含まれています。
さらに、VI アーキテクチャーの SDK と Adobe Acrobat Reader が含まれています。
この 2 つの品目を必要とするのは、
VI を使用できるアプリケーションを開発しているユーザーだけです。
ステップの要旨は以下のとおりです。
- アダプター・カードをインストールします。
- スイッチとケーブルをインストールします。
- アダプター・ドライバーをインストールします。
- cLAN Management Console をインストールします。
- Interconnect をテストします。
ステップは以下のとおりです。
- GigaNet GNN1000 ネットワーク・インターフェース・カードをインストールします。
インストールの手順については、GigaNet GNN1000 User Guide を参照してください。
- GigaNet GNX5000 スイッチおよびケーブルをインストールします。
インストールの手順については、
GigaNet GNX5000 User Guide を参照してください。
- GNX5000 Switch に接続されているノードごとに、
GigaNet GNN1000 アダプター・ドライバー・ソフトウェアをインストールします。
インストールの手順については、
GigaNet GNN1000 User Guide を参照してください。
GigaNet によって提供されているドライバーをインストールしているのであれば、
ここでさらに詳しい情報をお知らせします。
- 前のバージョンの GNN1000 ドライバーがインストールされていれば、それを削除します。
削除するときには、ノードをリブートする必要があります。
- 「スタート」-->「設定」-->「コントロール パネル」-->
「ネットワーク」-->「アダプター」-->「追加」を使用して、
ドライバーをインストールします。
- 「ディスク使用 (Have Disk...)」をクリックし、
CD-ROM のドライバー・ディレクトリーを指定します。
たとえば、F: が CD-ROM ドライブであれば、
F:\Driver を使います。
- "GNN1000 NDIS Adapter"を選んで、
「OK」をクリックします。
- ネットワーク・プロトコルを構成して、インストールを完了します。
GigaNet アダプター・ドライバー・ソフトウェアは、
http://www.giganet.com の GigaNet Web サイトでも入手できます。
GigaNet Web サイトのサポート・ページに載せられている、
ダウンロードおよびインストールの指示を参照してください。
GNN1000 アダプター・ドライバーをインストールすると、ノードがリブートします。
- GigaNet Interconnect の保全性をテストするときには、
GigaNet cLAN Management Console (GMC) を使用できます。
GigaNet cLAN Management Console は、Console と Agent の 2 つで構成されています。
Agent については、クラスター内のすべてのノードにインストールする必要があります。
Console については、クラスター内のノードへのアクセス権を持つ、
任意のネットワーク・ノードにインストールすることができます。
最も便利でお勧めのインストール方法は、
クラスター内の各ノードに Console と Agent の両方をインストールすることです。
GigaNet cLAN Management Console をインストールします。
cLAN Management Console のインストール手順とその他の情報については、
GigaNet GNN1000 User Guide を参照してください。
ここで、インストール手順をさらに詳しく説明します。
- cLAN ソフトウェア CD を CD-ROM ドライブに挿入します。
- CD 自動インストール・メニューが表示されるのを待ちます。
- 「cLAN Management Console のインストール (Install cLAN Management Console)」をクリックします。
- クラスター内の残りのノードそれぞれで、このインストール手順を繰り返します。
GigaNet cLAN Management Console ソフトウェアは、
http://www.giganet.com の GigaNet Web サイトでも入手できます。
GigaNet Web サイトのサポート・ページに載せられている、
ダウンロードおよびインストールの指示を参照してください。
cLAN Management Console をインストールすると、ノードはリブートします。
- GigaNet ハードウェアが作動していることをテストします。
このテストは、以下のようにして実行します。
- GMC をオープンします。
(「プログラム」-->「GigaNet」-->「cLAN
Management Console」)
- ダイアログ・ボックスが表示され、LAN の中のアクセス可能なマシンがすべて示されます。
「ESC」を押します。
- メニュー・バーから「コンソール (Console)」-->「ローカル (Local)」を選択します。
- クラスター内の全メンバーが表示されており、
すべて "アクティブ" であることを確認します。
- メニュー・バーから「ユーティリティー (Utilities)」-->「VI スループット (VI Throughput)」を選択します。
これによりスループット・テストが実行され、
データが実際にハードウェアを通っているかどうか確認できます。
- テストで使用する 2 つのコンピューターの名前を、大文字で入力します。
ローカル・ノードをソース・ノードとします。
- 「測定開始 (Start Measuring)」をクリックします。
データは、少なくとも毎秒 65 MB の速度で転送されるはずです。
- 接続のテストを停止するには、
「測定停止 (Stop Measuring)」をクリックします。
- クラスター内の他のノードについても、
ローカル・ノード (ソース) と他方のノード (受信) との間のスループットを計測し、
テストを繰り返してください。
接続テストが行われないようであれば、
GigaNet GNN1000 User Guide および
GigaNet GNX5000 User Guide のトラブルシューティングの節を参照してください。
DB2 ユニバーサル・データベース (Windows NT 版) のインストール方法と実装方法については、
DB2 エンタープライズ拡張エディション 概説およびインストール を参照してください。
この環境を設定するときに必要なハードウェアとソフトウェアのリストには、
以下のプロダクトが含まれています。
- ServerNet PCI Adapter Driver (SPAD)、
(プロダクト ID T0089) のバージョン 1.3.5 以上
- ServerNet Switch 1
- ServerNet Area Network Manager (SANMan)、
(プロダクト ID T0087) のバージョン 1.1.3 以上
DB2 ユニバーサル・データベースで ServerNet Interconnect を動作させるときに必要なステップを、
以下に示します。
それぞれのステップは、各ステップで必要とされることの要旨です。
ここでは、各ステップに関係するすべてが詳細に述べられていません。
それぞれのステップで参照されている資料もご使用ください。
そこには、詳細な手順と必要な指示が載せられています。
ここに示されているステップでは、クラスター内で使っているノードは、
最大でも 6 つであると想定しています。
7 つ以上のノードを使用する要件があるのであれば、ServerNet に連絡してお聞きください。
ステップは以下のとおりです。
- ServerNet ネットワーク・インターフェース・カードをインストールします。
インストールの手順については、
ServerNet-I Virtual Interface Software Release Document (プロダクト ID N0031) を参照してください。
- ServerNet Switch 1 をインストールします。
インストールの手順については、
ServerNet-I Virtual Interface Software Release Document (プロダクト ID N0031) を参照してください。
- 前の ServerNet ドライバーをアンインストールします。
(初めて ServerNet をインストールするのであれば、
このステップはスキップしてください。)
- 「ネットワーク」コントロール パネルをオープンします。
(「スタート」-->「設定」-->「コントロール パネル」-->
「ネットワーク」)
- 「アダプター」タブをクリックします。
- Tandem ServerNet PCI Adapter Driver を削除します。
- 「サービス」タブをクリックします。
- SANMan を削除します。
- 「プロトコル」タブをクリックします。
- Tandem ServerNet-I VI Protocol を削除します。
- Tandem ServerNet PCI アダプター・ドライバーをインストールします。
ServerNet によって提供されているソフトウェア CD を使ってインストールしているのであれば、
ここでさらに詳しい情報をお知らせします。
- 「ネットワーク」コントロール パネルをオープンします。
(「スタート」-->「設定」-->「コントロール パネル」-->
「ネットワーク」)
- 「アダプター」タブをクリックします。
(「アダプター」画面が表示されます。)
- それぞれのドライブまたはディレクトリー (あるいはその両方) に、
新しい ServerNet ドライバーが示されていることを確認します。
その後、正しいドライブまたはディレクトリー (あるいはその両方) を示しているコマンド・プロンプトで、"ernnn.exe -d"と入力して、自己抽出プログラムを開始します。
("ernnn.exe"は Engineering Release − ERnnn.EXE − の名前で、
後の部分には番号が入ります。これにより、
インストールされる ServerNet ドライバーの固有のバージョンが分かります。)
- 抽出したファイルを入れるドライブまたはディレクトリー (あるいはその両方) に変更します。
"Spad n.n.n \ Free"サブディレクトリーに変更します (ここで、"n.n.n"はプロダクトの固有のバージョンを示します)。
(トラブルシューティング環境または開発環境で作業している場合、"Spad n.n.n \ Free"サブディレクトリーではなく、"Spad n.n.n \ Checked"サブディレクトリーに変更します。)
- "oemsetup.multi_node"ファイルの名前を、"oemsetup.inf"に変更します。
- 「アダプター」タブで、「追加 (Add)」を選択します。
(「アダプターの選択」画面が表示されます。)
- 「ディスク使用 (Have Disk...)」をクリックします。
(「ディスクの挿入 (Insert Disk)」画面が表示されます。)
- oemsetup.inf があるドライブまたはディレクトリー (あるいはその両方) を入力します。
- ダイアログ・ボックスに"Tandem ServerNet PCI Adapter Driver"が示されているのを確認してから、
「OK」をクリックします。
アダプターのリストに、ServerNet アダプターが表示されていることを確認します。
「閉じる (Close)」をクリックします。
- コンピューターを再始動するのであれば「はい (Yes)」を選択します。
あるいは、SANMan および VI のソフトウェア開発者キット (SDK) のインストールを続けるのであれば、
「いいえ (No)」を選択します。
- SANMan をインストールします。
ServerNet によって提供されているソフトウェア CD を使ってインストールしているのであれば、
ここでさらに詳しい情報をお知らせします。
- 「ネットワーク」コントロール パネルをオープンします。
(「スタート」-->「設定」-->「コントロール パネル」-->
「ネットワーク」)
- 「サービス」タブをクリックします。
(「サービス」画面が表示されます。)
- それぞれのドライブまたはディレクトリー (あるいはその両方) に、
新しい ServerNet ドライバーが示されていることを確認します。
その後、正しいドライブまたはディレクトリー (あるいはその両方) を示しているコマンド・プロンプトで、"ernnn.exe -d"と入力して、自己抽出プログラムを開始します。
("ernnn.exe"は Engineering Release − ERnnn.EXE − の名前で、
後の部分には番号が入ります。これにより、
インストールされる ServerNet ドライバーの固有のバージョンが分かります。)
- 「サービス」タブで、「追加 (Add)」を選択します。
(「サービスの選択 (Select Services)」画面が表示されます。)
- 抽出したファイルを入れるドライブまたはディレクトリー (あるいはその両方) に変更します。
"SANMan n.n.n \ Free"サブディレクトリーに変更します (ここで、"n.n.n"はプロダクトの固有のバージョンを示します)。
(トラブルシューティング環境または開発環境で作業している場合、"SANMan n.n.n \ Free"サブディレクトリーではなく、"SANMan n.n.n \ Checked"サブディレクトリーに変更します。)
- スイッチのライトを見て、スイッチが X と Y のどちらなのかを判別します。
一方のライトは"X"を示し、もう一方は"Y"を示します。
- X スイッチであれば、X=1 および Y=0 を選択します。
すべてのケーブルが、ネットワーク・カードの X ポートに接続されていることを確認してください。
- Y スイッチであれば、X=0 および Y=1 を選びます。
すべてのケーブルが、ネットワーク・カードの Y ポートに接続されていることを確認してください。
- 現在のマシンのネットワーク・カードが接続されている、
スイッチ (交換機) のポート番号を指定します。
- 6 つのポートすべてについて、"PC"を選択します。
- 仮想インターフェース・プロトコルをインストールします。
ServerNet によって提供されているソフトウェア CD を使ってインストールしているのであれば、
ここでさらに詳しい情報をお知らせします。
- 「ネットワーク」コントロール パネルをオープンします。
(「スタート」-->「設定」-->「コントロール パネル」-->
「ネットワーク」)
- 「プロトコル」タブをクリックします。
(「ネットワーク・プロトコル (Network Protocols)」画面が表示されます。)
- それぞれのドライブまたはディレクトリー (あるいはその両方) に、
新しい ServerNet ドライバーが示されていることを確認します。
その後、正しいドライブまたはディレクトリー (あるいはその両方) を示しているコマンド・プロンプトで、"ernnn.exe -d"と入力して、自己抽出プログラムを開始します。
("ernnn.exe"は Engineering Release − ERnnn.EXE − の名前で、
後の部分には番号が入ります。これにより、
インストールされる ServerNet ドライバーの固有のバージョンが分かります。)
- 「プロトコル」タブで、「追加 (Add)」を選択します。
(「ネットワーク・プロトコルの選択 (Select Network Protocols)」画面が表示されます。)
- 「ディスク使用 (Have Disk...)」をクリックします。
(「ディスクの挿入 (Insert Disk)」画面が表示されます。)
- 抽出したファイルを入れるドライブまたはディレクトリー (あるいはその両方) を入力します。
- ServerNet ハードウェアが作動していることをテストします。
使用できるテスト・プログラムはありません。
ですから、DB2 を使って ServerNet ハードウェアをテストします。
ハードウェアが動作していないようであれば、
ServerNet-I Virtual Interface Software Release Document (プロダクト ID N0031) を参照してください。
DB2 ユニバーサル・データベース (Windows NT 版) のインストール方法と実装方法については、
DB2 エンタープライズ拡張エディション 概説およびインストール を参照してください。
この環境を設定するときに必要なハードウェアとソフトウェアのリストには、
以下のプロダクトが含まれています。
- Synfinity PCI Network Interface Card
- Synfinity six port Switch
- Synfinity Interconnect Cables
- Synfinity Cluster Manager Software バージョン 1.10
DB2 ユニバーサル・データベースで Synfinity Interconnect を動作させるときに必要なステップを、
これから示します。
それぞれのステップは、各ステップで必要とされることの要旨です。
ここでは、各ステップに関係するすべてが詳細に述べられていません。
それぞれのステップで参照されている資料もご使用ください。
そこには、詳細な手順と必要な指示が載せられています。
各 Synfinity システムは、
Synfinity Cluster Manager Software バージョン 1.10 CD-ROM と一緒に梱包されています。
この CD-ROM には、
Synfinity Interconnect のセットアップに必要なすべての資料とソフトウェアが含まれています。
さらに、Synfinity Cluster User Guide が含まれています。
他の VI ハードウェア、ソフトウェア、およびプロトコルがインストールされている場合は、
これらをすべて削除してからでないと、
Synfinity Interconnect をインストールできないことがあります。
インストールが完了すると、
Synfinity Interconnect は外部ハードウェアとして認識されるようになり、
Windows NT コントロール パネルからは表示できなくなります。
ステップの要旨は以下のとおりです。
- アダプター・カードをインストールします。
- Synfinity Cluster Manager Software をインストールします。
- スイッチとケーブルをインストールします。
- Interconnect をテストします。
ステップは以下のとおりです。
- Synfinity PCI Network Interface Card をインストールします。
インストールの手順については、
Synfinity Cluster Manager Software User Guide を参照してください。
- Switch に接続されているノード上に Synfinity Cluster Manager Software をインストールします。
インストールの手順については、
Synfinity Cluster User Guide を参照してください。
選択したノードが Cluster Manager になります。
CD からソフトウェアをインストールする必要があるのは、このノードだけです。
インストールが完了したら、
Synfinity Cluster Manager ソフトウェアを実行する必要があります。
Cluster Manager からは、
クラスター計画やネットワークを構成するのに役立つステップバイステップ・ガイドが示されます。
ルーティングおよび配線に関する最善のオプションについてのアドバイスもあります。
このステップを完了してからでないと、
ケーブルを Synfinity スイッチやネットワーク・カードに接続することはできません。
計画プロセスの一環として、
Cluster Manager はクラスター計画を参考にして、
他のノードで使用するためのインストール可能ディスケットを作成します。
このディスケットの中には、
他のノード上のカードに使用できるドライバー・ソフトウェアが含まれます。
詳細については、Synfinity Cluster Users guide を参照してください。
- Synfinity Switch および Cable をインストールします。
インストールの手順については、
Synfinity Cluster User Guide を参照してください。
- Synfinity ハードウェアが作動していることをテストします。
このテストは、以下のようにして実行します。
- クラスター内の任意のシステムで、
MS NT の「コマンド プロンプト (Command Prompt)」ウィンドウをオープンします。
- Synfinity Cluster Manager ソフトウェアをロードした "utils" サブディレクトリーへディレクトリーを変更します。
- "vitest" と入力し、表示されるノード番号をメモします。
- クラスター内の他のシステムで、
「コマンド プロンプト (Command Prompt)」ウィンドウをオープンします。
- もう一方のシステムで Synfinity Cluster Manager ソフトウェアがロードされている "utils" サブディレクトリーへディレクトリーを変更します。
- "vitest x" と入力します。x は上記のステップ 3 でメモしたノード番号です。
- "CONNECTION GOOD" メッセージが表示されるはずです。
- "NO CONNECTION" メッセージが表示された場合は、
ケーブルとハードウェアの設定を調べてください。
問題のトラブルシューティングに関する詳細については、
Synfinity Cluster User Guide を参照してください。
サポート Web ページ (http://www.fjst.com/) の "Tech-tips" もご覧ください。
DB2 ユニバーサル・データベース (Windows NT 版) のインストール方法と実装方法については、
DB2 エンタープライズ拡張エディション 概説およびインストール を参照してください。
詳細なインストール情報は、DB2 エンタープライズ拡張エディション 概説およびインストール に載せられています。
DB2 エンタープライズ拡張エディション 概説およびインストール に示されている手順に従って DB2 のインストールが完了したら、
以下の DB2 レジストリー変数を設定して、
インスタンス内のデータベース区画サーバーごとに以下のタスクを実行する必要があります。
- DB2_VI_ENABLE=ON を設定する。
- DB2_VI_DEVICE=nic0 を設定する。
注: | Synfinity Interconnect の場合は、
この変数を DB2_VI_DEVICE=VINIC に設定する必要があります。
装置名 (VINIC) は大文字でなければなりません。
|
- DB2_VI_VIPL=vipl.dll を設定する。
- MPP インスタンスに対して db2start を入力する。
- db2diag.log ファイルを検討する。
区画ごとに、"VI is enabled"という 1 つのメッセージがあるはずです。
- 高速コミュニケーション・マネージャー (FCM) 構成パラメーターを更新する必要が生じる場合もあります。
FCM に関連したリソース制約の結果として問題が発生した場合には、
FCM 構成パラメーターの値を大きくしなければなりません。
他の高速相互接続環境から移行する場合、
旧環境ですでに FCM 構成パラメーターの値を大きくしていたなら、
逆にこれらの値を小さくしなければならないときもあります。
また、Windows NT では、
DB2 省略時値がオーバーライドされるように DB2NTMEMSIZE レジストリー変数を設定しなければならない場合もあります。
このレジストリー変数の詳細については、付録 D, DB2 登録変数と環境変数を参照してください。
[ ページのトップ | 前ページ | 次ページ | 目次 | 索引 ]