[AIX Solaris HP-UX Linux Windows][z/OS]

仮想化と Intelligent Management

Intelligent Management でアプリケーション・インフラストラクチャーの仮想化を 構成することによって、複数のリソースを一緒にプールして、環境におけるワークロードの変動に対応し、 サービス品質を上げることができます。また、アプリケーション・インフラストラクチャーの仮想化 を、この製品がホストされている物理ハードウェアによって提供されるハードウェア仮想化機能と併せて利用することもできます。

アプリケーション・インフラストラクチャーの仮想化

アプリケーション・インフラストラクチャーの仮想化を使用すると、アプリケーションがホストされている物理的なインフラストラクチャーからアプリケーションを分離することができます。これにより、アプリケーション・サーバー・リソースのプール間でワークロードを動的に配置、移行することができるため、インフラストラクチャーは業務ニーズに動的に適応できます。要求は、最も重要なアプリケーションおよびユーザーに対応するため、優先順位付けがなされて、適切にルーティングされます。

通常、アプリケーションおよび Java™ Platform, Enterprise Edition (Java EE) リソースは、静的に特定のサーバーに結び付けられています。 これらの一部のアプリケーションでは、短時間継続する負荷の周期的な増加が発生する場合があります。 アプリケーションが使用不可になるような負荷がかかるのは、デマンドが高い期間です。 IT インフラストラクチャーは、このようなピークに対応できるように構築する必要があります。 システムが通常の負荷で運用されているほとんどの期間では、計算能力の大部分が使用されず、IT 投資の使用が非効率的になる可能性があります。

静的環境では、アプリケーションが複数のエンタープライズ・アーカイブ (.ear ファイル) にまたがることが多く、環境間で移植可能になるように総合的には定義されていません。 静的にデプロイされたアプリケーションは、デプロイされているサーバーにある情報に依存しています。

Intelligent Management の仮想化された動的操作環境では、静的関係に代わって、疎結合のアプリケーションまたはリソース、およびサーバー・インスタンスによる動的関係が構築されています。この場合、アプリケーションを静的にサーバーまたはクラスターに結びつけるのではなく、動的クラスターにデプロイします。この動的クラスターは、環境内のワークロードに応じて拡張、縮小が可能なアプリケーション・デプロイメント・ターゲットです。

動的クラスターを使用して、アプリケーションを動的にデプロイした後、アプリケーションの配置は、ユーザーが定義する動作ポリシーによって決定されます。オートノミック・マネージャーによって、サーバー・インスタンスの配置、および各アプリケーションへのワークロードのルーティングが管理されます。特定のアプリケーションに対するワークロードが増加すると、ワークロードの増加がない他のアプリケーションから調達可能なリソースを使用して、そのアプリケーションをホスティングする動的クラスターのサーバー・インスタンスの数を増やすことができます。

アプリケーション・インフラストラクチャー仮想化の利点は、次のとおりです。
  • ソフトウェアおよびアプリケーション管理の改善: 自動化されたサービスおよび動作ポリシーを使用することにより、管理プロセスが、より反復可能でエラーの発生が少ないものになります。
  • ソフトウェア・リソースの割り振り: 複数のアプリケーション間に負荷分配をシフトすることにより、リソースの動的再割り振りを行うことができます。
  • アプリケーション数の増加: 仮想化アプリケーション環境では、静的構成よりも多くのアプリケーションが稼働できます。
  • 構成の複雑さの軽減: アプリケーションとアプリケーション・サーバー・インスタンスを疎結合することで、全体的な複雑さが軽減され、良好でより使用に適した環境が得られます。

アプリケーション・インフラストラクチャー仮想化の例

図 1. Intelligent Management 環境におけるアプリケーション・インフラストラクチャーの仮想化. 一定のメンバーシップ・ポリシーまたはノード・グループが設定された動的クラスターにアプリケーションをデプロイします。特定のアプリケーション・サーバーにアプリケーションをデプロイするのではありません。その代わりに、アプリケーション配置コントローラーが、動的クラスターに選択した設定に基づいて、動的クラスターのアプリケーション・サーバー・インスタンスを開始します。
アプリケーション・インフラストラクチャー仮想化を使用すると、ODR は、動的クラスターに定義されているサーバーにルーティングします。動的クラスターに属するノードは、ノード・グループまたはメンバーシップ・ポリシーに基づいています。このデプロイメントは、新規サーバーをノード上で開始できるため、動的なものになっています。
図 2. アプリケーション負荷の変動に対応するための追加アプリケーション・サーバーの開始. 動的クラスター・メンバーシップ・ポリシーによって選択されたノードに対して追加アプリケーション・サーバーを開始し、そのアプリケーションに対して行われた追加要求を処理することができます。
特定のアプリケーションに対するワークロードが増加すると、ワークロードの増加がない他のアプリケーションから調達可能なリソースを使用して、そのアプリケーションをホスティングする動的クラスターのサーバー・インスタンスの数を増やすことができます。

1 ある特定のアプリケーションに関してワークロードが増加する場合、 そのアプリケーションをホスティングしている動的クラスター用のサーバー・インスタンスの数 を増やすことができます。これらのサーバー・インスタンスは、ワークロードの増加がない他のアプリケーションから、使用可能なリソース を使用します。

ハードウェアの仮想化

Intelligent Management によって環境内のアプリケーションの仮想化が提供されますが、 仮想化されたハードウェア (ESX など) に対しても Intelligent Management を使用して、 ホスティング環境で提供されるハードウェア仮想化機能を利用することが できます。
ハードウェア仮想化の利点は、次のとおりです。
  • 環境内のハードウェアの削減: 同一の物理ハードウェアに対して複数の Intelligent Management ノードを稼働させることができます。
  • ハードウェア管理の改善: 物理マシンの数が減り、ハードウェア仮想化ソフトウェアを使用してイメージを管理できるため、環境管理がやりやすくなります。
  • ハードウェアの高可用性: サーバー・フェイルオーバーを構成することにより、物理ハードウェアの可用性が高まります。1 つのサーバーが障害を起こしても、別のサーバーが代行することができます。
  • ハードウェアの動的割り振り: プロセッサーおよびメモリーなど、ホスティング・コンピューターの物理リソースを環境内の仮想サーバー間で共有でき、必要に応じて動的に割り振ることができます。リソースが動的に割り振られるため、サーバーの再始動は必要ありません。
  • ストレージの共有: 複数の仮想サーバーまたは論理区画 (LPAR) で同一の物理ストレージを共有することができます。仮想マシンまたは LPAR ごとに物理ハード・ディスクを割り当てる必要はありません。

サーバー仮想化が構成された環境内の Intelligent Management

Intelligent Management は、サポートされる仮想化ハードウェア環境で作動することができます。さまざまなハードウェア・ベンダーが、さまざまな仮想化機能を提供しているため、ハードウェア仮想化環境の Intelligent Management の動作は同じではない可能性があります。しかしながら、ハードウェア仮想化環境には、複数の仮想サーバーまたは論理区画にわたるハードウェア・リソースの共有機能など、共通のテーマがあります。サーバー仮想化環境は、共有プロセッサー・モード、または専用プロセッサー・モードで稼働できます。共有プロセッサー・モードを使用する場合、物理プロセッサーは、物理マシン上で稼働する複数のサーバーまたは論理区画間でプール、共有されます。専用プロセッサー・モードを使用する場合、物理プロセッサーは各仮想サーバーまたは論理区画に対して静的に割り当てられます。

図 3. 共有プロセッサー・モード. 共有プロセッサー・モードでは、物理プロセッサーは、複数の仮想サーバーまたは論理区画間でプール、共有されます。共有プロセッサー・モードを使用すると、物理サーバーには複数の仮想サーバーまたは論理区画を実行するために使用される共有プロセッサー・プールが含まれ、ここにノードおよびアプリケーション・サーバーを入れることができます。
図 4. 専用プロセッサー・モード. 専用プロセッサー・モードでは、物理プロセッサーは各仮想サーバーまたは論理区画に対して静的に割り当てられます。
専用プロセッサー・モードでは、物理プロセッサーが特定の仮想サーバーまたは論理区画にマップされます。こうした仮想サーバーまたは論理区画では、ノードおよびアプリケーション・サーバーを実行することができます。
Intelligent Management は、専用プロセッサー・モードのハードウェア仮想化環境でも稼働させることができます。プロセッサー能力は、各仮想サーバーまたは論理区画に静的に固定されます。能力および割り当てが動的に変化することはありません。 各仮想サーバーまたは論理区画のプロセッサー・リソースは変化しないため、専用プロセッサー・モードを使用する場合は、 Intelligent Management のトラフィック管理および仮想化機能に影響することはありません。
図 5. アプリケーション・インフラストラクチャー仮想化とハードウェア仮想化の共存.
アプリケーション・インフラストラクチャーおよびハードウェア仮想化の共存

サーバー仮想化が構成された環境内のオンデマンド・ルーター

オンデマンド・ルーター (ODR) は CPU またはメモリーの使用量による制約を受けることがあってはなりません。したがって、サーバー仮想化が構成された環境に ODR を インストールするときには、ODR が稼働する仮想マシンまたは LPAR を専用プロセッサー・モードで構成するか、 または、ODR が実行時に十分な CPU リソースと専用メモリーを受け取れることを保証するモードで構成 してください。

CPU を共有する Solaris 10 ゾーンへの製品のデプロイ

本製品は、非専用モード (CPU とメモリーをゾーン間で共有) の Solaris 10 ゾーンにインストールしてデプロイできます。

Solaris 10 ゾーンがゾーン間で CPU とメモリーを共有するように構成されている場合、製品を各 Solaris マシンのグローバル・ゾーンにインストールする必要があります。このインストールは、標準ノードのインストールであることが可能です。

各 Solaris マシンのグローバル・ゾーンで稼働するノード・エージェントには、マシンのすべてのゾーンに必要な情報があります。ノード・エージェント・プロセス は、実行している間は、製品がこの環境で適切に機能するために必要な適切な情報を自動的に収集します。


トピックのタイプを示すアイコン 概念トピック



タイム・スタンプ・アイコン 最終更新: last_date
http://www14.software.ibm.com/webapp/wsbroker/redirect?version=cord&product=was-nd-mp&topic=cwve_odoevirtualized
ファイル名:cwve_odoevirtualized.html