![[AIX Solaris HP-UX Linux Windows]](../images/dist.gif)
![[z/OS]](../images/ngzos.gif)
仮想化と Intelligent Management
Intelligent Management でアプリケーション・インフラストラクチャーの仮想化を 構成することによって、複数のリソースを一緒にプールして、環境におけるワークロードの変動に対応し、 サービス品質を上げることができます。また、アプリケーション・インフラストラクチャーの仮想化 を、この製品がホストされている物理ハードウェアによって提供されるハードウェア仮想化機能と併せて利用することもできます。
アプリケーション・インフラストラクチャーの仮想化
アプリケーション・インフラストラクチャーの仮想化を使用すると、アプリケーションがホストされている物理的なインフラストラクチャーからアプリケーションを分離することができます。これにより、アプリケーション・サーバー・リソースのプール間でワークロードを動的に配置、移行することができるため、インフラストラクチャーは業務ニーズに動的に適応できます。要求は、最も重要なアプリケーションおよびユーザーに対応するため、優先順位付けがなされて、適切にルーティングされます。
通常、アプリケーションおよび Java™ Platform, Enterprise Edition (Java EE) リソースは、静的に特定のサーバーに結び付けられています。 これらの一部のアプリケーションでは、短時間継続する負荷の周期的な増加が発生する場合があります。 アプリケーションが使用不可になるような負荷がかかるのは、デマンドが高い期間です。 IT インフラストラクチャーは、このようなピークに対応できるように構築する必要があります。 システムが通常の負荷で運用されているほとんどの期間では、計算能力の大部分が使用されず、IT 投資の使用が非効率的になる可能性があります。
静的環境では、アプリケーションが複数のエンタープライズ・アーカイブ (.ear ファイル) にまたがることが多く、環境間で移植可能になるように総合的には定義されていません。 静的にデプロイされたアプリケーションは、デプロイされているサーバーにある情報に依存しています。
Intelligent Management の仮想化された動的操作環境では、静的関係に代わって、疎結合のアプリケーションまたはリソース、およびサーバー・インスタンスによる動的関係が構築されています。この場合、アプリケーションを静的にサーバーまたはクラスターに結びつけるのではなく、動的クラスターにデプロイします。この動的クラスターは、環境内のワークロードに応じて拡張、縮小が可能なアプリケーション・デプロイメント・ターゲットです。
動的クラスターを使用して、アプリケーションを動的にデプロイした後、アプリケーションの配置は、ユーザーが定義する動作ポリシーによって決定されます。オートノミック・マネージャーによって、サーバー・インスタンスの配置、および各アプリケーションへのワークロードのルーティングが管理されます。特定のアプリケーションに対するワークロードが増加すると、ワークロードの増加がない他のアプリケーションから調達可能なリソースを使用して、そのアプリケーションをホスティングする動的クラスターのサーバー・インスタンスの数を増やすことができます。
- ソフトウェアおよびアプリケーション管理の改善: 自動化されたサービスおよび動作ポリシーを使用することにより、管理プロセスが、より反復可能でエラーの発生が少ないものになります。
- ソフトウェア・リソースの割り振り: 複数のアプリケーション間に負荷分配をシフトすることにより、リソースの動的再割り振りを行うことができます。
- アプリケーション数の増加: 仮想化アプリケーション環境では、静的構成よりも多くのアプリケーションが稼働できます。
- 構成の複雑さの軽減: アプリケーションとアプリケーション・サーバー・インスタンスを疎結合することで、全体的な複雑さが軽減され、良好でより使用に適した環境が得られます。
アプリケーション・インフラストラクチャー仮想化の例


1 ある特定のアプリケーションに関してワークロードが増加する場合、 そのアプリケーションをホスティングしている動的クラスター用のサーバー・インスタンスの数 を増やすことができます。これらのサーバー・インスタンスは、ワークロードの増加がない他のアプリケーションから、使用可能なリソース を使用します。
ハードウェアの仮想化
Intelligent Management によって環境内のアプリケーションの仮想化が提供されますが、 仮想化されたハードウェア (ESX など) に対しても Intelligent Management を使用して、 ホスティング環境で提供されるハードウェア仮想化機能を利用することが できます。- 環境内のハードウェアの削減: 同一の物理ハードウェアに対して複数の Intelligent Management ノードを稼働させることができます。
- ハードウェア管理の改善: 物理マシンの数が減り、ハードウェア仮想化ソフトウェアを使用してイメージを管理できるため、環境管理がやりやすくなります。
- ハードウェアの高可用性: サーバー・フェイルオーバーを構成することにより、物理ハードウェアの可用性が高まります。1 つのサーバーが障害を起こしても、別のサーバーが代行することができます。
- ハードウェアの動的割り振り: プロセッサーおよびメモリーなど、ホスティング・コンピューターの物理リソースを環境内の仮想サーバー間で共有でき、必要に応じて動的に割り振ることができます。リソースが動的に割り振られるため、サーバーの再始動は必要ありません。
- ストレージの共有: 複数の仮想サーバーまたは論理区画 (LPAR) で同一の物理ストレージを共有することができます。仮想マシンまたは LPAR ごとに物理ハード・ディスクを割り当てる必要はありません。
サーバー仮想化が構成された環境内の Intelligent Management
Intelligent Management は、サポートされる仮想化ハードウェア環境で作動することができます。さまざまなハードウェア・ベンダーが、さまざまな仮想化機能を提供しているため、ハードウェア仮想化環境の Intelligent Management の動作は同じではない可能性があります。しかしながら、ハードウェア仮想化環境には、複数の仮想サーバーまたは論理区画にわたるハードウェア・リソースの共有機能など、共通のテーマがあります。サーバー仮想化環境は、共有プロセッサー・モード、または専用プロセッサー・モードで稼働できます。共有プロセッサー・モードを使用する場合、物理プロセッサーは、物理マシン上で稼働する複数のサーバーまたは論理区画間でプール、共有されます。専用プロセッサー・モードを使用する場合、物理プロセッサーは各仮想サーバーまたは論理区画に対して静的に割り当てられます。



サーバー仮想化が構成された環境内のオンデマンド・ルーター
オンデマンド・ルーター (ODR) は CPU またはメモリーの使用量による制約を受けることがあってはなりません。したがって、サーバー仮想化が構成された環境に ODR を インストールするときには、ODR が稼働する仮想マシンまたは LPAR を専用プロセッサー・モードで構成するか、 または、ODR が実行時に十分な CPU リソースと専用メモリーを受け取れることを保証するモードで構成 してください。
CPU を共有する Solaris 10 ゾーンへの製品のデプロイ
本製品は、非専用モード (CPU とメモリーをゾーン間で共有) の Solaris 10 ゾーンにインストールしてデプロイできます。
Solaris 10 ゾーンがゾーン間で CPU とメモリーを共有するように構成されている場合、製品を各 Solaris マシンのグローバル・ゾーンにインストールする必要があります。このインストールは、標準ノードのインストールであることが可能です。
各 Solaris マシンのグローバル・ゾーンで稼働するノード・エージェントには、マシンのすべてのゾーンに必要な情報があります。ノード・エージェント・プロセス は、実行している間は、製品がこの環境で適切に機能するために必要な適切な情報を自動的に収集します。