Load Balancer for IPv4 Administratorhandbuch

WebSphere Edge Components
Load Balancer for IPv4 Administratorhandbuch

Version 7.0

Anmerkung

Vor Verwendung dieser Informationen und des darin beschriebenen Produkts sollten die allgemeinen Informationen in Anhang E: Bemerkungen gelesen werden.

Erste Ausgabe (Juni 2008)

Diese Ausgabe gilt für:

WebSphere Edge Components Version 7.0

und, sofern nicht anders angegeben, für alle nachfolgenden Releases und Bearbeitungen.

Veröffentlichungen können über den zuständigen IBM Ansprechpartner oder die zuständige IBM Geschäftsstelle bezogen werden.

(C) Copyright International Business Machines Corporation 2008. Alle Rechte vorbehalten.


Load Balancer for IPv4 Administratorhandbuch

  • Tabellen

  • Abbildungen

  • Zu diesem Handbuch
  • Zielgruppe
  • Referenzliteratur
  • Zugriffsmöglichkeiten
  • Senden von Kommentaren
  • Referenzliteratur und zugehörige Websites

  • Einführung in Load Balancer

  • Übersicht über Load Balancer
  • Was ist Load Balancer?
  • Welche Komponenten von Load Balancer sollen verwendet werden?
  • Welche Vorteile bringt die Verwendung von Load Balancer?
  • Bereitstellung der hohen Verfügbarkeit durch Load Balancer
  • Dispatcher
  • CBR
  • Cisco CSS Controller oder Nortel Alteon Controller
  • Übersicht über die Komponenten von Load Balancer
  • Komponenten von Load Balancer
  • Übersicht über die Komponente Dispatcher
  • Lokale Server mit Dispatcher verwalten
  • Server mit Dispatcher und Metric Server verwalten
  • Lokale und ferne Server mit Dispatcher verwalten
  • Übersicht über die Komponente Content Based Routing (CBR)
  • Lokale Server mit CBR verwalten
  • Übersicht über die Komponente Site Selector
  • Lokale und ferne Server mit Site Selector und Metric Server verwalten
  • Übersicht über die Komponente Cisco CSS Controller
  • Übersicht über die Komponente Nortel Alteon Controller
  • Netz verwalten: Zu verwendende Load-Balancer-Features bestimmen
  • Manager, Advisor-Funktionen und Metric Server (für Dispatcher, CBR und Site Selector)
  • Features der Komponente Dispatcher
  • Fernverwaltung
  • Kollokation
  • Hohe Verfügbarkeit
  • Client-Server-Affinität
  • Regelbasierter Lastausgleich
  • Inhaltsabhängiges Routing mit der Dispatcher-Weiterleitungsmethode "cbr"
  • Lastausgleich im WAN
  • Portzuordnung
  • Dispatcher in einem privaten Netz konfigurieren
  • Platzhaltercluster und Platzhalterport
  • Erkennung von DoS-Attacken
  • Binärprotokollierung
  • Alerts
  • Features der Komponente Content Based Routing (CBR)
  • Komponente CBR und Dispatcher-Weiterleitungsmethode "cbr" im Vergleich
  • Fernverwaltung
  • Kollokation
  • CBR mit mehreren Instanzen von Caching Proxy
  • Inhaltsabhängiges Routing für SSL-Verbindungen
  • Serverpartitionierung
  • Regelbasierter Lastausgleich
  • Client-Server-Affinität
  • Hohe Verfügbarkeit bei Verwendung von Dispatcher und CBR
  • Binärprotokollierung
  • Alerts
  • Features der Komponente Site Selector
  • Fernverwaltung
  • Kollokation
  • Hohe Verfügbarkeit
  • Client-Server-Affinität
  • Regelbasierter Lastausgleich
  • Lastausgleich im WAN
  • Alerts
  • Features der Komponente Cisco CSS Controller
  • Fernverwaltung
  • Kollokation
  • Hohe Verfügbarkeit
  • Binärprotokollierung
  • Alerts
  • Features der Komponente Nortel Alteon Controller
  • Fernverwaltung
  • Kollokation
  • Hohe Verfügbarkeit
  • Binärprotokollierung
  • Alerts
  • Load Balancer installieren
  • Systemvoraussetzungen und Installation unter AIX
  • Voraussetzungen für AIX-Systeme
  • Installation auf AIX-Systemen
  • Installation vorbereiten
  • Installationsschritte
  • Systemvoraussetzungen und Installation unter HP-UX
  • Voraussetzungen für HP-UX-Systeme
  • Installation auf HP-UX-Systemen
  • Installation vorbereiten
  • Installationsschritte
  • Systemvoraussetzungen und Installation unter Linux
  • Voraussetzungen für Linux-Systeme
  • Installation auf Linux-Systemen
  • Installation vorbereiten
  • Installationsschritte
  • Systemvoraussetzungen und Installation unter Solaris
  • Voraussetzungen für Solaris
  • Installation auf Solaris-Systemen
  • Installation vorbereiten
  • Installationsschritte
  • Systemvoraussetzungen und Installation unter Windows
  • Voraussetzungen für Windows-Systeme
  • Installatoin auf Windows-Systemen
  • Installation vorbereiten
  • Installationsschritte
  • Load Balancer aktualisieren
  • Load Balancer unter den Betriebssystemen AIX, HP-UX, Linux und Solaris aktualisieren
  • Vorherige Versionen von Load Balancer deinstallieren
  • Refresh-Pack oder Fixpack für Load Balancer installieren
  • Load Balancer unter dem Betriebssystem Windows aktualisieren
  • Aktualisierung zurückweisen

  • Komponente Dispatcher

  • Schnellkonfiguration
  • Voraussetzungen
  • Vorbereitungen
  • Komponente Dispatcher konfigurieren
  • Konfiguration über die Befehlszeile
  • Konfiguration testen
  • Konfiguration über die grafische Benutzerschnittstelle
  • Konfigurationsassistent
  • Typen von Cluster-, Port- und Serverkonfigurationen
  • Planung für Dispatcher
  • Überlegungen bei der Planung
  • Weiterleitungsmethoden
  • Dispatcher-Weiterleitungsmethode "mac"
  • Dispatcher-Weiterleitungsmethode "nat"
  • Dispatcher-Weiterleitungsmethode "cbr"
  • Beispielschritte für das Konfigurieren der Dispatcher-Weiterleitungsmethoden "nat" und "cbr"
  • Serverpartitionierung - Konfigurieren logischer Server für einen physischen Server (IP-Adresse)
  • Serverpartitionierung mit der HTTP- oder HTTPS-Advisor-Funktion
  • Beispiel für das Konfigurieren von logischen Servern auf einem physischen Server
  • Hohe Verfügbarkeit
  • Einfache hohe Verfügbarkeit
  • Wechselseitige hohe Verfügbarkeit
  • Dispatcher konfigurieren
  • Übersicht über Konfigurations-Tasks
  • Konfigurationsmethoden
  • Befehlszeile
  • Scripts
  • Grafische Benutzerschnittstelle
  • Konfiguration mit dem Konfigurationsassistenten
  • Dispatcher-Maschine konfigurieren
  • Schritt 1. Serverfunktion starten
  • Schritt 2. Executor-Funktion starten
  • Schritt 3. NFA definieren (falls vom Hostnamen abweichend)
  • Schritt 4. Cluster definieren und Clusteroptionen festlegen
  • Schritt 5. Aliasnamen auf der Netzschnittstellenkarte erstellen
  • Schritt 6. Ports definieren und Portoptionen festlegen
  • Schritt 7. Am Lastausgleich beteiligte Servermaschinen definieren
  • Schritt 8. Managerfunktion starten (optional)
  • Schritt 9. Advisor-Funktion starten (optional)
  • Schritt 10. Clusterproportionen festlegen
  • Servermaschinen für Lastausgleich konfigurieren
  • Schritt 1. Aliasnamen auf der Loopback-Einheit festlegen
  • Schritt 2. Überprüfung auf zusätzliche Route
  • Schritt 3. Zusätzliche Routen löschen
  • Schritt 4. Serverkonfiguration prüfen
  • Alternativen für die Festlegung eines Loopback-Aliasnamens unter Linux bei Verwendung der Load-Balancer-Weiterleitungsmethode "mac"

  • Komponente Content Based Routing (CBR)

  • Schnellkonfiguration
  • Voraussetzungen
  • Vorbereitungen
  • Komponente CBR konfigurieren
  • Konfiguration über die Befehlszeile
  • Konfiguration testen
  • Konfiguration über die grafische Benutzerschnittstelle
  • Konfiguration mit dem Konfigurationsassistenten
  • Typen von Cluster-, Port- und Serverkonfigurationen
  • Planung für Content Based Routing
  • Überlegungen bei der Planung
  • Anforderungen nach verschiedenen Inhalten verteilen
  • Siteinhalt für kürzere Antwortzeiten aufteilen
  • Webserverinhalt sichern
  • CPU-Nutzung mit mehreren Caching-Proxy-Prozessen verbessern
  • Regelbasierter Lastausgleich mit CBR
  • Lastausgleich für sichere Verbindungen (SSL)
  • Lastausgleich für SSL-Datenverkehr vom Client zum Proxy und HTTP-Datenverkehr vom Proxy zum Server
  • Content Based Routing konfigurieren
  • Übersicht über Konfigurations-Tasks
  • Konfigurationsmethoden
  • Befehlszeile
  • Scripts
  • Grafische Benutzerschnittstelle
  • Konfigurationsassistent
  • CBR-Maschine konfigurieren
  • Schritt 1. Caching Proxy für die Verwendung von CBR konfigurieren
  • Schritt 2. Serverfunktion starten
  • Schritt 3. Executor-Funktion starten
  • Schritt 4. Cluster definieren und Clusteroptionen festlegen
  • Schritt 5. Aliasnamen auf der Netzschnittstellenkarte erstellen (optional)
  • Schritt 6. Ports definieren und Portoptionen festlegen
  • Schritt 7. Am Lastausgleich beteiligte Servermaschinen definieren
  • Schritt 8. Regeln zur Konfiguration hinzufügen
  • Schritt 9. Server zu den Regeln hinzufügen
  • Schritt 10. Managerfunktion starten (optional)
  • Schritt 11. Advisor-Funktion starten (optional)
  • Schritt 12. Clusterproportionen festlegen
  • Schritt 13. Caching Proxy starten
  • CBR-Konfigurationsbeispiel

  • Komponente Site Selector

  • Schnellkonfiguration
  • Voraussetzungen
  • Vorbereitungen
  • Komponente Site Selector konfigurieren
  • Konfiguration über die Befehlszeile
  • Konfiguration testen
  • Konfiguration über die grafische Benutzerschnittstelle
  • Konfiguration mit dem Konfigurationsassistenten
  • Planung für Site Selector
  • Überlegeungen bei der Planung
  • Hinweise zu TTL
  • Netzproximität verwenden
  • Site Selector konfigurieren
  • Übersicht über Konfigurations-Tasks
  • Konfigurationsmethoden
  • Befehlszeile
  • Scripts
  • Grafische Benutzerschnittstelle
  • Konfigurationsassistent
  • Site-Selector-Maschine konfigurieren
  • Schritt 1. Serverfunktion starten
  • Schritt 2. Namensserver starten
  • Schritt 3. Sitenamen definieren und Optionen für den Sitenamen festlegen
  • Schritt 4. Am Lastausgleich beteiligte Servermaschinen definieren
  • Schritt 5. Managerfunktion starten (optional)
  • Schritt 6. Advisor-Funktion starten (optional)
  • Schritt 7. Systemmetrik definieren (optional)
  • Schritt 8. Proportionen für den Sitenamen festlegen
  • Servermaschinen für Lastausgleich konfigurieren

  • Kompöonente Cisco CSS Controller

  • Schnellkonfiguration
  • Voraussetzungen
  • Vorbereitungen
  • Komponente Cisco CSS Controller konfigurieren
  • Konfiguration über die Befehlszeile
  • Konfiguration testen
  • Konfiguration über die grafische Benutzerschnittstelle
  • Planung für Cisco CSS Controller
  • Systemvoraussetzungen
  • Überlegungen bei der Planung
  • Position des Consultant im Netz
  • Hohe Verfügbarkeit
  • Wertigkeiten berechnen
  • Fehlerbestimmung
  • Cisco CSS Controller konfigurieren
  • Übersicht über Konfigurations-Tasks
  • Konfigurationsmethoden
  • Befehlszeile
  • XML
  • Grafische Benutzerschnittstelle
  • Controller für Cisco-CSS-Switch-Maschine konfigurieren
  • Schritt 1. Serverfunktion starten
  • Schritt 2. Befehlszeilenschnittstelle starten
  • Schritt 3. Consultant konfigurieren
  • Schritt 3. Eignerangaben konfigurieren
  • Schritt 4. Konfiguration der Services prüfen
  • Schritt 5. Metriken konfigurieren
  • Schritt 6. Consultant starten
  • Schritt 7. Metric Server starten (optional)
  • Schritt 8. Hohe Verfügbarkeit konfigurieren (optional)
  • Konfiguration testen

  • Komponente Nortel Alteon Controller

  • Schnellkonfiguration
  • Voraussetzungen
  • Vorbereitungen
  • Komponente Nortel Alteon Controller konfigurieren
  • Konfiguration über die Befehlszeile
  • Konfiguration testen
  • Konfiguration über die grafische Benutzerschnittstelle
  • Planung für Nortel Alteon Controller
  • Systemvoraussetzungen
  • Überlegungen bei der Planung
  • Position des Consultant im Netz
  • Vom Controller festgelegte Serverattribute auf dem Switch
  • Ausweichserver konfigurieren
  • Gruppen konfigurieren
  • Hohe Verfügbarkeit
  • Optimierung
  • Fehlerbestimmung
  • Nortel Alteon Controller konfigurieren
  • Übersicht über Konfigurations-Tasks
  • Konfigurationsmethoden
  • Befehlszeile
  • XML
  • Grafische Benutzerschnittstelle
  • Nortel Alteon Controller konfigurieren
  • Schritt 1. Serverfunktion starten
  • Schritt 2. Befehlszeilenschnittstelle starten
  • Schritt 3. Consultant für Nortel Alteon Web Switch definieren
  • Schritt 4. Service zum Switch-Consultant hinzufügen
  • Schritt 5. Metriken konfigurieren
  • Schritt 6. Consultant starten
  • Schritt 7. Hohe Verfügbarkeit konfigurieren (optional)
  • Schritt 8. Metric Server starten (optional)
  • Schritt 9. Konfiguration von Nortel Alteon Controller aktualisieren
  • Konfiguration testen

  • Funktionen und erweiterte Features von Load Balancer

  • Manager, Advisor-Funktionen und Metric Server für Dispatcher, CBR und Site Selector
  • Lastausgleich mit Load Balancer optimieren
  • Proportionale Bedeutung von Statusinformationen
  • Wertigkeiten
  • Managerinvervalle
  • Sensitivitätsschwelle
  • Glättungsfaktor
  • Scripts zum Generieren eines Alerts oder Protokollieren eines Serverausfalls verwenden
  • Advisor-Funktionen
  • Arbeitsweise der Advisor-Funktionen
  • Advisor-Funktion starten und stoppen
  • Advisor-Intervalle
  • Berichtszeitlimit für Advisor-Funktion
  • Serververbindungs- und -empfangszeitlimit der Advisor-Funktion
  • Wiederholungsversuche der Advisor-Funktion
  • Liste der Advisor-Funktionen
  • Option "Anforderung/Antwort (URL)" der HTTP- oder HTTPS-Advisor-Funktion konfigurieren
  • Advisor-Funktion "self" in einer Client/Server-WAN-Konfiguration
  • Angepasste (anpassbare) Advisor-Funktion erstellen
  • WAS-Advisor-Funktion
  • Namenskonvention
  • Kompilierung
  • Ausführung
  • Erforderliche Routinen
  • Suchreihenfolge
  • Benennung und Pfad
  • Beispiel-Advisor-Funktion
  • Metric Server
  • WLM-Einschränkung
  • Voraussetzungen
  • Verwendung von Metric Server
  • WLM-Advisor-Funktion
  • Einschränkung für Metric Server
  • Erweiterte Funktionen für Dispatcher, CBR und Site Selector
  • Verknüpfte Server verwenden
  • Für die Komponente Dispatcher
  • Für die Komponente CBR
  • Für die Komponente Site Selector
  • Hohe Verfügbarkeit
  • Hohe Verfügbarkeit konfigurieren
  • Fehlererkennung mit Hilfe von Überwachungssignal und Erreichbarkeitsziel
  • Wiederherstellungsstrategie
  • Scripts verwenden
  • Verknüpfung und hohe Verfügbarkeit konfigurieren (Windows-Systeme)
  • Regelbasierten Lastausgleich konfigurieren
  • Wie werden Regeln ausgewertet?
  • Auf der Client-IP-Adresse basierende Regeln verwenden
  • Auf dem Clientport basierende Regeln verwenden
  • Auf der Uhrzeit basierende Regeln verwenden
  • Auf der Serviceart basierende Regeln verwenden
  • Regeln auf der Basis der Verbindungen pro Sekunde verwenden
  • Regeln auf der Basis der Summe aktiver Verbindungen verwenden
  • Regeln auf der Basis der reservierten und gemeinsam benutzten Bandbreite verwenden
  • Regel "Metrik gesamt"
  • Regel "Metrik Durchschnitt"
  • Immer gültige Regeln verwenden
  • Auf dem Inhalt der Anforderung basierende Regeln verwenden
  • Portaffinität außer Kraft setzen
  • Regeln zur Konfiguration hinzufügen
  • Regeloption für Serverauswertung
  • Funktionsweise der Affinität für Load Balancer
  • Verhalten bei inaktivierter Affinität
  • Verhalten bei aktivierter Affinität
  • Crossport-Affinität
  • Affinitätsadressmaske (stickymask)
  • Bearbeitung von Serververbindungen stilllegen
  • Affinitätsoption der Regel ausgehend vom Inhalt der Clientanforderung
  • Aktive Cookie-Affinität
  • Passive Cookie-Affinität
  • URI-Affinität
  • Dispatcher-WAN-Unterstützung konfigurieren
  • Befehlssyntax
  • Ferne Advisor-Funktionen mit der Dispatcher-WAN-Unterstützung verwenden
  • Konfigurationsbeispiel
  • Unterstützung für GRE (Generic Routing Encapsulation)
  • Explizite Verbindungen benutzen
  • Konfiguration für ein privates Netz verwenden
  • Platzhaltercluster zum Zusammenfassen von Serverkonfigurationen verwenden
  • Platzhaltercluster für den Lastausgleich von Firewalls verwenden
  • Platzhaltercluster mit Caching Proxy für transparente Weiterleitung verwenden
  • Platzhalterport für die Übertragung von Datenverkehr mit nicht konfiguriertem Port verwenden
  • Platzhalterport für FTP-Datenverkehr verwenden
  • Erkennung von DoS-Attacken
  • Binäre Protokolle für die Analyse von Serverstatistiken verwenden
  • Verknüpften Client verwenden
  • Erweiterte Features für Cisco CSS Controller und Nortel Alteon Controller
  • Kollokation
  • Hohe Verfügbarkeit
  • Konfiguration
  • Ausfallerkennung
  • Wiederherstellungsstrategie
  • Beispiele
  • Lastausgleich mit Load Balancer optimieren
  • Bedeutung von Metriken
  • Wertigkeiten
  • Ruhezeiten für Wertigkeitsberechnung
  • Sensitivitätsschwelle
  • Advisor-Funktionen
  • Arbeitsweise der Advisor-Funktionen
  • Advisor-Ruhezeiten
  • Serververbindungs- und -empfangszeitlimit der Advisor-Funktion
  • Wiederholungsversuche der Advisor-Funktion
  • Angepasste (anpassbare) Advisor-Funktion erstellen
  • Namenskonvention
  • Kompilierung
  • Ausführung
  • Erforderliche Routinen
  • Suchreihenfolge
  • Benennung und Pfad
  • Beispiel-Advisor-Funktion
  • Metric Server
  • Voraussetzungen
  • Verwendung von Metric Server
  • WLM-Advisor-Funktion
  • Binäre Protokolle für die Analyse von Serverstatistiken verwenden
  • Scripts zum Generieren eines Alerts oder Protokollieren eines Serverausfalls verwenden

  • Verwaltung und Fehlerbehebung in Load Balancer

  • Load Balancer einsetzen und verwalten
  • Fernverwaltung von Load Balancer
  • Remote Method Invocation (RMI)
  • Webbasierte Verwaltung
  • Load-Balancer-Protokolle verwenden
  • Für Dispatcher, CBR und Site Selector
  • Für Cisco CSS Controller und Nortel Alteon Controller
  • Komponente Dispatcher verwenden
  • Dispatcher starten und stoppen
  • Inaktivitätszeitlimit verwenden
  • Bereinigung von Verbindungssätzen mit fintimeout und staletimeout steuern
  • GUI für Berichterstellung -- Menüoption "Überwachen"
  • Simple Network Management Protocol mit Dispatcher verwenden
  • Gesamten Datenverkehr zur Sicherheit der Load-Balancer-Maschine mit ipchains oder iptables zurückweisen (Linux-Systeme)
  • Komponente Content Based Routing verwenden
  • CBR starten und stoppen
  • CBR steuern
  • CBR-Protokolle verwenden
  • Komponente Site Selector verwenden
  • Site Selector starten und stoppen
  • Site Selector steuern
  • Site-Selector-Protokolle verwenden
  • Komponente Cisco CSS Controller verwenden
  • Cisco CSS Controller starten und stoppen
  • Cisco CSS Controller steuern
  • Cisco-CSS-Controller-Protokolle verwenden
  • Komponente Nortel Alteon Controller verwenden
  • Nortel Alteon Controller starten und stoppen
  • Nortel Alteon Controller steuern
  • Nortel-Alteon-Controller-Protokolle verwenden
  • Komponente Metric Server verwenden
  • Metric Server starten und stoppen
  • Metric-Server-Protokolle verwenden
  • Fehlerbehebung
  • Fehlerbehebungsinformationen erfassen
  • Allgemeine Informationen (immer erforderlich)
  • Probleme mit der hohen Verfügbarkeit
  • Advisor-Fehler
  • Fehler beim Content Based Routing
  • Cluster nicht erreichbar
  • Alle Versuche sind gescheitert
  • Upgrades
  • Java-Code
  • Nützliche Links
  • Fehlerbehebungstabellen
  • Portnummern für Dispatcher überprüfen
  • Portnummern für CBR überprüfen
  • Portnummern für Site Selector überprüfen
  • Portnummern für Cisco CSS Controller überprüfen
  • Portnummern für Nortel Alteon Controller überprüfen
  • Allgemeine Probleme lösen -- Dispatcher
  • Problem: Dispatcher wird nicht ausgeführt
  • Problem: Dispatcher und Server antworten nicht
  • Problem: Dispatcher-Anforderungen werden nicht verteilt
  • Problem: Die Dispatcher-Funktion für hohe Verfügbarkeit kann nicht ausgeführt werden
  • Problem: Es kann kein Überwachungssignal hinzugefügt werden (Windows-Plattform)
  • Problem: Zusätzliche Routen (Windows 2000)
  • Problem: Advisor-Funktionen arbeiten nicht korrekt
  • Problem: Dispatcher, Microsoft IIS und SSL funktionieren nicht (Windows-Plattform)
  • Problem: Dispatcher-Verbindung zu einer fernen Maschine
  • Problem: Der Befehl "dscontrol" oder "lbadmin" scheitert
  • Problem: Fehlernachricht "Datei nicht gefunden..." beim Anzeigen der Onlinehilfe (Windows-Plattform)
  • Problem: Die grafische Benutzerschnittstelle (GUI) wird nicht richtig gestartet
  • Problem: Fehler bei der Ausführung von Dispatcher mit installiertem Caching Proxy
  • Problem: Die grafische Benutzerschnittstelle (GUI) wird nicht richtig angezeigt
  • Problem: Auf der Windows-Plattform sind die Hilfefenster manchmal von anderen offenen Fenstern verdeckt
  • Problem: Load Balancer kann Rahmen nicht verarbeiten und weiterleiten
  • Problem: Beim Starten des Executors von Load Balancer erscheint eine blaue Anzeige
  • Problem: Automatische Pfaderkennung verhindert Datenrückfluss mit Load Balancer
  • Problem: Keine hohe Verfügbarkeit im Weitverkehrsmodus von Load Balancer
  • Problem: Beim Laden einer großen Konfigurationsdatei blockiert die GUI oder verhält sich nicht erwartungsgemäß
  • Problem: lbadmin trennt nach dem Aktualisieren der Konfiguration die Verbindung zum Server
  • Problem: IP-Adressen werden über die Fernverbindung nicht richtig aufgelöst
  • Problem: Auf der koreanischen Schnittstelle von Load Balancer werden bei AIX- und Linux-Systemen überlappende oder unpassende Schriftarten angezeigt
  • Problem: Auf Windows-Systemen wird beim Absetzen von Befehlen wie hostname an Stelle der lokalen Adresse die Aliasadresse zurückgegeben
  • Problem: Unerwartetes GUI-Verhalten auf der Windows-Plattform bei Verwendung von Matrox-AGP-Videokarten
  • Problem: Unerwartetes Verhalten bei Ausführung von "rmmod ibmlb" (Linux-Systeme)
  • Problem: Lange Antwortzeiten beim Ausführen von Befehlen auf der Dispatcher-Maschine
  • Problem: Bei Verwendung der Weiterleitungsmethode "mac" registriert die Advisor-Funktion SSL oder HTTPS keine Serverlast
  • Problem: Trennen der Hostverbindung bei Änderung des Netscape-Browserfensters in der Webverwaltung
  • Problem: Bei aktiviertem Socket-Pooling wird der Webserver an 0.0.0.0 gebunden
  • Problem: Auf Windows-Systemen erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1)
  • Problem: Java-Fehler unter HP-UX wegen unzureichender Speicherkapazität/Threads
  • Problem: Auf Windows-Systemen markieren Advisor-Funktionen und Erreichbarkeitsziele alle Server als inaktiv
  • Problem: Auflösung von IP-Adressen in Hostnamen auf Windows-Systemen, wenn für einen Adapter mehrere Adressen konfiguriert sind
  • Problem: Advisor-Funktionen können auf Windows-Systemen in einer Konfiguration für hohe Verfügbarkeit nach einem Netzwerkausfall nicht ausgeführt werden
  • Problem: Beim Festlegen von Aliasnamen für mehrere Cluster auf der Loopback-Einheit von Linux-Systemen nicht den Befehl "IP address add" verwenden
  • Problem: Fehlernachricht "Router-Adresse nicht angegeben oder nicht gültig für Portmethode" erscheint
  • Problem: Auf Solaris-Systemen werden Load-Balancer-Prozesse beim Verlassen des Terminalfensters, in dem die Prozesse gestartet wurden, beendet
  • Problem: Verzögerung beim Laden einer Load-Balancer-Konfiguration
  • Problem: Fehlernachricht zu einem IP-Adressenkonflikt auf Windows-Systemen
  • Problem: In einer Konfiguration mit hoher Verfügbarkeit sind sowohl primäre Maschinen als auch Ausweichmaschinen aktiv
  • Problem: Clientanforderungen scheitern, wenn die Rückgabe von Antworten in Form großer Seiten versucht wird
  • Auf Windows-Systemen wird beim Absetzen eines Befehls dscontrol oder lbadmin der Fehler "Der Server antwortet nicht" angezeigt
  • Problem: Dispatcher-Maschinen mit hoher Verfügbarkeit können unter Linux auf S/390 mit qeth-Treibern möglicherweise nicht synchronisiert werden
  • Problem: Konfigurationstipps für hohe Verfügbarkeit
  • Problem: Einschränkungen für die Dispatcher-Konfiguration unter Linux auf zSeries- oder S/390-Servern mit OSA-Karten
  • Problem: Speicherverlust unter einigen Linux-Versionen bei Ausführung von Dispatcher mit Manager und Advisor-Funktionen
  • Problem: Unter SUSE Linux Enterprise Server 9 leitet Dispatcher Pakete weiter, die den Back-End-Server jedoch nicht erreichen
  • Problem: Fehlernachricht zu einem IP-Adressenkonflikt auf Windows-Systemen während der Funktionsübernahme bei hoher Verfügbarkeit
  • Problem: Mögliche Störung der Paketweiterleitung durch iptables unter Linux
  • Java-Warnung bei Installation von Servicekorrekturen
  • Upgrade der Java-Dateigruppe einer Load-Balancer-Installation
  • Problem: Persistente Verbindungen können bei der Übernahme für hohe Verfügbarkeit unterbrochen werden
  • Problem: Bei der Installation von WebSphere Edge Server mit ./install unter dem 32-Bit-Betriebssystem Linux für zSeries wird die Nachricht "JVM nicht gefunden" ausgegeben
  • Problem: Der Deinstallationsprozess für WebSphere Edge Server blockiert unter dem Betriebssystem Linux
  • Allgemeine Probleme lösen -- CBR
  • Problem: CBR wird nicht ausgeführt
  • Problem: Der Befehl "cbrcontrol" oder "lbadmin" scheitert
  • Problem: Anforderungen werden nicht verteilt
  • Problem: Auf Solaris-Systemen scheitert der Befehl "cbrcontrol executor start"
  • Problem: Syntax- oder Konfigurationsfehler
  • Problem: Unerwartetes GUI-Verhalten auf der Windows-Plattform bei Verwendung von Matrox-AGP-Videokarten
  • Problem: Trennen der Hostverbindung bei Änderung des Netscape-Browserfensters in der Webverwaltung
  • Problem: Auf der Windows-Plattform erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1)
  • Problem: Java-Fehler unter HP-UX wegen unzureichender Speicherkapazität/Threads
  • Problem: Auf Windows-Systemen markieren Advisor-Funktionen und Erreichbarkeitsziele alle Server als inaktiv
  • Problem: Auflösung von IP-Adressen in Hostnamen auf Windows-Systemen, wenn für einen Adapter mehrere Adressen konfiguriert sind
  • Allgemeine Probleme lösen -- Site Selector
  • Problem: Site Selector wird nicht ausgeführt
  • Problem: Site Selector verteilt den Datenverkehr von Solaris-Clients nicht nach der Round-Robin-Methode
  • Problem: Der Befehl "sscontrol" oder "lbadmin" scheitert
  • Problem: ssserver wird auf der Windows-Plattform nicht gestartet
  • Problem: Site Selector führt bei duplizierten Routen den Lastausgleich nicht korrekt durch
  • Problem: Unerwartetes GUI-Verhalten auf der Windows-Plattform bei Verwendung von Matrox-AGP-Videokarten
  • Problem: Trennen der Hostverbindung bei Änderung des Netscape-Browserfensters in der Webverwaltung
  • Problem: Auf der Windows-Plattform erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1)
  • Problem: Java-Fehler unter HP-UX wegen unzureichender Speicherkapazität/Threads
  • Problem: Auf Windows-Systemen markieren Advisor-Funktionen und Erreichbarkeitsziele alle Server als inaktiv
  • Allgemeine Probleme lösen -- Cisco CSS Controller
  • Problem: ccoserver wird nicht gestartet
  • Problem: Der Befehl "ccocontrol" oder "lbadmin" scheitert
  • Problem: Für Port 13099 kann kein Eintrag in der Registrierungsdatenbank erstellt werden
  • Problem: Unerwartetes GUI-Verhalten auf der Windows-Plattform bei Verwendung von Matrox-AGP-Videokarten
  • Problem: Beim Hinzufügen eines Consultant wird ein Verbindungsfehler empfangen
  • Problem: Auf dem Switch werden die Wertigkeiten nicht aktualisiert
  • Problem: Befehl "refresh" aktualisiert die Consultant-Konfiguration nicht
  • Problem: Trennen der Hostverbindung bei Änderung des Netscape-Browserfensters in der Webverwaltung
  • Problem: Auf der Windows-Plattform erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1)
  • Problem: Java-Fehler unter HP-UX wegen unzureichender Speicherkapazität/Threads
  • Allgemeine Probleme lösen -- Nortel Alteon Controller
  • Problem: nalserver wird nicht gestartet
  • Problem: Der Befehl "nalcontrol" oder "lbadmin" scheitert
  • Problem: Für Port 14099 kann kein Eintrag in der Registrierungsdatenbank erstellt werden
  • Problem: Unerwartetes GUI-Verhalten auf der Windows-Plattform bei Verwendung von Matrox-AGP-Videokarten
  • Problem: Trennen der Hostverbindung bei Änderung des Netscape-Browserfensters in der Webverwaltung
  • Problem: Beim Hinzufügen eines Consultant wird ein Verbindungsfehler empfangen
  • Problem: Auf dem Switch werden die Wertigkeiten nicht aktualisiert
  • Problem: Befehl "refresh" aktualisiert die Consultant-Konfiguration nicht
  • Problem: Auf Windows-Systemen erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1)
  • Problem: Java-Fehler unter HP-UX wegen unzureichender Speicherkapazität/Threads
  • Allgemeine Probleme lösen -- Metric Server
  • Problem: IOException für Metric Server auf der Windows-Plattform bei Ausführung von benutzerdefinierten Metrikdateien mit der Erweiterung .bat oder .cmd
  • Problem: Metric Server meldet die Last nicht an die Load-Balancer-Maschine
  • Problem: Metric-Server-Protokoll meldet, dass für den Zugriff auf den Agenten eine Kennung erforderlich ist
  • Problem: Bei Ausführung von Metric Server auf AIX-Systemen kann die Ausgabe des Befehls "ps -vg" beschädigt werden
  • Problem: Konfigurieren von Metric Server in einer zweistufigen Konfiguration mit Site Selector für die Lastverteilung auf Dispatcher mit hoher Verfügbarkeit
  • Problem: Unerwünschte Konsolnachrichten bei Ausführung von Scripts auf Solaris-Maschinen mit mehreren CPUs
  • Problem: Nach dem Start von Metric Server wird der Wert -1 zurückgegeben

  • Befehlsreferenz

  • Syntaxdiagramm lesen
  • Symbole und Interpunktion
  • Parameter
  • Syntaxbeispiele
  • Befehlsreferenz für Dispatcher und CBR
  • Konfigurationsunterschiede bei CBR und Dispatcher
  • dscontrol advisor -- Advisor-Funktion steuern
  • dscontrol binlog -- Binäre Protokolldatei steuern
  • dscontrol cluster -- Cluster konfigurieren
  • dscontrol executor -- Executor steuern
  • dscontrol file -- Konfigurationsdateien verwalten
  • dscontrol help -- Hilfetext für diesen Befehl anzeigen oder drucken
  • dscontrol highavailability -- Hohe Verfügbarkeit steuern
  • dscontrol host -- Ferne Maschine konfigurieren
  • dscontrol logstatus -- Protokolleinstellungen des Servers anzeigen
  • dscontrol manager -- Manager steuern
  • dscontrol metric -- Systemmetriken konfigurieren
  • dscontrol port -- Ports konfigurieren
  • dscontrol rule -- Regeln konfigurieren
  • dscontrol server -- Server konfigurieren
  • dscontrol set -- Serverprotokoll konfigurieren
  • dscontrol status -- Aktivitätsanzeige für Manager und Advisor-Funktionen
  • dscontrol subagent -- SNMP-Subagenten konfigurieren
  • Befehlsreferenz für Site Selector
  • sscontrol advisor -- Advisor-Funktion steuern
  • sscontrol file -- Konfigurationsdateien verwalten
  • sscontrol help -- Hilfetext für diesen Befehl anzeigen oder drucken
  • sscontrol logstatus -- Protokolleinstellungen des Servers anzeigen
  • sscontrol manager -- Manager steuern
  • sscontrol metric -- Systemmetriken konfigurieren
  • sscontrol nameserver -- Namensserver steuern
  • sscontrol rule -- Regeln konfigurieren
  • sscontrol server -- Server konfigurieren
  • sscontrol set -- Serverprotokoll konfigurieren
  • sscontrol sitename -- Sitenamen konfigurieren
  • sscontrol status -- Aktivitätsanzeige für Manager und Advisor-Funktionen
  • Befehlsreferenz für Cisco CSS Controller
  • ccocontrol consultant -- Consultang konfigurieren und steuern
  • ccocontrol controller -- Controller verwalten
  • ccocontrol file -- Konfigurationsdateien verwalten
  • ccocontrol help -- Hilfetext für diesen Befehl anzeigen oder drucken
  • ccocontrol highavailability -- Hohe Verfügbarkeit steuern
  • ccocontrol metriccollector -- Metrik-Collector konfigurieren
  • ccocontrol ownercontent -- Eignername und Inhaltsregel steuern
  • ccocontrol service -- Service konfigurieren
  • Befehlsreferenz für Nortel Alteon Controller
  • nalcontrol consultant -- Consultang konfigurieren und steuern
  • nalcontrol controller -- Controller verwalten
  • nalcontrol file -- Konfigurationsdateien verwalten
  • nalcontrol help -- Hilfetext für diesen Befehl anzeigen oder drucken
  • nalcontrol highavailability -- Hohe Verfügbarkeit steuern
  • nalcontrol metriccollector -- Metrik-Collector konfigurieren
  • nalcontrol server -- Server konfigurieren
  • nalcontrol service -- Service konfigurieren

  • Anhänge

  • Anhang A. Allgemeine Anweisungen zur grafischen Benutzerschnittstelle

  • Anhang B. Syntax für Inhaltsregeln (Muster)
  • Syntax für Inhaltsregeln (Muster):
  • Reservierte Schlüsselwörter
  • Anhang C. Beispielkonfigurationsdateien
  • Beispielkonfigurationsdateien für Load Balancer
  • Dispatcher-Konfigurationsdatei -- AIX-, Linux- und Solaris-Systeme
  • Dispatcher-Konfigurationsdatei -- Windows-Systeme
  • Beispiel-Advisor-Funktion
  • Anhang D. Beispiel für eine Client/Server-Konfiguration mit hoher Verfügbarkeit unter Verwendung von Dispatcher, CBR und Caching Proxy
  • Servermaschine einrichten
  • Anhang E. Bemerkungen
  • Marken
  • Glossar

  • Index

  • Tabellen

    1. installp-Images für AIX
    2. AIX-Installationsbefehle
    3. Details zur Paketinstallation von Load Balancer unter HP-UX
    4. Systemspezifische Befehle für die Deinstallation von Load Balancer
    5. Systemspezifische Befehle für die Installation eines Refresh- oder Fixpacks
    6. Liste der Pakete
    7. Konfigurations-Tasks für die Funktion Dispatcher
    8. Befehle zum Festlegen eines Aliasnamens auf der Loopback-Einheit (lo0) für Dispatcher
    9. Befehle zum Löschen zusätzlicher Routen für Dispatcher
    10. Konfigurations-Tasks für die Komponente CBR
    11. Befehle zum Erstellen eines Aliasnamens auf der NIC
    12. Konfigurations-Tasks für die Komponente Site Selector
    13. Konfigurations-Tasks für die Komponente Cisco CSS Controller
    14. Konfigurations-Tasks für die Komponente Nortel Alteon Controller
    15. Erweiterte Konfigurations-Tasks für Load Balancer
    16. Erweiterte Konfigurations-Tasks für Load Balancer
    17. Fehlerbehebungstabelle für Dispatcher
    18. Fehlerbehebungstabelle für CBR
    19. Fehlerbehebungstabelle für Site Selector
    20. Fehlerbehebungstabelle für den Controller für Cisco CSS Switches
    21. Fehlerbehebungstabelle für Nortel Alteon Controller
    22. Fehlerbehebungstabelle für Metric Server

    Abbildungen

    1. Beispiel für die physische Darstellung einer Site mit Dispatcher für die Verwaltung lokaler Server
    2. Beispielsite mit Dispatcher und Metric Server für die Serververwaltung
    3. Beispielsite mit Dispatcher für die Verwaltung lokaler und ferner Server
    4. Beispielsite mit CBR für die Verwaltung lokaler Server
    5. Beispielsite mit Site Selector und Metric Server für die Verwaltung lokaler und ferner Server
    6. Beispielsite mit Cisco CSS Controller und Metric Server für die Verwaltung lokaler Server
    7. Beispielsite mit Nortel Alteon Controller für die Verwaltung lokaler Server
    8. Einfache lokale Dispatcher-Konfiguration
    9. Dispatcher-Beispielkonfiguration mit einem Cluster und zwei Ports
    10. Dispatcher-Beispielkonfiguration mit zwei Clustern mit jeweils einem Port
    11. Dispatcher-Beispielkonfiguration mit zwei Clustern mit jeweils zwei Ports
    12. Beispiel für die Dispatcher-Weiterleitungsmethoden nat und cbr
    13. Beispiel für einen Dispatcher mit einfacher hoher Verfügbarkeit
    14. Beispiel für einen Dispatcher mit wechselseitiger hoher Verfügbarkeit
    15. Beispiel der für die Load-Balancer-Maschine erforderlichen IP-Adressen
    16. Einfache lokale CBR-Konfiguration
    17. CBR-Beispielkonfiguration mit einem Cluster und zwei Ports
    18. CBR-Beispielkonfiguration mit zwei Clustern mit jeweils einem Port
    19. CBR-Beispielkonfiguration mit zwei Clustern mit jeweils zwei Ports
    20. CBR-Konfigurationsdatei für AIX-, Linux- und Solaris-Systeme
    21. CBR-Konfigurationsdatei für HP-UX-Systeme
    22. CBR-Konfigurationsdatei für Windows-Systeme
    23. Einfache Site-Selector-Konfiguration
    24. Beispiel für eine DNS-Umgebung
    25. Einfache Cisco-CSS-Controller-Konfiguration
    26. Beispiel für einen Consultant, der hinter den Switches mit dem Netz verbunden ist
    27. Beispiel für einen Consultant (optional mit einem Partner für hohe Verfügbarkeit) hinter dem Switch mit einer Benutzerschnittstelle vor dem Switch
    28. Einfache Nortel-Alteon-Controller-Konfiguration
    29. Beispiel für einen Consultant, der hinter dem Switch mit dem Netz verbunden ist
    30. Beispiel für einen Consultant, der über ein Intranet vor dem Switch mit dem Netz verbunden ist.
    31. Beispiel für einen Consultant hinter dem Switch mit einer Benutzerschnittstelle vor dem Switch
    32. Beispiel für einen Consultant mit Ausweichservern
    33. Beispiel für die hohe Verfügbarkeit von Nortel Alteon Controller und Nortel Alteon Web Switch
    34. Beispiel für eine Client/Server-WAN-Konfiguration mit der Advisor-Funktion "self"
    35. Beispiel einer Konfiguration mit einem LAN-Segment
    36. Beispiel einer Konfiguration mit lokalen und fernen Servern
    37. WAN-Beispielkonfiguration mit fernen Load-Balancer-Maschinen
    38. WAN-Beispielkonfiguration mit einer Serverplattform, die GRE unterstützt
    39. Beispiel für ein privates Netz mit dem Dispatcher
    40. SNMP-Befehle für Linux- und UNIX-Systeme
    41. GUI mit der erweiterten Anzeige der Baumstruktur für die Komponente Dispatcher
    42. GUI mit der erweiterten Anzeige der Baumstruktur für die Komponente CBR
    43. GUI mit der erweiterten Anzeige der Baumstruktur für die Komponente Site Selector
    44. GUI mit der erweiterten Anzeige der Baumstruktur für die Komponente Cisco CSS Controller
    45. GUI mit der erweiterten Anzeige der Baumstruktur für die Komponente Nortel Alteon Controller
    46. Beispiel für eine Client/Server-Konfiguration mit hoher Verfügbarkeit unter Verwendung von Dispatcher, CBR und Caching Proxy

    Zu diesem Handbuch

    In diesem Handbuch sind die Planung, Installation, Konfiguration, Verwendung und Fehlerbehebung für IBM WebSphere Application Server für die Betriebssysteme AIX, HP-UX, Linux, Solaris und Windows beschrieben. Zuvor hatte dieses Produkt den Namen Edge Server Network Dispatcher, SecureWay Network Dispatcher, eNetwork Dispatcher und Interactive Network Dispatcher.


    Zielgruppe

    Das Administratorhandbuch ist für erfahrene Netz- und Systemadministratoren geschrieben, die sich mit den von ihnen verwendeten Betriebssystemen und dem Bereitstellen von Internetservices auskennen. Vorkenntnisse in Load Balancer sind nicht erforderlich.

    Dieses Handbuch bietet keine Unterstützung für frühere Releases von Load Balancer.


    Referenzliteratur

    Die Website mit dem Edge Components Informationszentrum enthält Links zur aktuellen Version dieses Handbuchs in den Formaten HTML und PDF.

    Die letzten Aktualisierungen zu Load Balancer finden Sie auf der Unterstützungsseite der Website. Klicken Sie auf dieser Seite auf den Link zur Technote-Site.

    Die URLs dieser und weiterer Webseiten sind im Abschnitt Zugehörige Dokumente und Websites aufgelistet.


    Zugriffsmöglichkeiten

    Features zur Erleichterung des Zugriffs helfen körperbehinderten Benutzern (mit eingeschränkter Beweglichkeit oder Sehschwäche), Softwareprodukte erfolgreich anzuwenden. Load Balancer bietet im Wesentlichen die folgenden Features für verbesserte Zugriffsmöglichkeiten an:


    Senden von Kommentaren

    Ihre Rückmeldung ist uns wichtig, damit wir möglichst genaue und hochwertige Informationen bieten können. Falls Sie Kommentare zum vorliegenden Handbuch oder einem anderen Dokument zu Edge Components abgeben möchten:


    Zugehörige Dokumente und Websites


    Einführung in Load Balancer

    Dieser Teil gibt einen Überblick über Load Balancer und die zugehörigen Produktkomponenten. Er enthält außerdem eine kurze Beschreibung der verfügbaren Konfigurationsfunktionen, eine Auflistung der Hardware- und Softwarevoraussetzungen sowie Installationsanweisungen. Zu diesem Teil gehören die folgenden Kapitel:


    Übersicht über Load Balancer

    Dieses Kapitel gibt einen Überblick über Load Balancer und ist in die folgenden Abschnitte gegliedert:

    Eine detaillierte Liste der Konfigurationsfunktionen der einzelnen Komponenten von Load Balancer, die Sie zur Planung Ihrer Netzverwaltung heranziehen können, finden Sie im Abschnitt Netz verwalten: Zu verwendende Load-Balancer-Features bestimmen.


    Was ist Load Balancer?

    Load Balancer ist eine Softwarelösung für die Verteilung eingehender Clientanforderungen auf mehrere Server. Dieses Produkt verbessert die Leistung von Servern erheblich, indem es TCP/IP-Sitzungsanforderungen auf verschiedene Server einer Gruppe verteilt. Dieser Lastausgleich ist für Benutzer und andere Anwendungen transparent. Load Balancer ist vor allem bei Anwendungen wie E-Mail-Servern, WWW-Servern, verteilten Abfragen paralleler Datenbanken und anderen TCP/IP-Anwendungen nützlich.

    Beim Einsatz mit Webservern kann Load Balancer zur optimalen Nutzung des Potenzials Ihrer Site beitragen, da er eine leistungsfähige, flexible und skalierbare Lösung für Probleme bietet, die durch eine sehr hohe Belastung auftreten können. Haben Besucher zu Zeiten höchster Belastung Schwierigkeiten, auf Ihre Site zuzugreifen, können Sie mit Load Balancer automatisch den optimalen Server zur Bearbeitung eingehender Anforderungen suchen.


    Welche Komponenten von Load Balancer sollen verwendet werden?

    Load Balancer besteht aus den folgenden fünf Komponenten, die separat oder zusammen verwendet werden können, um bessere Ergebnisse beim Lastausgleich zu erzielen:

    Weitere Informationen zu den Komponenten Dispatcher, CBR, Site Selector, Cisco CSS Controller und Nortel Alteon Controller finden Sie im Abschnitt Komponenten von Load Balancer.


    Welche Vorteile bringt die Verwendung von Load Balancer?

    Die Anzahl von Benutzern und Netzen, die mit dem globalen Internet verbunden sind, wächst mit rasanter Geschwindigkeit. Dieses Wachstum verursacht Probleme hinsichtlich der Skalierbarkeit, da der Benutzerzugriff auf attraktive Sites bei einem hohen Anforderungsaufkommen möglicherweise eingeschränkt wird.

    Derzeit benutzen Netzadministratoren verschiedene Methoden zur Optimierung des Zugriffs. Bei einigen dieser Methoden können Sie nach dem Zufallsprinzip einen anderen Server auswählen, wenn der vorher ausgewählte Server zu langsam oder überhaupt nicht antwortet. Diese Vorgehensweise ist jedoch mühsam und ineffektiv. Eine weitere Methode ist die Standard-Round-Robin-Methode, bei der der Domänennamensserver der Reihe nach Server zur Bearbeitung von Anforderungen auswählt. Dieser Ansatz ist zwar besser, aber immer noch ineffizient, da der Datenverkehr ohne Berücksichtigung der Serverauslastung weitergeleitet wird. Zudem werden bei dieser Methode auch dann noch Anforderungen an einen Server gesendet, wenn er ausgefallen ist.

    Der Bedarf an einer leistungsfähigeren Lösung hat zur Entwicklung von Load Balancer geführt. Dieses Produkt bietet gegenüber früheren Lösungen und Lösungen anderer Anbieter eine Vielzahl von Vorteilen:

    Skalierbarkeit

    Wenn die Anzahl der Clientanforderungen steigt, können Sie Server dynamisch hinzufügen und Millionen von Anforderungen pro Tag auf Hunderten von Servern unterstützen.

    Effiziente Nutzung der Ausrüstung

    Der Lastausgleich gewährleistet, dass jede Servergruppe die zugehörige Hardware optimal nutzen kann, da die bei einer Standard-Round-Robin-Methode häufig auftretenden Spitzenbelastungen auf ein Minimum reduziert werden.

    Problemlose Integration

    Load Balancer benutzt TCP/IP-Standardprotokolle oder UDP/IP-Protokolle. Das Produkt kann zu einem vorhandenen Netz hinzugefügt werden, ohne dass physische Änderungen am Netz erforderlich sind. Es ist leicht zu installieren und zu konfigurieren.

    Geringer Systemaufwand

    Bei Anwendung der einfachen MAC-Weiterleitung achtet der Dispatcher nur auf den beim Server eingehenden Datenverkehr vom Client, nicht aber auf den vom Server zum Client abgehenden Datenverkehr. Dies führt im Vergleich zu anderen Methoden zu einer erheblichen Reduzierung der Auswirkungen auf die Anwendung und zu einer verbesserten Leistung im Netz.

    Hohe Verfügbarkeit

    Dispatcher, Cisco CSS Controller und Nortel Alteon Controller sind Komponenten mit integrierter hoher Verfügbarkeit, für die eine Partnermaschine benutzt wird, die jederzeit die Weiterleitung von Paketen übernehmen kann, wenn die primäre Servermaschine ausfällt. Sollte einer der Server ausfallen, werden die Anfragen vom anderen Server bedient. Dies bedeutet, dass keiner der Server als Single Point of Failure eingesetzt werden muss. Die Site zeichnet sich somit durch hohe Verfügbarkeit aus.

    Weitere Informationen finden Sie im Abschnitt Bereitstellung der hohen Verfügbarkeit durch Load Balancer.

    Content Based Routing (mit der Komponente CBR oder Dispatcher)

    Zusammen mit Caching Proxy kann die Komponente CBR HTTP- und HTTPS-Anforderungen (SSL) ausgehend vom angefragten Inhalt an bestimmte Server weiterleiten. Wenn eine Anforderung im Verzeichnisabschnitt des URL beispielsweise die Zeichenfolge "/cgi-bin/" enthält und der Servername ein lokaler Server ist, kann CBR die Anforderung an den besten Server einer speziell für die Bearbeitung von cgi-Anforderungen zugeordneten Servergruppe übertragen.

    Anmerkung:
    Die Komponente Content Based Routing (CBR) ist auf allen unterstützten Plattformen, die keine 64-Bit-JVM ausführen, verfügbar. Alternativ können Sie die Weiterleitungsmethode "cbr" der Load-Balancer-Komponente Dispatcher verwenden, um inhaltsbasiertes Routing ohne die Verwendung von Caching Proxy zu ermöglichen. Weitere Informationen finden Sie im Abschnitt Dispatcher-Weiterleitungsmethode "cbr".

    Die Komponente Dispatcher erlaubt auch eine inhaltsabhängige Weiterleitung, erfordert jedoch nicht die Installation von Caching Proxy. Da die inhaltsabhängige Weiterleitung der Komponente Dispatcher beim Empfang von Paketen im Kernel ausgeführt wird, ist sie schneller als die der Komponente CBR. Die Komponente Dispatcher führt das inhaltsbasierte Routing für HTTP (unter Verwendung des Regeltyps "content") und für HTTPS (unter Verwendung der Affinität von SSL-Sitzungs-IDs) durch.

    Anmerkung:
    Für HTTPS (SSL) kann die Komponente CBR den Regeltyp content nur für den Lastausgleich von Datenverkehr verwenden, der auf dem Inhalt der HTTP-Anforderung basiert, was das Entschlüsseln und erneute Verschlüsseln von Nachrichten erfordert.

    Bereitstellung der hohen Verfügbarkeit durch Load Balancer

    Dispatcher

    Die Dispatcher-Komponente stellt eine integrierte Funktion für hohe Verfügbarkeit bereit, so dass der Dispatcher nicht mehr als Single Point of Failure in Ihrem Netz eingesetzt werden muss. Für diese Funktion ist eine zweite Dispatcher-Maschine erforderlich, die die primäre Maschine überwacht und den Lastausgleich übernehmen kann, wenn die primäre Maschine ausfällt. Die Komponente Dispatcher gewährleistet außerdem eine wechselseitige hohe Verfügbarkeit, so dass sowohl die primäre als auch die sekundäre Maschine die jeweils andere Maschine als Ausweichmaschine nutzen kann. Weitere Informationen finden Sie im Abschnitt Hohe Verfügbarkeit konfigurieren.

    CBR

    Wenn Sie eine Client/Server-Konfiguration mit einer Dispatcher-Maschine verwenden, bei der der Datenverkehr auf mehrere Server mit CBR verteilt wird, können Sie auch mit der Komponente CBR ein hohes Maß an Verfügbarkeit erreichen.

    Cisco CSS Controller oder Nortel Alteon Controller

    Die Controller stellen eine Funktion für hohe Verfügbarkeit bereit, so dass der Controller nicht mehr als Single Point of Failure eingesetzt werden muss. Ein Controller auf einer Maschine kann als primärer Controller und ein Controller auf einer anderen Maschine als Ausweichcontroller konfiguriert werden. Der Ausweichcontroller überwacht den primären Controller und ist bereit, bei einem Ausfall des primären Controllers dessen Aufgaben zu übernehmen und den Switches Serverwertigkeiten zur Verfügung zu stellen. Weitere Informationen finden Sie im Abschnitt Hohe Verfügbarkeit.


    Übersicht über die Komponenten von Load Balancer

    Dieser Teil enthält einen Überblick über die Komponenten von Load Balancer und ist in die folgenden Abschnitte gegliedert:

    Eine detaillierte Liste der Konfigurationsfunktionen der einzelnen Komponenten von Load Balancer, die Sie zur Planung Ihrer Netzverwaltung heranziehen können, finden Sie im Abschnitt Netz verwalten: Zu verwendende Load-Balancer-Features bestimmen.


    Komonenten von Load Balancer

    Die fünf Komponenten von Load Balancer sind Dispatcher, Content Based Routing (CBR), Site Selector, Cisco CSS Controller und Nortel Alteon Controller. Load Balancer bietet Ihnen die Möglichkeit, die Komponenten flexibel entsprechend der Konfiguration Ihrer Site einzeln oder zusammen zu verwenden. Dieser Abschnitt gibt einen Überblick über die Komponenten.


    Übersicht über die Komponente Dispatcher

    Die Komponente Dispatcher verteilt den Datenverkehr mit einer Kombination von Lastausgleichs- und Verwaltungssoftware auf Ihre Server. Der Dispatcher kann auch einen ausgefallenen Server erkennen und den Datenverkehr entsprechend umleiten. Dispatcher unterstützt HTTP, FTP, SSL, SMTP, NNTP, IMAP, POP3, Telnet, SIP sowie alle anderen TCP-basierten bzw. kontextlosen UDP-basierten Anwendungen.

    Alle an die Dispatcher-Maschine gesendeten Clientanforderungen werden auf der Basis dynamisch festgelegter Wertigkeiten an den "besten" Server übertragen. Für diese Wertigkeiten können Sie Standardwerte benutzen oder die Werte während des Konfigurationsprozesses ändern.

    Dispatcher kann drei Weiterleitungsmethoden anwenden (die für den Port angegeben werden):

    Die Komponente Dispatcher ist der Schlüssel für eine stabile, effiziente Verwaltung eines großen skalierbaren Servernetzes. Mit Dispatcher können Sie viele einzelne Server so verbinden, dass sie ein virtueller Server zu sein scheinen. Besucher sehen Ihre Site daher unter einer IP-Adresse. Der Dispatcher arbeitet unabhängig von einem Domänennamensserver. Alle Anforderungen werden an die IP-Adresse der Dispatcher-Maschine gesendet.

    Der Dispatcher bringt klare Vorteile bei der Lastverteilung auf eine Gruppe von Servern und ermöglicht daher eine stabile und effiziente Verwaltung Ihrer Site.

    Lokale Server mit Dispatcher verwalten

    Abbildung 1. Beispiel für die physische Darstellung einer Site mit Dispatcher für die Verwaltung lokaler Server

    Physische Darstellung einer Site mit Dispatcher für die Verwaltung lokaler Server

    In Abbildung 1 wird die physische Darstellung der Site mit einer Ethernet-Netzkonfiguration gezeigt. Die Dispatcher-Maschine kann installiert werden, ohne dass physische Änderungen am Netz erforderlich sind. Nachdem Dispatcher eine Clientanforderung an den optimalen Server übertragen hat, wird die Antwort mit der Weiterleitungsmethode "mac" ohne Eingriff von Dispatcher direkt vom Server an den Client gesendet.

    Server mit Dispatcher und Metric Server verwalten

    Abbildung 2. Beispielsite mit Dispatcher und Metric Server für die Verwaltung von Servern

    Site mit Dispatcher und Metric Server für die Verwaltung von Servern

    In Abbildung 2 wird eine Site gezeigt, bei der sich alle Server in einem lokalen Netz befinden. Die Dispatcher-Komponente leitet Anforderungen weiter und Metric Server stellt der Dispatcher-Maschine Informationen zur Systembelastung zur Verfügung.

    In diesem Beispiel ist der Metric-Server-Dämon auf allen Back-End-Servern installiert. Sie können Metric Server zusammen mit der Komponente Dispatcher oder einer beliebigen anderen Komponente von Load Balancer verwenden.

    Lokale und ferne Server mit Dispatcher verwalten

    Abbildung 3. Beispielsite mit Dispatcher für die Verwaltung lokaler und ferner Server

    Site mit Dispatcher für die Verwaltung lokaler und ferner Server

    Die Weitverkehrsunterstützung von Dispatcher ermöglicht Ihnen die Verwendung lokaler und ferner Server (d. h. Server in anderen Teilnetzen). Abbildung 3 zeigt eine Konfiguration, bei der ein lokaler Dispatcher (Dispatcher 1) als Eingangspunkt für alle Anforderungen dient. Er verteilt diese Anforderungen auf seine lokalen Server (ServerA, ServerB, ServerC) und den fernen Dispatcher (Dispatcher 2), der die Last auf seine lokalen Server (ServerG, ServerH, ServerI) verteilt.

    Wenn Sie die Weiterleitungsmethode "nat" oder die GRE-Unterstützung von Dispatcher nutzen, können Sie eine Weitverkehrsunterstützung auch ohne Verwendung eines Dispatchers am fernen Standort (wo sich ServerD, ServerE und ServerF befinden) erreichen. Weitere Informationen finden Sie in den Abschnitten Dispatcher-Weiterleitungsmethode NAT/NAPT und Unterstützung für GRE (Generic Routing Encapsulation).


    Übersicht über die Komponente Content Based Routing (CBR)

    CBR arbeitet mit Caching Proxy zusammen, um Clientanforderungen an angegebene HTTP- oder HTTPS-Server (SSL) weiterzuleiten. Diese Komponente ermöglicht die Bearbeitung von Caching-Angaben für ein schnelleres Abrufen von Webdokumenten mit geringen Anforderungen an die Netzbandbreite. CBR überprüft zusammen mit Caching Proxy HTTP-Anforderungen anhand angegebener Regeltypen.

    Anmerkung:
    Die Komponente Content Based Routing (CBR) ist auf allen unterstützten Plattformen, die keine 64-Bit-JVM ausführen, verfügbar. Alternativ können Sie die Weiterleitungsmethode "cbr" der Load-Balancer-Komponente Dispatcher verwenden, um inhaltsbasiertes Routing ohne die Verwendung von Caching Proxy zu ermöglichen. Weitere Informationen finden Sie im Abschnitt Dispatcher-Weiterleitungsmethode "cbr".

    Bei Verwendung von CBR können Sie eine Gruppe von Servern angeben, die eine Anforderung ausgehend von der Übereinstimmung eines regulären Ausdrucks mit dem Inhalt der Anforderung bearbeiten. Da CBR die Angabe mehrerer Server für jede Art von Anforderung zulässt, können die Anforderungen so verteilt werden, dass eine optimale Clientantwortzeit erreicht wird. CBR erkennt auch, wenn ein Server in einer Gruppe ausgefallen ist. In diesem Fall werden keine weiteren Anforderungen an diesen Server weitergeleitet. Der von der Komponente CBR verwendete Lastausgleichsalgorithmus ist mit dem bewährten Algorithmus identisch, der von der Komponente Dispatcher verwendet wird.

    Wenn Caching Proxy eine Anfrage empfängt, wird diese mit den Regeln, die für die Komponente CBR definiert wurden, abgeglichen. Wird eine Übereinstimmung gefunden, wird einer der Server, die dieser Regel zugeordnet sind, für die Bearbeitung der Anforderung ausgewählt. Caching Proxy führt dann die normale Verarbeitung aus, um die Anfrage an den ausgewählten Server weiterzuleiten.

    CBR stellt mit Ausnahme der hohen Verfügbarkeit, des SNMP-Subagenten, der Weitverkehrsunterstützung und einiger anderer Konfigurationsbefehle dieselben Funktionen wie der Dispatcher bereit.

    CBR kann erst mit dem Lastausgleich für Clientanforderungen beginnen, wenn Caching Proxy aktiv ist.

    Lokale Server mit CBR verwalten

    Abbildung 4. Beispielsite mit CBR für die Verwaltung lokaler Server

    Site mit CBR für die Verwaltung lokaler Server

    Abbildung 4 zeigt die logische Darstellung einer Site, bei der ein Teil der Inhalte von lokalen Servern mit CBR weitergeleitet wird. Die Komponente CBR leitet mit Caching Proxy Clientanforderungen (HTTP oder HTTPS) ausgehend vom Inhalt des URL an die Server weiter.


    Übersicht über die Komponente Site Selector

    Site Selector fungiert als Namensserver und führt zusammen mit anderen Namensservern in einem Domänennamenssystem auf der Grundlage abgerufener Messungen und Wertigkeiten einen Lastausgleich für Servergruppen durch. Sie können eine Sitekonfiguration erstellen, bei der die Last innerhalb einer Servergruppe auf der Grundlage des für eine Clientanforderung verwendeten Domänennamens verteilt wird.

    Ein Client fordert die Auflösung eines Domänennamens bei einem Namensserver innerhalb seines Netzes an. Der Namensserver leitet die Anforderung an die Site-Selector-Maschine weiter. Site Selector löst den Domänennamen dann in die IP-Adresse eines der Server auf, die für den Sitenamen konfiguriert wurden. Anschließend gibt Site Selector die IP-Adresse des ausgewählten Servers an den Namensserver zurück. Der Namensserver liefert die IP-Adresse an den Client.

    Metric Server ist eine Systemüberwachungskomponente von Load Balancer, die auf jedem am Lastausgleich beteiligten Server innerhalb der Konfiguration installiert sein muss. Mit Metric Server kann Site Selector das Aktivitätsniveau eines Servers überwachen, den Server mit der geringsten Auslastung ermitteln und einen ausgefallenen Server erkennen. Die Last ist ein Maß für das Arbeitsaufkommen eines Servers. Durch Anpassung der Scriptdateien für Systemmetriken können Sie steuern, auf welche Art die Last gemessen wird. Sie können Site Selector an die Anforderungen der eigenen Umgebung anpassen und dabei Faktoren wie die Zugriffshäufigkeit, die Gesamtzahl der Benutzer und die Zugriffsarten (beispielsweise kurze Abfragen, lange Abfragen, Transaktionen mit hoher CPU-Belastung) berücksichtigen.

    Lokale und ferne Server mit Site Selector und Metric Server verwalten

    Abbildung 5. Beispielsite mit Site Selector und Metric Server für die Verwaltung lokaler und ferner Server

    Site mit Site Selector und Metric Server für die Verwaltung von Servern

    Abbildung 5 stellt eine Site dar, bei der die Komponente Site Selector Anfragen beantwortet. Server 1, Server 2 und Server 3 sind lokale Server. Server 4, Server 5 und Server 6 sind ferne Server.

    Ein Client fordert die Auflösung eines Domänennamens bei einem Clientnamensserver an. Der Clientnamensserver leitet die Anfrage über den DNS an die Site-Selector-Maschine weiter (Pfad 1). Site Selector löst den Domänennamen dann in die IP-Adresse eines der Server auf. Anschließend gibt Site Selector die IP-Adresse des ausgewählten Servers an den Clientnamensserver zurück. Der Namensserver liefert die IP-Adresse an den Client.

    Sobald der Client die IP-Adresse des Servers empfangen hat, leitet er Anwendungsanforderungen direkt an den ausgewählten Server weiter (Pfad 2).

    Anmerkung:
    In diesem Beispiel liefert Metric Server Informationen zur Systembelastung an die Site-Selector-Maschine. Der Agent Metric Server ist auf jedem Back-End-Server installiert. Verwenden Sie Site Selector zusammen mit Metric Server, da Site Selector sonst nur eine Round-Robin-Auswahlmethode für den Lastausgleich anwenden kann.

    Übersicht über die Komponente Cisco CSS Controller

    Cisco CSS Controller ist eine ergänzende Lösung für die CSS 11000 Series Switches von Cisco. Die kombinierte Lösung verbindet die zuverlässige Paket- und Inhaltsweiterleitung der CSS 11000 Series mit den ausgeklügelten Erkennungsalgorithmen von Load Balancer, um die Ladedaten und die Verfügbarkeit des Service (Anwendung oder Datenbank auf dem Back-End-Server) festzustellen. Cisco CSS Controller verwendet den Algorithmus für Wertigkeitsberechnung, die Standard- und angepassten Advisor-Funktionen sowie den Metric Server von Load Balancer, um die Metriken, den Zustand und die Auslastung des Services zu ermitteln. Aus diesen Informationen generiert der Cisco CSS Controller Servicewertigkeiten, die dann zur Erreichung einer optimalen Serviceauswahl sowie von Lastoptimierung und Fehlertoleranz an den Cisco CSS Switch gesendet werden.

    Cisco CSS Controller protokolliert zahlreiche Kriterien. Dazu gehören unter anderem:

    Wenn ein Cisco CSS Switch ohne Cisco CSS Controller den Zustand eines Inhalte bereitstellenden Services ermittelt, greift er dabei auf die Antwortzeiten für Inhaltsanfragen und andere Netzmetriken zurück. Wird der Cisco CSS Controller verwendet, gehen diese Aktivitäten vom Cisco CSS Switch auf den Cisco CSS Controller über. Cisco CSS Controller beeinflusst die Fähigkeit des Services, Inhalte bereitzustellen, und aktiviert einen Service als geeigneten Service, wenn dieser verfügbar ist, bzw. stellt ihn als geeigneten Service zurück, wenn er nicht mehr verfügbar ist.

    Cisco CSS Controller:

    Wertigkeiten gelten für alle Services an einem Port. An einem bestimmten Port werden die Anfragen ausgehend von einem Vergleich der Wertigkeiten der einzelnen Services verteilt. Wenn ein Service beispielsweise die Wertigkeit 10 und ein anderer die Wertigkeit 5 hat, erhält der Service mit der Wertigkeit 10 doppelt so viele Anfragen wie der Service mit der Wertigkeit 5. Diese Wertigkeiten werden dem Cisco CSS Switch über SNMP zur Verfügung gestellt. Wird ein Service mit einer höheren Wertigkeit eingestuft, überträgt der Cisco CSS Switch mehr Anfragen an diesen Service.

    Abbildung 6. Beispielsite mit Cisco CSS Controller und Metric Server für die Verwaltung lokaler Server

    Site mit Cisco CSS Controller und Metric Server für die Verwaltung von Services

    Cisco CSS Controller ist in Verbindung mit dem Cisco CSS Switch eine Lösung, die das "Beste aus zwei Welten" auf sich vereint, super schnelles Content-Switching und ausgeklügelte Anwendungserkennung, Fehlertoleranz sowie optimale Serviceauslastung. Cisco CSS Controller ist Bestandteil einer ergänzenden Lösung für den Cisco CSS Switch und IBM WebSphere Application Server Load Balancer.


    Übersicht über die Komponente Nortel Alteon Controller

    Nortel Alteon Controller ist in Verbindung mit der Alteon-Web-Switch-Familie von Nortel eine ergänzende Lösung, die die Geschwindigkeit und Kapazität der Switches im Bereich der Paketweiterleitung mit den ausgeklügelten Erkennungsalgorithmen von Load Balancer zur Bestimmung von Serverwertigkeiten verbindet.

    Mit Nortel Alteon Controller können Sie angepasste Advisor-Funktionen entwickeln, die eine intelligentere und mehr auf die Anwendung zugeschnittene Bewertung der Verfügbarkeit und Auslastung von Anwendungen für die Implementierung von Services vornehmen können.

    Metric Server stellt Informationen zur Systembelastung, z. B. zur Auslastung von CPU und Speicher, sowie ein Gerüst für die Entwicklung benutzerdefinierter Messungen zur Systembelastung bereit.

    Nortel Alteon Controller stellt die verschiedensten Arten von Messdaten zusammen, um die Wertigkeit von Servern zu bestimmen, deren Arbeitslast von Nortel Alteon Web Switches verteilt wird. Dazu gehören unter anderem:

    Nortel Alteon Controller kommuniziert mit dem Switch über SNMP. Die Komponente ruft Konfigurations-, Status- und Verbindungsdaten vom Switch ab. Wenn der Controller Serverwertigkeiten berechnet hat, werden diese auf dem Switch festgelegt. Der Switch verwendet die vom Controller definierten Wertigkeiten, um den Server auszuwählen, der Clientanforderungen für einen Service am besten bearbeiten kann.

    Abbildung 7. Beispielsite mit Nortel Alteon Controller für die Verwaltung lokaler Server

    Site mit Nortel Alteon Controller für die Verwaltung von Servern

    Sie können den Controller von einem Browser, einer fernen GUI oder einer fernen Befehlszeilenschnittstelle aus verwalten.

    Nortel Alteon Controller ist in Verbindung mit der Alteon-Web-Switch-Familie von Nortel eine Lösung, die das "Beste aus zwei Welten" auf sich vereint: super schnelle Paketvermittlung und ausgeklügelte Anwendungserkennung, Fehlertoleranz sowie optimale Serverauslastung. Nortel Alteon Controller ist Teil einer ergänzenden Lösung mit den Alteon-Web-Switches von Nortel und IBM WebSphere.


    Netz verwalten: Zu verwendende Load-Balancer-Features bestimmen

    In den folgenden Abschnitten sind die Konfigurationsfunktionen der Komponenten von Load Balancer aufgelistet, so dass Sie bestimmen können, welche Features Sie für die Verwaltung Ihres Netzes benötigen:


    Manager, Advisor-Funktionen und Metric Server (für Dispatcher, CBR und Site Selector)

    Wenn Sie die Last optimal auf mehrere Server verteilen und sicherstellen möchten, dass stets der "richtige" Server ausgewählt wird, lesen Sie die folgenden Abschnitte:

    _ Lastausgleich mit Load Balancer optimieren

    _ Advisor-Funktionen

    _ Metric Server


    Features der Komponente Dispatcher

    Dispatcher unterstützt den Lastausgleich auf Servern für HTTP, FTP, SSL, SMTP, NNTP, IMAP, POP3, Telnet, SIP sowie alle anderen TCP-basierten bzw. kontextlosen UDP-basierten Anwendungen.

    Fernverwaltung

    _ Wenn Sie Load Balancer nicht von der Maschine aus konfigurieren möchten, auf der Load Balancer installiert ist, lesen Sie den Abschnitt Fernverwaltung von Load Balancer.

    Kollokation

    _ Falls Sie Dispatcher auf derselben Maschine ausführen möchten wie einen Webserver, dessen Last verteilt werden soll, lesen Sie die Informationen im Abschnitt Verknüpfte Server verwenden.

    Hohe Verfügbarkeit

    _ Falls Sie den Dispatcher einsetzen, um die Einschränkungen eines Single Point of Failure für Ihr Netz zu beseitigen, lesen Sie die Informationen in den Abschnitten Einfache hohe Verfügbarkeit und Wechselseitige hohe Verfügbarkeit.

    Client-Server-Affinität

    Lastausgleich für SSL-Datenverkehr (HTTPS):

    _ Wenn Sie sicherstellen möchten, dass der Client für mehrere Verbindungen denselben SSL-Server verwendet, lesen Sie den Abschnitt Funktionsweise der Affinität für Load Balancer.

    _ Wenn Sie sicherstellen möchten, dass der Client für HTTP- und SSL-Datenverkehr denselben SSL-Server verwendet, lesen Sie den Abschnitt Crossport-Affinität.

    _ Wenn Sie sicherstellen möchten, dass der Client für mehrere Verbindungen denselben Server verwendet, lesen Sie den Abschnitt Funktionsweise der Affinität für Load Balancer.

    _ Wenn Sie sicherstellen möchten, dass eine Gruppe von Clients für mehrere Verbindungen denselben Server verwendet, lesen Sie den Abschnitt Affinitätsadressmaske (stickymask).

    _ Wenn Sie einen Server aus der Konfiguration entfernen möchten (z. B. für eine Wartung), ohne den Clientdatenverkehr zu unterbrechen, lesen Sie den Abschnitt Bearbeitung von Serververbindungen stilllegen.

    Regelbasierter Lastausgleich

    Sie können Clients für dieselbe Webadresse zu verschiedenen Servergruppen dirigieren, indem Sie Regeln zu Ihrer Dispatcher-Konfiguration hinzufügen. Weitere Informationen finden Sie im Abschnitt Regelbasierten Lastausgleich konfigurieren.

    _ Falls Sie Clients ausgehend von der Quellen-IP-Adresse des Clients zu verschiedenen Servergruppen dirigieren möchten, lesen Sie den Abschnitt Auf der Client-IP-Adresse basierende Regeln verwenden.

    _ Falls Sie Clients ausgehend vom Clientport zu verschiedenen Servergruppen dirigieren möchten, lesen Sie den Abschnitt Auf dem Clientport basierende Regeln verwenden.

    _ Falls Sie Clients ausgehend von der Uhrzeit zu verschiedenen Servergruppen dirigieren möchten, lesen Sie den Abschnitt Auf der Uhrzeit basierende Regeln verwenden.

    _ Wenn Sie Clients ausgehend von den TOS-Bits (Type of Service) in Netzpaketen zu bestimmten Servern dirigieren möchten, lesen Sie die Informationen im Abschnitt Auf der Serviceart basierende Regeln verwenden.

    _ Falls Sie Clients ausgehend vom Datenverkehr der Site an verschiedene Servergruppen weiterleiten möchten, haben Sie die folgenden Möglichkeiten:

    _ Wenn Sie die Anzahl der Verbindungen pro Sekunde verwenden möchten, lesen Sie den Abschnitt Regeln auf der Basis der Verbindungen pro Sekunde verwenden.

    _ Wenn Sie die Gesamtanzahl der Verbindungen verwenden möchten, lesen Sie den Abschnitt Regeln auf der Basis der Summe aktiver Verbindungen verwenden.

    _ Wenn Sie Bandbreite für verschiedene Webadressen reservieren und gemeinsam nutzen möchten, lesen Sie den Abschnitt Regeln auf der Basis reservierter Bandbreite und gemeinsam genutzter Bandbreite verwenden.

    _ Wenn Sie sicherstellen möchten, dass Datenverkehr für jede Servergruppe exakt gemessen wird, lesen Sie den Abschnitt Regeloption für Serverauswertung.

    _ Falls Sie überlaufenden Datenverkehr zu einer Standardgruppe von Servern dirigieren möchten (z. B. zu Servern, die die Antwort "Site ausgelastet" ausgeben), lesen Sie den Abschnitt Immer gültige Regeln verwenden.

    _ Wenn Sie die Clientaffinität außer Kraft setzen möchten, um sicherzustellen, dass ein Client nicht an einen Überlaufserver gebunden bleibt, lesen Sie die Informationen im Abschnitt Portaffinität außer Kraft setzen.

    Inhaltsabhängiges Routing mit der Dispatcher-Weiterleitungsmethode "cbr"

    Wenn Sie sicherstellen möchten, dass SSL-Clients ausgehend von der SSL-ID in der Clientanfrage zu demselben SSL-Server zurückkehren, lesen Sie den Abschnitt HTTPS (SSL).

    Falls Sie HTTP-Clients mit Regeln, die auf dem URL-Inhalt der Clientanforderung basieren, an verschiedene Servergruppen weiterleiten möchten, lesen Sie die Informationen im Abschnitt Dispatcher-Weiterleitungsmethode "cbr" und im Abschnitt Auf dem Inhalt der Anforderung basierende Regeln verwenden.

    _ Wenn Sie zwischen bestimmten URLs und ihren Serviceanwendungen unterscheiden möchten, lesen Sie den Abschnitt Serverpartitionierung - Konfigurieren logischer Server für einen physischen Server (IP-Adresse).

    _ Wenn Sie durch Cookies von Ihren Webservern sicherstellen möchten, dass Clients zu demselben Server zurückkehren, wenn sie in mehreren Verbindungen ähnliche Inhalte anfragen, lesen Sie die Informationen im Abschnitt Passive Cookie-Affinität.

    _ Falls Sie den Webdatenverkehr auf Caching-Proxy-Server verteilen möchten, um das Zwischenspeichern eindeutiger Inhalte auf jedem einzelnen Server zu ermöglichen (und dadurch den Cache Ihrer Site vergrößern, da eine redundante Zwischenspeicherung von Inhalten auf mehreren Maschinen vermieden wird), lesen Sie den Abschnitt URI-Affinität.

    Dispatcher-Weiterleitungsmethode "cbr" und Komponente CBR im Vergleich

    Der Vorteil der Dispatcher-Weiterleitungsmethode "cbr" besteht darin, dass sie schneller auf Clientanforderungen reagiert als die Komponente CBR. Die Dispatcher-Weiterleitungsmethode "cbr" erfordert auch nicht die Installation und Verwendung von Caching Proxy.

    Bei einem Netz mit sicherem SSL-Datenverkehr vom Client zum Server liegt der Vorteil der Komponente CBR (in Verbindung mit Caching Proxy) darin, dass CBR die für ein inhaltsabhängiges Routing erforderliche Verschlüsselung/Entschlüsselung durchführen kann. Bei vollständig gesicherten Verbindungen kann die Dispatcher-Weiterleitungsmethode "cbr" nur mit SSL-ID-Affinität konfiguriert werden, da sie nicht in der Lage ist, die für ein vom Inhalt des URL abhängiges Routing von Clientanforderungen erforderliche Verschlüsselung/Entschlüsselung vorzunehmen.

    Lastausgleich im WAN

    Ein Lastausgleich im Weitverkehrsnetz kann mit verschiedenen Methoden erreicht werden.

    _ Falls Sie Last mit dem WAN-Feature von Dispatcher auf ferne Server verteilen möchten, lesen Sie die Informationen im Abschnitt Dispatcher-WAN-Unterstützung konfigurieren und Unterstützung für GRE (Generic Routing Encapsulation).

    Anmerkung:
    Falls der ferne Standort keine GRE-Unterstützung bietet, ist ein zusätzlicher Dispatcher am fernen Standort erforderlich.

    _ Wenn Sie Last mit der Dispatcher-Weiterleitungsmethode "nat" auf ferne Server verteilen möchten, lesen Sie den Abschnitt Dispatcher-Weiterleitungsmethode NAT/NAPT.

    Anmerkung:
    Bei Verwendung der Weiterleitungsmethode "nat" ist am fernen Standort kein zusätzlicher Dispatcher erforderlich.

    Portzuordnung

    _ Wenn Sie die Last einer Webadresse auf mehrere Serverdämonen auf einer Maschine verteilen möchten, die jeweils an einem eindeutigen Port empfangsbereit sind, lesen Sie die Informationen im Abschnitt Dispatcher-Weiterleitungsmethode NAT/NAPT.

    Dispatcher in einem privaten Netz konfigurieren

    _ Falls der Dispatcher-Datenverkehr in einem anderen Netz als der Clientdatenverkehr bearbeitet werden soll (um Konkurrenzsituationen im externen Netz zu reduzieren und so den Durchsatz zu erhöhen), lesen Sie den Abschnitt Konfiguration für ein privates Netz verwenden.

    Platzhaltercluster und Platzhalterport

    _ Falls Sie mehrere Webadressen in einer Konfiguration kombinieren möchten, lesen Sie den Abschnitt Platzhaltercluster zum Zusammenfassen von Serverkonfigurationen verwenden.

    _ Informationen zum Lastausgleich für Firewalls finden Sie im Abschnitt Platzhaltercluster für den Lastausgleich von Firewalls verwenden.

    _ Wenn Sie den Datenverkehr für alle Zielports lenken möchten, lesen Sie den Abschnitt Platzhalterport für die Übertragung von Datenverkehr mit nicht konfiguriertem Port verwenden.

    Erkennung von DoS-Attacken

    _ Informationen zur Erkennung möglicher DoS-Attacken (Denial of Service) finden Sie im Abschnitt Erkennung von DoS-Attacken.

    Binärprotokollierung

    _ Informationen zur Analyse des Serverdatenverkehrs können Sie dem Abschnitt Binäre Protokolle für die Analyse von Serverstatistiken verwenden entnehmen.

    Alerts

    _ Falls Alerts generiert werden sollen, wenn Server als aktiv oder inaktiv markiert werden, lesen Sie die Informationen im Abschnitt Scripts zum Generieren eines Alerts oder Protokollieren eines Serverausfalls verwenden.


    Features der Komponente Content Based Routing (CBR)

    CBR integriert den Lastausgleich in Caching Proxy von WebSphere Application Server, um Clientanforderungen an angegebene HTTP- oder HTTPS-Server (SSL) weiterzuleiten. Für die Verwendung von CBR muss auf derselben Maschine Caching Proxy installiert und konfiguriert sein. Informationen zum Konfigurieren von Caching Proxy für die Verwendung von CBR finden Sie im Abschnitt Schritt 1. Caching Proxy für die Verwendung von CBR konfigurieren.

    Anmerkung:
    Die Komponente Content Based Routing (CBR) ist auf allen unterstützten Plattformen, die keine 64-Bit-JVM ausführen, verfügbar. Alternativ können Sie die Weiterleitungsmethode "cbr" der Load-Balancer-Komponente Dispatcher verwenden, um inhaltsbasiertes Routing ohne die Verwendung von Caching Proxy zu ermöglichen. Weitere Informationen finden Sie im Abschnitt Dispatcher-Weiterleitungsmethode "cbr".

    Bei Verwendung der Komponente CBR (oder der Dispatcher-Weiterleitungsmethode "cbr") ergeben sich für Ihre Clients die folgenden Vorteile:

    _ Sie können Clientanforderungen nach verschiedenen Inhalten auf Servergruppen verteilen. (Weitere Informationen finden Sie im Abschnitt Anforderungen nach verschiedenen Inhalten verteilen.)

    _ Sie können die Antwortzeit verkürzen, indem Sie den Inhalt der Site optimal auf mehrere Webserver verteilen. (Weitere Informationen finden Sie im Abschnitt Siteinhalt für kürzere Antwortzeiten aufteilen.)

    _ Sie können bei einem Serverausfall einen unterbrechungsfreien Clientdatenverkehr gewährleisten, indem Sie jedem Inhaltstyp mehrere Server zuordnen. (Weitere Informationen finden Sie im Abschnitt Webserverinhalt sichern.)

    Komponente CBR und Dispatcher-Weiterleitungsmethode "cbr" im Vergleich

    Bei einem Netz mit sicherem SSL-Datenverkehr vom Client zum Server liegt der Vorteil der Komponente CBR (in Verbindung mit Caching Proxy) darin, dass CBR die für ein inhaltsabhängiges Routing erforderliche Verschlüsselung/Entschlüsselung durchführen kann.

    Bei vollständig gesicherten SSL-Verbindungen kann die Dispatcher-Weiterleitungsmethode "cbr" nur mit SSL-ID-Affinität konfiguriert werden, da sie nicht in der Lage ist, die für ein vom Inhalt des URL abhängiges Routing von Clientanforderungen erforderliche Verschlüsselung/Entschlüsselung vorzunehmen.

    Für HTTP-Datenverkehr besteht der Vorteil der Dispatcher-Weiterleitungsmethode "cbr" darin, dass sie schneller auf Clientanforderungen reagiert als die Komponente CBR. Die Dispatcher-Weiterleitungsmethode "cbr" erfordert auch nicht die Installation und Verwendung von Caching Proxy.

    Fernverwaltung

    _ Wenn Sie Load Balancer nicht von der Maschine aus konfigurieren möchten, auf der Load Balancer installiert ist, lesen Sie den Abschnitt Fernverwaltung von Load Balancer.

    Kollokation

    _ CBR kann auf derselben Maschine wie ein am Lastausgleich beteiligter Server ausgeführt werden. Weitere Informationen finden Sie im Abschnitt Verknüpfte Server verwenden.

    CBR mit mehreren Instanzen von Caching Proxy

    _ Wie Sie die CPU-Ausnutzung durch mehrere Caching-Proxy-Prozesse verbessern können, erfahren Sie im Abschnitt CPU-Nutzung mit mehreren Caching-Proxy-Prozessen verbessern.

    Inhaltsabhängiges Routing für SSL-Verbindungen

    Wenn Sie für SSL-Datenverkehr ein inhaltsabhängiges Routing ermöglichen wollen, können Sie wie folgt vorgehen:

    _ Sie können auf beiden Seiten (Client-zu-Proxy und Proxy-zu-Server) sichere Verbindungen verwenden. Lesen Sie dazu den Abschnitt Lastausgleich für sichere Verbindungen (SSL).

    _ Wenn Sie sichere Verbindungen nur vom Client zum Proxy verwenden möchten, lesen Sie den Abschnitt Lastausgleich für SSL-Datenverkehr vom Client zum Proxy und HTTP-Datenverkehr vom Proxy zum Server.

    Serverpartitionierung

    _ Wenn Sie zwischen bestimmten URLs und ihren Serviceanwendungen unterscheiden möchten, lesen Sie den Abschnitt Serverpartitionierung - Konfigurieren logischer Server für einen physischen Server (IP-Adresse).

    Regelbasierter Lastausgleich

    Sie können Clients für dieselbe Webadresse zu verschiedenen Servergruppen dirigieren, indem Sie Regeln zu Ihrer CBR-Konfiguration hinzufügen. Weitere Informationen finden Sie im Abschnitt Regelbasierten Lastausgleich konfigurieren.

    _ Falls Sie Client ausgehend vom Inhalt des angeforderten URLs an verschiedene Servergruppen weiterleiten möchten, lesen Sie den Abschnitt Auf dem Inhalt der Anforderung basierende Regeln verwenden.

    _ Falls Sie Clients ausgehend von der Quellen-IP-Adresse des Clients zu verschiedenen Servergruppen dirigieren möchten, lesen Sie den Abschnitt Auf der Client-IP-Adresse basierende Regeln verwenden.

    _ Falls Sie Clients ausgehend von der Uhrzeit zu verschiedenen Servergruppen dirigieren möchten, lesen Sie den Abschnitt Auf der Uhrzeit basierende Regeln verwenden.

    _ Falls Sie Clients ausgehend vom Datenverkehr der Site an verschiedene Servergruppen weiterleiten möchten, haben Sie die folgenden Möglichkeiten:

    Wenn Sie die Anzahl der Verbindungen pro Sekunde verwenden möchten, lesen Sie den Abschnitt Regeln auf der Basis der Verbindungen pro Sekunde verwenden.

    Wenn Sie die Gesamtanzahl der Verbindungen verwenden möchten, lesen Sie den Abschnitt Regeln auf der Basis der Summe aktiver Verbindungen verwenden.

    _ Wenn Sie überlaufenden Datenverkehr an eine Standardgruppe von Servern weiterleiten möchten (z. B. zu Servern, die die Antwort "Site ausgelastet" ausgeben), lesen Sie den Abschnitt Immer gültige Regeln verwenden.

    _ Wenn Sie die Clientaffinität außer Kraft setzen möchten, um sicherzustellen, dass ein Client nicht an einen Überlaufserver gebunden bleibt, lesen Sie die Informationen im Abschnitt Portaffinität außer Kraft setzen.

    Client-Server-Affinität

    _ Wenn Sie sicherstellen möchten, dass der Client für mehrere Verbindungen denselben Server verwendet, lesen Sie den Abschnitt Funktionsweise der Affinität für Load Balancer.

    _ Wenn Sie einen Server aus der Konfiguration entfernen möchten (z. B. für eine Wartung), ohne den Clientdatenverkehr zu unterbrechen, lesen Sie den Abschnitt Bearbeitung von Serververbindungen stilllegen.

    _ Falls Sie unabhängig von der Erstellung von Cookies durch Ihre Webserver sicherstellen möchten, dass Clients zu demselben Server zurückkehren, wenn sie in mehreren Verbindungen ähnliche Inhalte anfragen, lesen Sie die Informationen im Abschnitt Aktive Cookie-Affinität.

    _ Wenn Sie durch Cookies von Ihren Webservern sicherstellen möchten, dass Clients zu demselben Server zurückkehren, wenn sie in mehreren Verbindungen ähnliche Inhalte anfragen, lesen Sie die Informationen im Abschnitt Passive Cookie-Affinität.

    _ Falls Sie den Webdatenverkehr auf Caching-Proxy-Server verteilen möchten, um das Zwischenspeichern eindeutiger Inhalte auf jedem einzelnen Server zu ermöglichen (und dadurch den Cache Ihrer Site vergrößern, da eine redundante Zwischenspeicherung von Inhalten auf mehreren Maschinen vermieden wird), lesen Sie den Abschnitt URI-Affinität.

    Hohe Verfügbarkeit bei Verwendung von Dispatcher und CBR

    _ Falls Sie den Dispatcher in einer Client/Server-Konfiguration mit CBR einsetzen, um die Einschränkungen eines Single Point of Failure für Ihr Netz zu beseitigen, lesen Sie die Informationen im Abschnitt Bereitstellung der hohen Verfügbarkeit durch Load Balancer.

    Binärprotokollierung

    _ Informationen zur Analyse des Serverdatenverkehrs können Sie dem Abschnitt Binäre Protokolle für die Analyse von Serverstatistiken verwenden entnehmen.

    Alerts

    _ Falls Alerts generiert werden sollen, wenn Server als aktiv oder inaktiv markiert werden, lesen Sie die Informationen im Abschnitt Scripts zum Generieren eines Alerts oder Protokollieren eines Serverausfalls verwenden.


    Features der Komponente Site Selector

    Site Selector verteilt die Last einer Namensserveranforderung auf eine Gruppe von Servern.

    Fernverwaltung

    _ Wenn Sie Load Balancer nicht von der Maschine aus konfigurieren möchten, auf der Load Balancer installiert ist, lesen Sie den Abschnitt Fernverwaltung von Load Balancer.

    Kollokation

    _ Site Selector kann auf derselben Maschine wie ein am Lastausgleich beteiligter Server ausgeführt werden. Dazu sind keine zusätzlichen Konfigurationsschritte erforderlich.

    Hohe Verfügbarkeit

    _ Die hohe Verfügbarkeit ist bei Verwendung mehrerer redundanter Site-Selector-Komponenten durch DNS-Methoden (Domain Name System) inhärent, sofern der Elternnamensserver korrekt konfiguriert ist und normale DNS-Wiederherstellungsmethoden zur Anwendung kommen. Beispiele für DNS-Wiederherstellungsmethoden sind die erneute Übertragung von Abfragen und die Wiederholung von Zonenübertragungen.

    _ Falls Sie den Dispatcher in einer Client/Server-Konfiguration mit Site Selector einsetzen, um die Einschränkungen eines Single Point of Failure für Ihr Netz zu beseitigen, lesen Sie die Informationen im Abschnitt Bereitstellung der hohen Verfügbarkeit durch Load Balancer.

    Client-Server-Affinität

    _ Wenn Sie sicherstellen möchten, dass der Client für mehrere Namensserveranforderungen denselben Server verwendet, lesen Sie den Abschnitt Funktionsweise der Affinität für Load Balancer.

    _ Falls Sie die Standard-DNS-Methode anwenden und die Lebensdauer (TTL, Time To Live) festlegen möchten, um die Client-Server-Affinität zu gewährleisten, lesen Sie die Informationen im Abschnitt Hinweise zu TTL.

    Regelbasierter Lastausgleich

    Sie können Clientanforderungen nach einer Domänennamensauflösung zu verschiedenen Servergruppen dirigieren, indem Sie Regeln zu Ihrer Site-Selector-Konfiguration hinzufügen. Weitere Informationen finden Sie im Abschnitt Regelbasierten Lastausgleich konfigurieren.

    _ Falls Sie Clients ausgehend von der Quellen-IP-Adresse des Clients zu verschiedenen Servergruppen dirigieren möchten, lesen Sie den Abschnitt Auf der Client-IP-Adresse basierende Regeln verwenden.

    _ Falls Sie Clients ausgehend von der Uhrzeit zu verschiedenen Servergruppen dirigieren möchten, lesen Sie den Abschnitt Auf der Uhrzeit basierende Regeln verwenden.

    _ Falls Sie Clients ausgehend von den gemessenen Lastwerten zu verschiedenen Servergruppen dirigieren möchten, lesen Sie die folgenden Abschnitte:

    Regel "Metrik gesamt"

    Regel "Metrik Durchschnitt"

    _ Wenn Sie überlaufenden Datenverkehr an eine Standardgruppe von Servern weiterleiten möchten (z. B. zu Servern, die die Antwort "Site ausgelastet" ausgeben), lesen Sie den Abschnitt Immer gültige Regeln verwenden.

    Lastausgleich im WAN

    Site Selector kann in einem lokalen Netz (LAN) oder in einem Weitverkehrsnetz (WAN) ausgeführt werden.

    WAN-Umgebung:

    _ Falls Sie die Namensserveranforderungen von Clients mit einer gewichteten Round-Robin-Auswahlmethode verteilen möchten, sind keine zusätzlichen Konfigurationsschritte erforderlich.

    _ Wenn die Nähe des Clientnamensservers im Netz zu den Servern, die die angeforderte Anwendung bereitstellen (den Zielservern), berücksichtigt werden soll, lesen Sie die Informationen im Abschnitt Netzproximität verwenden.

    Alerts

    _ Falls Alerts generiert werden sollen, wenn Server als aktiv oder inaktiv markiert werden, lesen Sie die Informationen im Abschnitt Scripts zum Generieren eines Alerts oder Protokollieren eines Serverausfalls verwenden.


    Features der Komponente Cisco CSS Controller

    Cisco CSS Controller gestaltet den Serverlastausgleich von Cisco-Switches anwendungs- und systemspezifisch. Der Controller verwendet für die dynamische Berechnung von Serverwertigkeiten mehr anwendungs- und systemspezifische Metriken. Die Wertigkeiten werden dem Switch über SNMP bereitgestellt. Der Switch nutzt diese Wertigkeiten für die Verarbeitung von Clientanforderungen. Auf diese Weise wird die Auslastung optimiert und die Fehlertoleranz verbessert.

    Wenn Sie die Last optimal auf mehrere Server verteilen und sicherstellen möchten, dass stets der "richtige" Server ausgewählt wird, lesen Sie die folgenden Abschnitte:

    _ Lastausgleich mit Load Balancer optimieren

    _ Advisor-Funktionen und Angepasste (anpassbare) Advisor-Funktionen erstellen

    _ Metric Server

    Fernverwaltung

    _ Wenn Sie Load Balancer nicht von der Maschine aus konfigurieren möchten, auf der Load Balancer installiert ist, lesen Sie den Abschnitt Fernverwaltung von Load Balancer.

    Kollokation

    _ Cisco CSS Controller kann auf derselben Maschine wie ein am Lastausgleich beteiligter Server ausgeführt werden. Dazu sind keine zusätzlichen Konfigurationsschritte erforderlich.

    Hohe Verfügbarkeit

    Cisco CSS Switch und Cisco CSS Controller besitzen beide eine Funktion für hohe Verfügbarkeit an, um die Einschränkungen eines Single Point of Failure für Ihr Netz zu beseitigen. Für den Switch können Sie die hohe Verfügbarkeit mit dem CSS-Redundanzprotokoll nutzen. Für Cisco CSS Controller müssen Sie ein internes Protokoll verwenden, das die Konfiguration von zwei Controllern im fehlertoleranten Modus ermöglicht.

    Weitere Informationen zum Konfigurieren der hohen Verfügbarkeit finden Sie im Abschnitt Hohe Verfügbarkeit.

    Binärprotokollierung

    _ Informationen zur Analyse des Serverdatenverkehrs können Sie dem Abschnitt Binäre Protokolle für die Analyse von Serverstatistiken verwenden entnehmen.

    Alerts

    _ Falls Alerts generiert werden sollen, wenn Server als aktiv oder inaktiv markiert werden, lesen Sie die Informationen im Abschnitt Scripts zum Generieren eines Alerts oder Protokollieren eines Serverausfalls verwenden.


    Features der Komponente Nortel Alteon Controller

    Nortel Alteon Controller gestaltet den Serverlastausgleich für Alteon-Switches von Nortel anwendungs- und systemspezifisch. Der Controller verwendet für die dynamische Berechnung von Serverwertigkeiten mehr anwendungs- und systemspezifische Metriken. Die Wertigkeiten werden dem Switch über SNMP bereitgestellt. Der Switch nutzt diese Wertigkeiten für die Verarbeitung von Clientanforderungen. Auf diese Weise wird die Auslastung optimiert und die Fehlertoleranz verbessert.

    Wenn Sie die Last optimal auf mehrere Server verteilen und sicherstellen möchten, dass stets der "richtige" Server ausgewählt wird, lesen Sie die folgenden Abschnitte:

    _ Lastausgleich mit Load Balancer optimieren

    _ Advisor-Funktionen und Angepasste (anpassbare) Advisor-Funktionen erstellen

    _ Metric Server

    Fernverwaltung

    _ Wenn Sie Load Balancer nicht von der Maschine aus konfigurieren möchten, auf der Load Balancer installiert ist, lesen Sie den Abschnitt Fernverwaltung von Load Balancer.

    Kollokation

    _ Nortel Alteon Controller kann auf derselben Maschine wie ein am Lastausgleich beteiligter Server ausgeführt werden. Dazu sind keine zusätzlichen Konfigurationsschritte erforderlich.

    Hohe Verfügbarkeit

    _ Der Nortel Alteon Web Switch und der Alteon Controller von Nortel bieten eine Funktion für hohe Verfügbarkeit an, um die Einschränkungen eines Single Point of Failure für Ihr Netz zu beseitigen. Für den Switch können Sie die hohe Verfügbarkeit nutzen, indem Sie für Verbindungen zu Servern und für Services ein Redundanzprotokoll verwenden. Für die hohe Verfügbarkeit des Nortel Alteon Controller müssen Sie ein internes Protokoll verwenden, das die Konfiguration von zwei Controllern im fehlertoleranten Modus ermöglicht.

    Weitere Informationen zum Konfigurieren der hohen Verfügbarkeit finden Sie im Abschnitt Hohe Verfügbarkeit.

    Binärprotokollierung

    _ Informationen zur Analyse des Serverdatenverkehrs können Sie dem Abschnitt Binäre Protokolle für die Analyse von Serverstatistiken verwenden entnehmen.

    Alerts

    _ Falls Alerts generiert werden sollen, wenn Server als aktiv oder inaktiv markiert werden, lesen Sie die Informationen im Abschnitt Scripts zum Generieren eines Alerts oder Protokollieren eines Serverausfalls verwenden.


    Load Balancer installieren

    Dieses Kapitel enthält Informationen zur Installation von Load Balancer mit den System-Tools für Paketinstallation und zu den Voraussetzungen für alle unterstützten Betriebssysteme.

    Anweisungen für die Installation mit dem Installationsprogramm des Produkts können Sie dem Dokument Edge Components Konzepte, Planung und Installation entnehmen.

    Java 2 SDK wird auf allen Plattformen automatisch mit Load Balancer installiert.

    Wenn Sie vor der Installation eine frühere Version von Load Balancer migrieren oder ein Betriebssystem erneut installieren möchten, können Sie Ihre bisherigen Konfigurationsdateien oder Scriptdateien für Load Balancer sichern.

    Die in diesem Abschnitt aufgelisteten Pakete mit Load-Balancer-Komponenten stehen nicht für alle Installationsarten zur Verfügung.


    Systemvoraussetzungen und Installation unter AIX

    Voraussetzungen für AIX-Systeme

    Informationen zu den Hardware- und Softwarevoraussetzungen, einschließlich der unterstützten Browser, finden Sie auf der folgenden Webseite: http://www.ibm.com/support/docview.wss?rs=180&uid=swg27006921.

    Installation auf AIX-Systemen

    In Tabelle1 sind die installp-Images für Load Balancer in der Reihenfolge aufgelistet, in der sie mit dem System-Tool für Paketinstallation installiert werden sollten.

    Tabelle 1. installp-Images für AIX

    Basisproduktibmlb.base.rte
    Administration (mit Nachrichten)
    • ibmlb.admin.rte
    • ibmlb.msg.Sprache.admin

    Einheitentreiberibmlb.lb.driver
    Lizenzibmlb.lb.license
    Load-Balancer-Komponenten (mit Nachrichten)
    • ibmlb.Komponente.rte
    • ibmlb.msg.Sprache.lb

    Dokumentation (mit Nachrichten)
    • ibmlb.doc.rte
    • ibmlb.msg.en_US.doc

    Metric Server ibmlb.ms.rte

    Komponente kann folgende Werte annehmen: disp (Dispatcher), cbr (CBR), ss (Site Selector), cco (Cisco CSS Controller) oder nal (Nortel Alteon Controller). Wählen Sie (optional) die Komponenten aus, die Sie installieren möchten.

    Sprache kann folgende Werte annehmen:

    Das Dokumentationspaket enthält nur englische Dokumente. Übersetzungen des Load-Balancer-Dokumentationssets finden Sie auf der Website www.ibm.com/software/webservers/appserv/ecinfocenter.html.

    Installation vorbereiten

    Haben Sie eine frühere Version installiert, entfernen Sie die Installation dieser Kopie, bevor Sie die aktuelle Version installieren. Vergewissern Sie sich zunächst, dass alle Steuerprogramme und Server gestoppt wurden. Geben Sie dann installp -u ibmlb (oder den früheren Namen, z. B. intnd) ein, um die Installation des gesamten Produkts zu entfernen. Wenn Sie bestimmte Dateigruppen deinstallieren möchten, listen Sie diese an Stelle des Paketnamens einzeln auf.

    Bei der Installation des Produkts können Sie auswählen, ob Sie nur bestimmte oder alle der in der folgenden Liste aufgeführten Optionen installieren wollen:

    Installationsschritte

    Führen Sie die folgenden Schritte aus, um Load Balancer auf AIX-Systemen zu installieren:

    1. Melden Sie sich als Root an.
    2. Legen Sie den Datenträger mit dem Produkt ein oder, falls Sie das Produkt aus dem Web installieren, kopieren Sie die Installationsimages in ein Verzeichnis.
    3. Installieren Sie das Installationsimage. Installieren Sie Load Balancer für AIX mit SMIT, da in diesem Fall alle Nachrichten automatisch installiert werden.

      Verwendung von SMIT:

      Wählen Sie "Softwareinstallation und Wartung" aus.

      Wählen Sie "Software installieren und aktualisieren" aus.

      Wählen Sie "Gesamte verfügbare Software installieren und aktualisieren" aus.

      Geben Sie die Einheit bzw. das Verzeichnis mit den installp-Images ein.

      Geben Sie in der Zeile "*Zu installierende SOFTWARE" die entsprechende Optionsangabe ein (oder wählen Sie "Liste" aus).

      Klicken Sie auf OK.

      Ist der Befehl vollständig ausgeführt, drücken Sie die Taste für Ende. Wählen Sie dann im Menü Beenden den Eintrag SMIT beenden aus, oder drücken Sie die Taste F12. Wenn Sie SMITTY verwenden, drücken Sie die Taste F10, um das Programm zu beenden.

      Verwendung der Befehlszeile:

      Wenn Sie die Installation von einer CD ausführen, müssen Sie die folgenden Befehle eingeben, um die CD anzuhängen:

      mkdir /cdrom
      mount -v cdrfs -p -r /dev/cd0 /cdrom

      Stellen Sie anhand der folgenden Tabelle fest, welche Befehle Sie eingeben müssen, um die gewünschten Pakete von Load Balancer auf AIX-Systemen zu installieren:

      Tabelle 2. AIX-Installationsbefehle

      Basisproduktinstallp -acXgd Einheit ibmlb.base.rte
      Administration (mit Nachrichten)installp -acXgd Einheit ibmlb.admin.rte ibmlb.msg.language.admin
      Einheitentreiberinstallp -acXgd Einheit ibmlb.lb.driver
      Lizenzinstallp -acXgd Einheit ibmlb.lb.license
      Load-Balancer-Komponenten (mit Nachrichten). Dazu gehören Dispatcher, CBR, Site Selector, Cisco CSS Controller und Nortel Alteon Controller. installp -acXgd Einheit ibmlb.Komponente.rte ibmlb.msg.Sprache.lb
      Dokumentation (mit Nachrichten)installp -acXgd Einheit ibmlb.doc.rte ibmlb.msg.en_US.lb
      Metric Server installp -acXgd Einheit ibmlb.ms.rte

      Einheit steht hier für Folgendes:

      Achten Sie darauf, dass die Ergebnisspalte in der Zusammenfassung für alle installierten Komponenten von Load Balancer jeweils die Angabe ERFOLGREICH enthält. Fahren Sie erst fort, wenn alle ausgewählten Komponenten erfolgreich installiert wurden.

      Anmerkung:
      Wenn Sie für ein installp-Image eine Liste der Dateigruppen einschließlich aller verfügbaren Nachrichtenkataloge generieren möchten, geben Sie Folgendes ein:
      installp -ld Einheit
      

      Einheit steht hier für Folgendes:

      • /cdrom, wenn die Installation von einer CD erfolgt.
      • /dir (das Verzeichnis mit den installp-Images), wenn die Installation von einem Dateisystem aus erfolgt.

      Geben Sie Folgendes ein, um die CD abzuhängen:

      unmount /cdrom
    4. Überprüfen Sie, ob das Produkt installiert ist. Geben Sie den folgenden Befehl ein:
      lslpp -h | grep ibmlb

      Wurde das gesamte Produkt installiert, gibt dieser Befehl Folgendes zurück:

      ibmlb.base.rte
      ibmlb.admin.rte
      ibmlb.lb.driver
      ibmlb.lb.license
      ibmlb.<Komponente>.rte
      ibmlb.doc.rte
      ibmlb.ms.rte
      ibmlb.msg.Sprache.admin
      ibmlb.msg.en_US.doc
      ibmlb.msg.Sprache.lb
       
      

    Einige der Installationspfade von Load Balancer sind im Folgenden aufgelistet:

    Für die Fernverwaltung von Load Balancer über Remote Method Invocation (RMI) müssen Sie die Verwaltungs-, Basis-, Komponenten- und Lizenzpakete auf dem Client installieren. Informationen zu RMI finden Sie im Abschnitt Remote Method Invocation (RMI).


    Systemvoraussetzungen und Installation unter HP-UX

    Voraussetzungen für HP-UX-Systeme

    Informationen zu den Hardware- und Softwarevoraussetzungen, einschließlich der unterstützten Browser, finden Sie auf der folgenden Webseite: http://www.ibm.com/support/docview.wss?rs=180&uid=swg27006921.

    Installing auf HP-UX-Systemen

    In den folgenden Abschnitten wird erklärt, wie Load Balancer auf HP-UX-Systemen von der Produkt-CD installiert wird.

    Installation vorbereiten

    Vergewissern Sie sich vor Beginn des Installationsverfahrens, dass Sie die Root-Berechtigung für die Installation der Software haben.

    Haben Sie eine frühere Version installiert, sollten Sie die Installation dieser Kopie entfernen, bevor Sie die aktuelle Version installieren. Vergewissern Sie sich zunächst, dass das Steuerprogramm und der Server gestoppt wurden. Verwenden Sie anschließend zum Deinstallieren von Load Balancer den Abschnitt Anweisungen für die Deinstallation der Pakete.

    Installationsschritte

    In Tabelle 3 sind die Namen der Installationspakete für Load Balancer in der Reihenfolge aufgelistet, in der sie mit dem System-Tool für Paketinstallation installiert werden sollten.

    Tabelle 3. Details zur Paketinstallation von Load Balancer unter HP-UX

    Paketbeschreibung Name des HP-UX-Pakets
    Basisproduktibmlb.base
    Verwaltung und Nachrichten ibmlb.admin ibmlb.nlv-Sprache
    Lizenz für Load Balanceribmlb.lic
    Load-Balancer-Komponentenibmlb.Komponente
    Dokumentationibmlb.doc
    Metric Server ibmlb.ms

    Anmerkung:

    1. Die Variable Sprache muss durch einen der folgenden sprachspezifischen Codes ersetzt werden: de_DE, en_US, es_ES, fr_FR, it_IT, ja_JP, ko_KR, zh_CN, zh_TW.

    2. Die Variable Komponente muss durch einen der folgenden Werte ersetzt werden: disp (Dispatcher), cbr (CBR), ss (Site Selector), cco (Cisco CSS Controller) oder nal (Nortel Alteon Controller).

    3. Das Dokumentationspaket (ibmlb.doc) enthält nur englische Dokumente. Übersetzungen des Load-Balancer-Dokumentationssets finden Sie auf der Website www.ibm.com/software/webservers/appserv/ecinfocenter.html.

    Anmerkung:
    HP-UX-Systeme bieten keine Unterstützung für brasilianisches Portugiesisch (pt_BR). Folgende Landessprachen werden von HP-UX-Systemen unterstützt:

    Anweisungen für die Installation der Pakete

    Nachfolgend sind die Schritte aufgeführt, die zur vollständigen Ausführung dieser Task erforderlich sind.

    1. Melden Sie sich als lokaler Superuser Root an.
      su - root
      Password: Kennwort
      
    2. Setzen Sie den folgenden Installationsbefehl für die Installation der Pakete ab:

      swinstall -s /Quelle Paketname
      

      Hier steht Quelle für den absoluten Verzeichnispfad zur Position des Pakets und Paketname für den Namen des Pakets.

      Der folgende Befehl installiert nur das Basispaket für Load Balancer (ibmlb.base) vom Ausgangsverzeichnis der CD aus:

      swinstall -s /Quelle ibmlb.base
      

      Setzen Sie den folgenden Befehl ab, wenn Sie alle Pakete für Load Balancer vom Ausgangsverzeichnis der CD aus installieren möchten:

      swinstall -s /Quelle ibmlb
      
    3. Überprüfen Sie die Installation der Load-Balancer-Pakete.

      Setzen Sie den Befehl swlist ab, um alle installierten Pakete aufzulisten. Beispiel:

      swlist -l fileset ibmlb
       
      

    Anweisungen für die Deinstallation der Pakete

    Verwenden Sie zum Deinstallieren der Pakete den Befehl swremove. Entfernen Sie die Pakete in der umgekehrten Reihenfolge, in der sie installiert wurden. Setzen Sie beispielsweise die folgenden Befehle ab:


    Systemvoraussetzungen und Installation unter Linux

    Voraussetzungen für Linux-Systeme

    Die Hardware- und Softwarevoraussetzungen, einschließlich der unterstützten Browser, finden Sie auf der folgenden Webseite: http://www.ibm.com/support/docview.wss?rs=180&uid=swg27006921.

    Installation auf Linux-Systemen

    In den folgenden Abschnitten wird erklärt, wie Load Balancer auf Linux-Systemen von der Produkt-CD installiert wird.

    Installation vorbereiten

    Vergewissern Sie sich vor Beginn des Installationsverfahrens, dass Sie die Root-Berechtigung für die Installation der Software haben.

    Falls Sie eine frühere Version installiert haben, sollten Sie diese Kopie vor Installation der aktuellen Version deinstallieren.Deinstallierenunter Linux Vergewissern Sie sich zunächst, dass alle Steuerprogramme und Server gestoppt wurden. Geben Sie anschließend rpm -e Paketname ein, um das gesamte Produkt zu deinstallieren. Bei der Deinstallation ist die Reihenfolge umzukehren, die für die Installation der Pakete verwendet wurde. Damit wird sichergestellt, dass die Administrationspakete zuletzt deinstalliert werden.

    Installationsschritte

    Gehen Sie wie folgt vor, um Load Balancer zu installieren:

    1. Bereiten Sie die Installation vor.
    2. Überprüfen Sie, ob das Produkt installiert ist. Geben Sie den folgenden Befehl ein:

      rpm -qa | grep ibmlb

      Wurde das gesamte Produkt installiert, wird eine Liste wie die folgende generiert:

    Für die Fernverwaltung von Load Balancer über Remote Method Invocation (RMI) müssen Sie die Verwaltungs-, Basis-, Komponenten- und Lizenzpakete auf dem Client installieren. Informationen zu RMI finden Sie im Abschnitt Remote Method Invocation (RMI).


    Systemvoraussetzungen und Installation unter Solaris

    Voraussetzungen für Solaris

    Informationen zu den Hardware- und Softwarevoraussetzungen, einschließlich der unterstützten Browser, finden Sie auf der folgenden Webseite: http://www.ibm.com/support/docview.wss?rs=180&uid=swg27006921.

    Installation auf Solaris-Systemen

    In den folgenden Abschnitten wird erklärt, wie Load Balancer auf Solaris-Systemen von der Produkt-CD installiert wird.

    Installation vorbereiten

    Vergewissern Sie sich vor Beginn des Installationsverfahrens, dass Sie die Root-Berechtigung für die Installation der Software haben.

    Haben Sie eine frühere Version installiert, entfernen Sie die Installation dieser Kopie, bevor Sie die aktuelle Version installieren. Vergewissern Sie sich zunächst, dass alle Steuerprogramme (Executors) und Server gestoppt wurden. Geben Sie anschließend zum Deinstallieren von Load Balancer den Befehl "pkgrm Paketname" ein.

    Installationsschritte

    Gehen Sie wie folgt vor, um Load Balancer zu installieren:

    1. Bereiten Sie die Installation vor.

      Geben Sie an der Eingabeaufforderung pkgadd -d Pfadname" ein. Dabei ist Pfadname der Einheitenname des CD-ROM-Laufwerks oder das Verzeichnis auf dem Festplattenlaufwerk, in dem sich das Paket befindet. Beispiel: pkgadd -d /cdrom/cdrom0/.

      Die folgende Liste zeigt die erforderlichen Pakete und die Reihenfolge, in der sie installiert werden sollten.

      Das Dokumentationspaket (ibmlbdoc) enthält nur englische Dokumente. Übersetzungen des Load-Balancer-Dokumentationssets finden Sie auf der Website www.ibm.com/software/webservers/appserv/ecinfocenter.html.

      Sollen alle Pakete installiert werden, geben Sie einfach "all" ein, und drücken Sie die Eingabetaste. Sollen einzelne Komponenten installiert werden, geben Sie die Namen der zu installierenden Pakete durch ein Leerzeichen oder Komma getrennt ein, und drücken Sie anschließend die Eingabetaste. Möglicherweise werden Sie aufgefordert, Berechtigungen für vorhandene Verzeichnisse oder Dateien zu ändern. Drücken Sie einfach die Eingabetaste, oder antworten Sie mit "yes". Sie müssen vorausgesetzte Pakete installieren (da die Installation in alphabetischer Reihenfolge und nicht in der Reihenfolge der vorausgesetzten Pakete erfolgt). Haben Sie "all" eingegeben, antworten Sie auf alle Eingabeaufforderungen mit "yes". Die Installation wird dann erfolgreich ausgeführt.

      Wenn Sie beispielsweise nur die Komponente Dispatcher mit der Dokumentation und Metric Server installieren möchten, müssen Sie die Pakete ibmlbbase, ibmlbadm, imblblic, ibmdisp, ibmlbdoc und ibmlbms installieren.

      Für die Fernverwaltung von Load Balancer über Remote Method Invocation (RMI) müssen Sie die Verwaltungs-, Basis-, Komponenten- und Lizenzpakete auf dem Client installieren. Informationen zu RMI finden Sie im Abschnitt Remote Method Invocation (RMI).

      Für Load Balancer gelten die folgenden Installationspfade:

    2. Überprüfen Sie, ob das Produkt installiert ist. Setzen Sie den folgenden Befehl ab: pkginfo | grep ibm.

    Systemvoraussetzungen und Installation unter Windows

    Voraussetzungen für Windows-Systeme

    Informationen zu den Hardware- und Softwarevoraussetzungen, einschließlich der unterstützten Browser, finden Sie auf der folgenden Webseite: http://www.ibm.com/support/docview.wss?rs=180&uid=swg27006921.

    Installation auf Windows-Systemen

    In den folgenden Abschnitten wird erklärt, wie Load Balancer auf Windows-Systemen von der Produkt-CD installiert wird.

    Installationspakete

    Es wird eine Liste mit Paketen angezeigt, die installiert werden können:

    Für die Fernverwaltung von Load Balancer über Remote Method Invocation (RMI) müssen Sie die Verwaltungs-, Lizenz- und Komponentenpakete auf dem Client installieren. Informationen zu RMI finden Sie im Abschnitt Remote Method Invocation (RMI).

    Installation vorbereiten

    Einschränkungen: Die Windows-Version von Load Balancer kann nicht auf derselben Maschine wie IBM Firewall installiert werden.

    Vergewissern Sie sich vor Beginn der Installation, dass Sie als Administrator oder Benutzer mit Administratorberechtigung angemeldet sind.

    Falls Sie eine frühere Version installiert haben, sollten Sie diese Kopie vor Installation der aktuellen Version deinstallieren.Deinstallierenunter Linux Gehen Sie zum Deinstallieren mit der Option Software wie folgt vor:

    1. Klicken Sie auf Start > Einstellungen (für Windows 2000) > Systemsteuerung.
    2. Klicken Sie doppelt auf Software.
    3. Wählen Sie IBM WebSphere Edge Components (oder den früheren Namen, z. B. IBM Edge Server) aus.
    4. Klicken Sie auf die Schaltfläche Ändern/Entfernen.

    Installationsschritte

    Gehen Sie wie folgt vor, um Load Balancer zu installieren:

    1. Legen Sie die CD-ROM mit Load Balancer in das CD-ROM-Laufwerk ein. Das Installationsfenster sollte automatisch angezeigt werden.
    2. Der folgende Schritt ist nur erforderlich, wenn die automatische Ausführung der CD auf Ihrem Computer nicht funktioniert. Verwenden Sie für die folgenden Tasks die erste (linke) Maustaste:
    3. Wählen Sie die Sprache aus, die für den Installationsprozess verwendet werden soll.
    4. Klicken Sie auf OK.
    5. Befolgen Sie die Anweisungen des Installationsprogramms.
    6. Wollen Sie das Ziellaufwerk oder -verzeichnis ändern, klicken Sie auf Durchsuchen.
    7. Sie können "Das gesamte Produkt Load Balancer" oder "Ihre Auswahl der Komponenten" auswählen.
    8. Nach Abschluss der Installation erscheint eine Nachricht, in der Sie aufgefordert werden, vor der Benutzung von Load Balancer einen Warmstart auszuführen. Dies ist erforderlich, um sicherzustellen, dass alle Dateien installiert sind und die Umgebungsvariable IBMLBPATH zur Registrierungsdatenbank hinzugefügt wurde.

    Einige der Installationspfade von Load Balancer sind im Folgenden aufgelistet:


    Load Balancer aktualisieren

    Edge-Components-Fixpacks für die BEtriebssysteme AIX, HP-UX, Linux, Solaris und Microsoft Windows werden über folgende Medien bereitgestellt:

    Informationen zu unterstützten Betriebssystemen finden Sie auf der IBM Unterstützungssite mit den detaillierten Systemvoraussetzungen für WebSphere Application Server.

    Sie finden den Link zu den Refresh-Packs oder Fixpacks für Edge Components unter den empfohlenen Downloads für WebSphere Application Server der IBM Unterstützungssite.

    1. Suchen Sie das Fehlerberichtigungsrelease, auf das Sie das Upgrade durchführen möchten, und folgen Sie dem Link zur Download-Site.
    2. Führen Sie die auf der Site vorhandenen Anweisungen aus, um das Edge-Component-Refresh-Pack herunterzuladen.
    Anmerkung:
    Sie können die aktuellen Fixpacks für Edge Components auch vom FTP-Server von Edge Components herunterladen.

    Load Balancer für die Betriebssysteme AIX, HP-UX, Linux und Solaris aktualisieren

    Vorherige Versionen von Load Balancer deinstallieren

    Bevor Sie das Refresh- bzw. Fixpack installieren, müssen Sie alle vorhandenen Versionen von Load Balancer, die älter sind als die Version, auf die Sie das Upgrade durchführen möchten, stoppen und deinstallieren.

    1. Rufen Sie eine Eingabeaufforderung mit Root-Berechtigung auf.
    2. Sichern Sie alle Dateien in einem anderen Verzeichnis, das Sie im Installationsverzeichnis von Load Balancer erstellt haben. Sie sollten auch alle Konfigurationsscripts von Load Balancer sichern.
    3. Stoppen Sie die Executor-Funktion von Load Balancer mit dem folgenden Befehl:
      dscontrol executor stop
      

      Die Executor-Funktion von Load Balancer kann aktiv sein, selbst wenn dsserver gestoppt ist. Wenn Sie eine Nachricht empfangen, dass dsserver nicht aktiv ist, starten Sie dsserver, und setzen Sie dann den Befehl erneut ab.

    4. Stoppen Sie dsserver mit dem folgenden Befehl:
      dsserver stop
    5. Deinstallieren Sie alle Load-Balancer-Pakete mit den in der folgenden Tabelle aufgelisteten systemspezifischen Befehlen.

    Tabelle 4. Systemspezifische Befehle für die Deinstallation von Load Balancer

    Systemspezifische Befehle für die Deinstallation von Load Balancer
    Plattform Befehle
    AIXDeinstallieren Sie alle Load-Balancer-Produktpakete mit dem folgenden Befehl:
    installp -u ibmlb
    
    HP-UXDeinstallieren Sie alle Load-Balancer-Produktpakete mit dem folgenden Befehl:
    swremove ibmlb
    
    Linux
    1. Verwenden Sie den folgenden, um nach Load-Balancer- oder zugehörigen Paketen zu suchen, die bereits installiert wurden:
      rpm -qa | grep ibmlb
      
    2. Deinstallieren Sie jedes Load-Balancer-Paket. Verwenden Sie den folgenden Befehl:
      rpm -e Paketname
      

      Paketname steht hier für den Namen des jeweiligen Load-Balancer-Pakets.

    Anmerkung:
    Zum Deinstallieren einzelner Pakete müssen Sie die Pakete in der umgekehrten Reihenfolge, in der sie installiert wurden, deinstallieren.
    Solaris
    1. Verwenden Sie den folgenden, um nach Load-Balancer- oder zugehörigen Paketen zu suchen, die bereits installiert wurden:
      pkginfo | grep ibmlb
      
    2. Deinstallieren Sie jedes Load-Balancer-Paket. Verwenden Sie den folgenden Befehl:
      pkgrm Paketname
      

      Paketname steht hier für den Namen des jeweiligen Load-Balancer-Pakets.

    Refresh-Pack oder Fixpack für Load Balancer installieren

    Wenn Load Balancer nicht installiert ist, müssen Sie nur die Lizenzdatei für Load Balancer (lb70Full.LIC) installieren, bevor Sie ein Refresh- oder Fixpack installieren. Sie erhalten die Lizenz, indem Sie das Lizenzpaket für Load Balancer installieren.

    Gehen Sie zum Installieren eines Fix- oder Refresh-Packs wie folgt vor:

    1. Rufen Sie eine Eingabeaufforderung mit Root-Berechtigung auf.
    2. Laden Sie das Refresh-Pack bzw. Fixpack für Load Balancer in ein temporäres Verzeichnis herunter.
    3. Dekomprimieren und entpacken Sie das Build-Paket. Daraufhin werden verschiedene einzelne Dateien entpackt.
    4. Installieren Sie die Software mit den systemspezifischen Befehlen, die in der folgenden Tabelle aufgelistet sind. Die Reihenfolge, in der Sie die Dateien installieren müssen, können Sie dem Abschnitt Liste der Pakete entnehmen.

      Tabelle 5. Systemspezifische Befehle für die Installation eines Refresh- oder Fixpacks

      Systemspezifische Befehle für die Installation eines Refresh- oder Fixpacks
      System Befehle
      AIX
      1. Generieren Sie mit dem folgenden Befehl eine Datei mit der Erweiterung ".toc", sofern diese nicht vorhanden ist:
        inutoc
      2. Installieren Sie die Pakete für Load Balancer. Setzen Sie beispielsweise den folgenden Befehl ab, um das Basispaket aus dem aktuellen Verzeichnis zu installieren:
        installp -acXd . ibmlb.base.rte
        
      HP-UX
      swinstall -s /Quelle Paketname
      

      Hier steht Quelle für das Verzeichnis zur Position des Pakets und Paketname für den Namen des Pakets.

      Setzen Sie beispielsweise den folgenden Befehl ab, um das Basispaket aus dem aktuellen Verzeichnis zu installieren:

      swinstall -s /lb ibmlb.base
      
      Linux
      rpm -iv Paketname
      

      Paketname steht für den Namen des Pakets.

      Der folgende Befehl installiert beispielsweise alle Pakete für Load Balancer, wenn sich die Pakete im aktuellen Verzeichnis befinden:

      rpm -iv ibmlb*.rpm
      
      Anmerkung:
      Sie können die Option -nodeps verwenden, um alle Pakete in beliebiger Reihenfolge erfolgreich zu installieren.
      Solaris
      pkgadd -d Pfadname Paketname
      

      Hier steht Pfadname für das Verzeichnis zur Position des Pakets und Paketname für den Namen des Pakets.

      Setzen Sie beispielsweise den folgenden Befehl ab, um das Verwaltungspaket aus dem aktuellen Verzeichnis zu installieren:

      pkgadd -d . ibmlbadm
      
    5. Stellen Sie alle Konfigurationsdateien und die Startscripts wieder her, die Sie während einer vorherigen Deinstallation gespeichert oder geändert haben.

    In dieser Tabelle sind alle Pakete, die mit Edge Components geliefert werden, in der erforderlichen Installationsreihenfolge aufgelistet. Installieren Sie die Pakete, die im Refresh- bzw. Fixpack enthalten sind, entsprechend der in der folgenden Tabelle angegebenen Reihenfolge.

    Anmerkung:
    Es werden nicht alle hier aufgelisteten Pakete mit dem Refresh- bzw. Fixpack geliefert. Aktualisieren Sie nur die Pakete, die mit dem Refresh- bzw. Fixpack geliefert werden und bereits auf Ihrem System installiert waren.

    Tabelle 6. Liste der Pakete

    Liste der Pakete
    Installierte Komponenten (Generisch aufgelistete) Pakete in dieser Reihenfolge aktualisieren
    • Dispatcher
    • Content Based Routing
    • Site Selector
    • Cisco CSS Controller
    • Nortel Alteon Controller
    • Metric Server
    • Dokumentation zu Load Balancer

    1. Basisprodukt
    2. Verwaltung
    3. Lizenz
    4. Einheitentreiber (nur AIX)
    5. LB-Komponenten
    6. Metric Server
    7. Dokumentation zu Load Balancer (Sprache)

    Dokumentation zu Edge Components doc-Sprache

    Load Balancer unter dem Betriebssystem Windows aktualisieren

    Verwenden Sie das Setup-Programm für Edge Components für das Upgrade wie folgt:

    1. Wenn Sie verhindern möchten, dass die derzeit installierte Version von Load Balancer gestartet wird, müssen Sie alle Startscripts bearbeiten, die Sie erstellt haben, und vorübergehend alle Befehle unterdrücken, die bewirken, dass Load Balancer nach einem Warmstart gestartet wird.
    2. Stellen Sie sicher, dass der Load-Balancer-Dienst auf Manuell eingestellt ist.
    3. Starten Sie Ihre Windows-Maschine erneut.
    4. Laden Sie das Refresh- oder Fixpack für Edge Components herunter.
    5. Verwenden Sie die Option "Software" in der Windows-Systemsteuerung, um die aktuelle Load-Balancer-Komponente zu deinstallieren.
    6. Führen Sie das Installationsprogramm mit einer der folgenden Aktionen aus:
      1. Führen Sie an einer Eingabeaufforderung die folgenden Aktionen aus:
        1. Wechseln Sie in das Verzeichnis "/lb", und geben Sie "setup" ein.
        2. Für ein Refresh-Pack wechseln Sie in das Verzeichnis "/lb", und geben Sie "setup" ein. Für ein Load-Balancer-Fixpack entpacken Sie das heruntergeladene Paket in einem Ordner, und geben Sie anschließend in diesem Ordner "setup" ein.
      2. Führen Sie im Menü "Start" die folgenden Aktionen aus:
        1. Klicken Sie auf "Ausführen".
        2. Klicken Sie auf "Durchsuchen".
          • Wenn Sie Caching Proxy und Load Balancer oder nur Caching Proxy installieren möchten, wählen Sie das Verzeichnis aus, das die Installationsdateien für Ihr Betriebssystem enthält, und wählen Sie "setup" aus.
          • Gehen Sie wie folgt vor, wenn Sie nur Load Balancer installieren möchten:
            1. Für ein Refresh-Pack wechseln Sie in das Verzeichnis "/lb", und wählen Sie "setup" aus. Ein Fixpack für Load Balancer enthält nur die Installationsdateien für Load Balancer, aber nicht den Ordner "/lb". Wählen Sie die Installationsdateien für Ihr Betriebssystem aus, und wählen Sie "setup" aus.
        3. Klicken Sie auf "Öffnen".
        4. Klicken Sie auf "OK".
    7. Geben Sie die vom Installationsprogramm angeforderten Informationen ein.

    Aktualisierung zurückweisen

    Wenn das Refresh- bzw. Fixpack entfernt wird, werden bei den meisten Komponenten die Konfigurationsdateien im Verzeichnis "oldfiles/Komponente" gespeichert. Sie können diese Konfigurationsdateien mit der reinstallierten Version des Produkts verwenden, um die Konfiguration mit dem Patch-Code in der Version ohne den Patch-Code beizubehalten. Für die Komponente Load Balancer müssen Sie die Konfigurationsdateien manuell speichern, um die Konfiguration mit dem Patch-Code beizubehalten.


    Komponente Dispatcher

    Dieser Teil enthält Informationen zu einer schnellen Erstkonfiguration sowie zur Planung und beschreibt die Konfigurationsmethoden für die Komponente Dispatcher von Load Balancer. Zu diesem Teil gehören die folgenden Kapitel:


    Schnellkonfiguration

    Dieses Beispiel zeigt die Konfiguration von drei lokal angeschlossenen Workstations, die die Weiterleitungsmethode "mac" der Komponente Dispatcher verwenden, um den Webdatenverkehr auf zwei Webserver zu verteilen. Für die Verteilung des Datenverkehrs einer anderen TCP-Anwendung oder einer kontextlosen UDP-Anwendung würde die Konfiguration im Wesentlichen genauso aussehen.

    Abbildung 8. Einfache lokale Dispatcher-Konfiguration

    Abbildung, die einen Client, eine Internetwolke, eine Load-Balancer-Maschine und zwei lokal abgeschlossene Server mit angegebenen Adressen zeigt.

    Die mac-Weiterleitung ist die Standardweiterleitungsmethode, bei der der Dispatcher eingehende Anforderungen auf die Server verteilt und der jeweilige Server die Antwort direkt an den Client zurückgibt. Weitere Informationen zur Dispatcher-Weiterleitungsmethode "mac" finden Sie im Abschnitt Dispatcher-Weiterleitungsmethode MAC.

    Anmerkung:
    Für die Konfiguration reichen zwei Workstations. Der Dispatcher befindet sich dabei auf einer der Webserverworkstations. Dies wäre dann eine verknüpfte Konfiguration. Prozeduren für das Erstellen komplexer Konfigurationen finden Sie im Abschnitt Dispatcher-Maschine konfigurieren.

    Voraussetzungen

    In dem Beispiel für einen schnellen Start werden drei Workstations und vier IP-Adressen benötigt. Eine Workstation ist die CBR-Maschine, und die beiden anderen Workstations sind die Webserver. Jeder Webserver benötigt eine IP-Adresse. Die Dispatcher-Workstation muss zwei Adressen haben: die NFA (Non-Forwarding Address) und die Clusteradresse (für den Lastausgleich). Beide Adressen werden den Clients für den Zugriff auf Ihre Website zur Verfügung gestellt.

    Anmerkung:
    Die NFA ist die Adresse, die vom Befehl hostname zurückgegeben wird. Sie ist für Verwaltungszwecke (z. B. für die Fernkonfiguration) bestimmt.

    Vorbereitungen

    1. Konfigurieren Sie Ihre Workstations für dieses Beispiel mit lokalem Anschluss so, dass sie sich innerhalb eines LAN-Segments befinden. Stellen Sie sicher, dass der Datenaustausch im Netz zwischen den drei Maschinen nicht über Router oder Brücken erfolgen muss. (Informationen zu Konfigurationen mit fernen Servern finden Sie im Abschnitt Dispatcher-WAN-Unterstützung konfigurieren.)
    2. Konfigurieren Sie die Netzwerkadapter der drei Workstations. In diesem Beispiel wird die folgende Netzkonfiguration angenommen:
      WorkstationNameIP-Adresse
      1 server1.Intersplashx.com9.47.47.101
      2 server2.Intersplashx.com9.47.47.102
      3 server3.Intersplashx.com9.47.47.103
      Netzmaske = 255.255.255.0

      Jede Workstation enthält nur eine Standard-Ethernet-Netzschnittstellenkarte.

    3. Stellen Sie sicher, dass server1.Intersplashx.com Ping-Aufrufe an server2.Intersplashx.com und server3.Intersplashx.com senden kann.
    4. Stellen Sie sicher, dass server2.Intersplashx.com und server3.Intersplashx.com Ping-Aufrufe an server1.Intersplashx.com senden können.
    5. Stellen Sie sicher, dass der Inhalt auf den beiden Webservern (Server 2 und 3) identisch ist. Dies kann durch die Vervielfältigung der Daten auf beiden Workstations, durch die Verwendung eines gemeinsamen Dateisystems wie beispielsweise NFS, AFS oder DFS oder durch eine andere für Ihre Site geeignete Methode erreicht werden.
    6. Stellen Sie sicher, dass die Webserver auf server2.Intersplashx.com und server3.Intersplashx.com betriebsbereit sind. Fordern Sie mit einem Webbrowser Seiten direkt von http://server2.Intersplashx.com und http://server3.Intersplashx.com an.
    7. Definieren Sie eine andere gültige IP-Adresse für dieses LAN-Segment. Dies ist die Adresse, die Sie den Clients zur Verfügung stellen, die auf Ihre Site zugreifen möchten. In diesem Beispiel wird folgende Adresse verwendet:
      Name=www.Intersplashx.com
      IP=9.47.47.104 
      
    8. Konfigurieren Sie die beiden Webserverworkstations so, dass sie Datenverkehr für www.Intersplashx.com akzeptieren.

      Fügen Sie zur Loopback-Schnittstelle von server2.Intersplashx.com und server3.Intersplashx.com einen Aliasnamen für www.Intersplashx.com hinzu.

    9. Löschen Sie alle zusätzlichen Routen, die unter Umständen durch die Festlegung von Aliasnamen auf der Loopback-Schnittstelle erstellt wurden. Weitere Informationen finden Sie im Abschnitt Schritt 2. Überprüfung auf zusätzliche Route.

      Sie haben jetzt alle für die beiden Webserverworkstations erforderlichen Konfigurationsschritte ausgeführt.


    Komponente Dispatcher konfigurieren

    Für den Dispatcher können Sie eine Konfiguration unter Verwendung der Befehlszeile, des Konfigurationsassistenten oder der grafischen Benutzerschnittstelle (GUI) erstellen.

    Anmerkung:
    Die Parameterwerte müssen mit Ausnahme der Parameterwerte für Hostnamen und Dateinamen in englischen Zeichen eingegeben werden.

    Konfiguration über die Befehlszeile

    Führen Sie folgende Schritte aus, wenn Sie die Befehlszeile verwenden:

    1. Starten Sie wie folgt dsserver für den Dispatcher:

    2. Starten Sie die Executor-Funktion von Dispatcher:

      dscontrol executor start

    3. Fügen Sie die Clusteradresse der Dispatcher-Konfiguration hinzu:

      dscontrol cluster add www.Intersplashx.com

    4. Fügen Sie den HTTP-Protokollport der Dispatcher-Konfiguration hinzu: configuration:

      dscontrol port add www.Intersplashx.com:80

    5. Fügen Sie jeden der Webserver der Dispatcher-Konfiguration hinzu:

      dscontrol server add www.Intersplashx.com:80:server2.Intersplashx.com

      dscontrol server add www.Intersplashx.com:80:server3.Intersplashx.com

    6. Konfigurieren Sie wie folgt die Workstation, so dass sie den Datenverkehr für die Clusteradresse akzeptiert:

      dscontrol executor configure www.Intersplashx.com

    7. Starten Sie die Managerfunktion des Dispatchers.

      dscontrol manager start

      Der Dispatcher führt den Lastausgleich jetzt ausgehend von der Serverleistung durch.

    8. Starten Sie wie folgt die Advisor-Funktion des Dispatchers:

      dscontrol advisor start http 80

      Der Dispatcher stellt jetzt sicher, dass keine Clientanforderungen an einen ausgefallenen Webserver gesendet werden.

    Die Basiskonfiguration mit lokal angeschlossenen Servern ist damit vollständig.

    Konfiguration testen

    Testen Sie wie folgt, ob die Konfiguration korrekt ist:

    1. Rufen Sie in einem Webbrowser die Adresse http://www.Intersplashx.com auf. Wenn eine Seite angezeigt wird, funktioniert die Konfiguration.
    2. Laden Sie die Seite erneut im Webbrowser.
    3. Überprüfen Sie die Ergebnisse des folgenden Befehls: dscontrol server report www.Intersplashx.com:80:. Die Einträge der Spalte "Summe Verbindungen" für beide Server sollten addiert 2 ergeben.

    Konfiguration über die grafische Benutzerschnittstelle

    Informationen zur Verwendung der grafischen Benutzerschnittstelle von Dispatcher finden Sie in den Abschnitten GUI und Anhang A. Allgemeine Anweisungen zur grafischen Benutzerschnittstelle.

    Konfigurationsassistent

    Informationen zur Verwendung des Konfigurationsassistenten finden Sie im Abschnitt Konfiguration mit dem Konfigurationsassistenten.


    Typen von Cluster-, Port- und Serverkonfigurationen

    Es gibt viele Möglichkeiten, Load Balancer für die Unterstützung Ihrer Site zu konfigurieren. Wenn Sie für Ihre Site nur einen Hostnamen haben, zu dem alle Kunden eine Verbindung herstellen, können Sie einen Cluster mit Servern definieren. Für jeden dieser Server konfigurieren Sie einen Port, über den Load Balancer kommuniziert. Sehen Sie sich die Abbildung 9 an.

    Abbildung 9. Dispatcher-Beispielkonfiguration mit einem Cluster und zwei Ports

    Einfache Konfiguration

    In diesem Beispiel ist für die Komponente Dispatcher ein Cluster mit der Adresse www.productworks.com definiert. Dieser Cluster hat zwei Ports: Port 80 für HTTP und Port 443 für SSL. Ein Client, der eine Anforderung an http://www.productworks.com (Port 80) richtet, wird einem anderen Server zugeordnet als ein Client, der eine Anforderung an http://www.productworks.com (Port 443) richtet.

    Wenn Ihre Site sehr groß ist und Sie für jedes unterstützte Protokoll mehrere dedizierte Server haben, sollten Sie Load Balancer auf andere Weise konfigurieren. In diesem Fall könnten Sie für jedes Protokoll einen Cluster mit nur einem Port, aber mehreren Servern definieren (siehe Abbildung 10).

    Abbildung 10. Dispatcher-Beispielkonfiguration mit zwei Clustern mit jeweils einem Port

    Konfiguration mit zwei Clustern mit jeweils einem einzigen Port

    In diesem Beispiel für die Komponente Dispatcher sind zwei Cluster definiert: www.productworks.com für Port 80 (HTTP) und www.testworks.com für Port 443 (SSL).

    Wenn Ihre Site Inhalte für mehrere Unternehmen oder Abteilungen bereitstellt, die jeweils mit einem eigenen URL auf Ihre Site zugreifen, muss Load Balancer auf eine dritte Art konfiguriert werden. In diesem Fall könnten Sie für jede Firma oder Abteilung einen Cluster definieren und anschließend die Ports, an denen Verbindungen mit dem jeweiligen URL empfangen werden sollen (siehe Abbildung 11).

    Abbildung 11. Dispatcher-Beispielkonfiguration mit zwei Clustern mit jeweils zwei Ports

    Konfiguration mit zwei Clustern mit jeweils zwei Ports

    In diesem Beispiel für die Komponente Dispatcher wurden für die Sites www.productworks.com und www.testworks.com jeweils zwei Cluster mit Port 80 (HTTP) und Port 23 (Telnet) definiert.


    Planung für Dispatcher

    In diesem Kapitel wird beschrieben, was die für die Planung des Netzes zuständige Person vor der Installation und Konfiguration der Komponente Dispatcher berücksichtigen muss.

    Dieses Kapitel enthält die folgenden Abschnitte:

    Anmerkung:
    Frühere Versionen dieses Produkts liefen unter dem Namen Network Dispatcher. In diesen Versionen war der Dispatcher-Steuerbefehl "ndcontrol". Jetzt ist der Dispatcher-Steuerbefehl dscontrol.

    Überlegungen bei der Planung

    Der Dispatcher setzt sich aus den folgenden Funktionen zusammen:

    Die drei Schlüsselfunktionen des Dispatchers (Executor, Manager und Advisor) kommunizieren miteinander, um die eingehenden Anforderungen auf die Server zu verteilen. Neben Lastausgleichsanforderungen überwacht der Executor die Anzahl neuer, aktiver und beendeter Verbindungen. Der Executor übernimmt auch die Garbage-Collection für beendete oder zurückgesetzte Verbindungen und stellt diese Informationen dem Manager zur Verfügung.

    Der Manager stellt Informationen vom Executor, von den Advisor-Funktionen und von einem Systemüberwachungsprogramm wie Metric Server zusammen. Der Manager passt anhand der erhaltenen Informationen die Wertigkeit der Servermaschinen an den einzelnen Ports an und teilt dem Executor die neue Wertigkeit mit, die dieser dann beim Lastausgleich für neue Verbindungen verwendet.

    Die Advisor-Funktionen überwachen die einzelnen Server am zugeordneten Port, um Antwortzeit und Verfügbarkeit der Server zu ermitteln, und übergeben diese Informationen an den Manager. Die Advisor-Funktionen überwachen zudem, ob ein Server aktiv oder inaktiv ist. Ohne Manager und Advisor-Funktionen wendet der Executor eine Round-Robin-Zeitplanung auf der Basis der aktuellen Serverwertigkeiten an.


    Weiterleitungsmethoden

    Der Dispatcher stellt drei Weiterleitungsmethoden auf Portebene bereit: MAC-Weiterleitung, NAT/NAPT-Weiterleitung und CBR (inhaltsabhängige Weiterleitung).

    Dispatcher-Weiterleitungsmethode "mac"

    Wenn der Dispatcher seine Standardweiterleitungsmethode, die MAC-Weiterleitung, anwendet, werden die eingehenden Anforderungen an den ausgewählten Server weitergeleitet. Der Server gibt die Antwort direkt, d. h. ohne Eingreifen des Dispatchers, an den Client zurück. Bei dieser Methode der Weiterleitung achtet der Dispatcher nur auf den beim Server eingehenden Datenfluss vom Client, nicht aber auf den abgehenden Datenfluss vom Server zum Client. Dies führt zu einer erheblichen Reduzierung der Auswirkungen auf die Anwendung und zu einem verbesserten Durchsatz im Netz.

    Sie können die Weiterleitungsmethode auswählen, wenn Sie mit dem Befehl dscontrol port add Cluster:Port method Wert einen Port hinzufügen. Der Wert für die Standardweiterleitungsmethode ist mac. Die Parameter für die Methode können Sie nur beim Hinzufügen des Ports angeben. Ist der Port hinzugefügt, können Sie die Einstellung für die Weiterleitungsmethode nicht mehr ändern. Weitere Informationen finden Sie im Abschnitt dscontrol port -- Ports konfigurieren.

    Einschränkung für Linux: Linux-Systeme nutzen ein hostgestütztes Modell, um Hardwareadressen über ARP für IP-Adressen zugänglich zu machen. Dieses Modell ist nicht mit den Anforderungen der Load-Balancer-Weiterleitungsmethode "mac" an einen Back-End-Server oder einen verknüpften Server mit hoher Verfügbarkeit kompatibel. Der Abschnitt Alternativen für die Festlegung eines Loopback-Aliasnamens unter Linux bei Verwendung der Load-Balancer-Weiterleitungsmethode "mac" beschreibt eine Reihe von Lösungen, wie Sie das Verhaltens des Linux-Systems so ändern können, dass es mit der Load-Balancer-Weiterleitungsmethode "mac" kompatibel ist.

    Einschränkung für Linux auf zSeries- oder S/390-Servern: Wenn Sie zSeries- oder S/390-Server mit OSA-Karten (Open System Adapter) verwenden, gibt es Einschränkungen. Informationen zu möglichen Problemumgehungen finden Sie im Abschnitt Problem: Einschränkungen für die Dispatcher-Konfiguration unter Linux auf zSeries- oder S/390-Servern mit OSA-Karten.

    Dispatcher-Weiterleitungsmethode NAT/NAPT

    Bei Verwendung der Dispatcher-Methode NAT (Konvertierung von Netzadressen) bzw. NAPT (Portumsetzung für Netzadressen) entfällt die Einschränkung, dass sich die am Lastausgleich beteiligten Server in einem lokal angeschlossenen Netz befinden müssen. Falls Sie Server an fernen Standorten haben, sollten Sie an Stelle einer GRE/WAN-Kapselungstechnik die Weiterleitungsmethode "nat" anwenden. Mit NAPT können Sie außerdem auf mehrere Serverdämonen zugreifen, die sich auf den einzelnen am Lastausgleich beteiligten Servermaschinen befinden und jeweils an einem eindeutigen Port empfangsbereit sind.

    Einen Server mit mehreren Dämonen können Sie auf die beiden folgenden Arten konfigurieren:

    Diese Anwendung funktioniert gut mit höheren Anwendungsprotokollen wie HTTP, SSL, IMAP, POP3, NNTP, SMTP, Telnet usw.

    Einschränkungen:

    Für die Dispatcher-Maschine benötigen Sie drei IP-Adressen: NFA, Clusteradresse und Rückkehradresse. Sie können NAT/NAPT wie folgt implementieren (vergleichen Sie hierzu auch den Abschnitt Beispielschritte für das Konfigurieren der Dispatcher-Weiterleitungsmethoden nat und cbr):

    Dispatcher-Weiterleitungsmethode "cbr"

    Mit der Komponente Dispatcher können Sie das inhaltsbasierte Routing für HTTP (unter Verwendung des Regeltyps "content") und für HTTPS (unter Verwendung der Affinität von SSL-Sitzungs-IDs) ohne Caching Proxy ausführen. Für HTTP- und HTTPS-Datenverkehr ist das inhaltsbasierte Routing der Dispatcher-Weiterleitungsmethode "cbr" schneller als das der Komponente CBR, die Caching Proxy erfordert.

    Für HTTP: Die Serverauswahl für das inhaltsbasierte Routing von Dispatcher basiert auf dem Inhalt eines URL oder eines HTTP-Headers. Sie wird mit dem Regeltyp content konfiguriert. Wenn Sie die Inhaltsregel konfigurieren, geben Sie für die Regel den Suchbegriff (das Muster) und eine Gruppe von Servern an. Beim Verarbeiten einer neu eingehenden Anforderung vergleicht diese Regel die angegebene Zeichenfolge mit dem URL des Clients oder mit dem in der Clientanforderung angegebenen HTTP-Header.

    Findet der Dispatcher die Zeichenfolge in der Clientanforderung, leitet er diese an einen der für die Regel definierten Server weiter. Anschließend gibt der Dispatcher die Antwortdaten vom Server an den Client zurück (Weiterleitungsmethode "cbr").

    Findet der Dispatcher die Zeichenfolge nicht in der Clientanforderung, wählt er keinen der für die Regel definierten Server aus.

    Anmerkung:
    Die Inhaltsregel wird für die Komponente Dispatcher auf die gleiche Weise wie für die Komponente CBR konfiguriert. Der Dispatcher kann die Inhaltsregel für HTTP-Datenverkehr verwenden. Die Komponente CBR kann die Inhaltsregel für HTTP- und HTTPS-Datenverkehr (SSL) verwenden.

    Für HTTPS (SSL): Beim inhaltsbasierten Routing von Dispatcher erfolgt der Lastausgleich ausgehend vom Feld für die SSL-Sitzungs-ID in der Clientanforderung. Bei Verwendung von SSL enthält eine Clientanforderung die SSL-Sitzungs-ID einer früheren Sitzung und Server speichern ihre früheren SSL-Verbindungen im Cache. Durch die Dispatcher-Funktion für Affinität der SSL-Sitzungs-ID können Client und Server eine neue Verbindung aufbauen und dafür die Sicherheitsparameter der vorherigen Verbindung zum Server verwenden. Indem Sie die Neuvereinbarung von SSL-Sicherheitsparametern, wie z. B. gemeinsam genutzten Schlüsseln und Verschlüsselungsalgorithmen, verhindern, werden CPU-Zyklen auf den Servern eingespart, und der Client erhält seine Antwort schneller. Zum Aktivieren der Affinität von SSL-Sitzungs-IDs muss als Protokolltyp für den Port SSL angegeben und der Parameter stickytime für den Port auf einen Wert ungleich null gesetzt werden. Wenn die Haltezeit (stickytime) abgelaufen ist, wird der Client unter Umständen an einen anderen als den vorherigen Server verwiesen.

    Für die Dispatcher-Maschine benötigen Sie drei IP-Adressen: NFA, Clusteradresse und Rückkehradresse. Gehen Sie zum Implementieren des inhaltsbasierten Routings von Dispatcher wie folgt vor (siehe auch Beispielschritte für das Konfigurieren der Dispatcher-Weiterleitungsmethoden nat und cbr):

    Anmerkung:
    Die für eine hohe Verfügbarkeit ausgeführte Vervielfältigung von Verbindungseinträgen stellt sicher, dass die Verbindung eines Clients nicht unterbrochen wird, wenn eine Ausweich-Dispatcher-Maschine die Aufgaben der primären Maschine übernimmt. Diese Vervielfältigung wird bei der inhaltsabhängigen Weiterleitung durch den Dispatcher nicht unterstützt.

    Beispielschritte für das Konfigurieren der Dispatcher-Weiterleitungsmethoden nat und cbr

    Abbildung 12. Beispiel für die Dispatcher-Weiterleitungsmethoden nat und cbr

    Konfiguration für die Verwendung der Dispatcher-Weiterleitungsmethoden nat und cbr

    Sie benötigen mindestens drei IP-Adressen für die Dispatcher-Maschine. Für das Beispiel in Abbildung 12 sind die folgenden Schritte notwendig, um eine Minimalkonfiguration der Dispatcher-Weiterleitungsmethoden nat und cbr zu erzielen:

    1. Starten Sie den Executor.
      dscontrol executor start
     
    2. Definieren Sie das Client-Gateway.
      dscontrol executor set clientgateway 1.2.3.5
      ANMERKUNG: Wenn es in Ihrem Teilnetz keinen lokalen Router gibt, müssen
            Sie eine Maschine für die IP-Weiterleitung konfigurieren und
            diese als Client-Gateway verwenden. Anweisungen für das Aktivieren
            der IP-Weiterleitung finden Sie in der Dokumentation zum Betriebssystem.
     
    3. Definieren Sie die Clusteradresse.
      dscontrol cluster add 1.2.3.44
     
    4. Konfigurieren Sie die Clusteradresse.
      dscontrol executor configure 1.2.3.44
     
    5. Definieren Sie den Port mit der Methode "nat" oder "cbr".
      dscontrol port add 1.2.3.44:80 method nat
    oder
      dscontrol port add 1.2.3.44:80 method cbr protocol http
     
    6. Konfigurieren Sie eine Aliasrückkehradresse für Load Balancer (mit Ethernet-Karte 0).
      Anmerkung: Auf Linux-Systemen benötigen Sie keine Aliasrückkehradresse,
      wenn Sie auf einer verknüpften Maschine die Weiterleitungsmethode "nat" verwenden.
     
      dscontrol executor configure 10.10.10.99
     
      Sie können auch den Befehl "ifconfig" verwenden (nur für Linux oder UNIX):
      AIX: ifconfig en0 alias 10.10.10.99 netmask 255.255.255.0
      HP-UX: ifconfig lan0:1 10.10.10.99 netmask 255.255.255.0 up
      Linux: ifconfig eth0:1 10.10.10.99 netmask 255.255.255.0 up 
      Solaris: ifconfig eri0 addif 10.10.10.99 netmask 255.255.255.0 up
     
    7. Definieren Sie die Back-End-Server.
      dscontrol server add 1.2.3.4:80:192.10.10.10
        router 10.10.10.6 returnaddress 10.10.10.99 
     
    

    Das Client-Gateway (1.2.3.5) ist die Adresse für Router 1 zwischen Load Balancer und dem Client. Der Router (10.10.10.6) ist die Adresse für Router 2 zwischen Load Balancer und dem Back-End-Server. Falls Sie die Adresse für das Client-Gateway und für Router 2 nicht kennen, können Sie ein Routenverfolgungsprogramm (traceroute) mit der Clientadresse (oder Serveradresse) verwenden, um die Router-Adresse zu bestimmen. Die genaue Syntax des Programms richtet sich nach dem von Ihnen verwendeten Betriebssystem. Weitere Informationen zu diesem Programm können Sie der Dokumentation zum Betriebssystem entnehmen.

    Wenn sich der Server in demselben Teilnetz wie Load Balancer befindet (so dass traceroute keine Router zurückgibt), geben Sie die Serveradresse als Router-Adresse ein. Befindet sich der Server jedoch auf derselben Maschine wie Load Balancer, sollten Sie im Feld für die Router-ID an Stelle der Serveradresse die Router-Adresse eingeben. Die Router-Adresse ist die in Schritt 7 auf der Load-Balancer-Maschine für den Befehl "server add" verwendete Adresse.


    Serverpartitionierung - Konfigurieren logischer Server für einen physischen Server (IP-Adresse)

    Bei Anwendung der Serverpartitionierung können Sie zwischen URLs und ihren spezifischen Anwendungen unterscheiden. Ein Webserver kann beispielsweise JSPs, HTML-Seiten und GIF-Dateien bereitstellen, Datenbankabfragen bedienen usw. Load Balancer bietet jetzt die Möglichkeit, einen cluster- und portspezifischen Server in mehrere logische Server zu partitionieren. Dadurch können Sie einen bestimmten Dienst auf der Maschine anweisen festzustellen, ob eine Servlet-Steuerkomponente oder eine Datenbankabfrage schneller oder gar nicht ausgeführt wird.

    Mit der Serverpartitionierung kann Load Balancer z. B. erkennen, dass der HTML-Dienst Seiten schnell bereitstellt, die Datenbankverbindung jedoch nicht mehr aktiv ist. Dadurch können Sie die Last mit größerer detaillierter und dienstspezifisch verteilen und müssen sich nicht auf die Wertigkeit des Gesamtservers verlassen.

    Serverpartitionierung mit der HTTP- oder HTTPS-Advisor-Funktion

    Die Serverpartitionierung kann in Verbindung mit der HTTP- und der HTTPS-Advisor-Funktion hilfreich sein. Wenn Sie beispielsweise einen HTML-Server für HTML- und GIF-Seiten sowie JSPs haben und den Server einmal unter Port 80 definieren (hinzufügen), erhalten Sie für den gesamten HTTP-Server nur einen Lastwert. Dies kann irreführend sein, weil es möglich ist, dass der GIF-Service auf dem Server nicht funktioniert. Der Dispatcher leitet GIF-Seiten unverändert an den Server weiter. Der Client sieht jedoch eine Zeitlimitüberschreitung oder einen Ausfall.

    Wenn Sie den Server dreimal unter dem Port definieren (ServerHTML, ServerGIF, ServerJSP) und den Serverparameter advisorrequest für jeden logischen Server mit einer anderen Zeichenfolge definieren, können Sie den Zustand des jeweiligen Service auf dem Server abfragen. ServerHTML, ServerGIF und ServerJSP repräsentieren die drei logischen Server, die durch die Partitionierung eines physischen Servers entstanden sind. Für ServerJSP können Sie eine Zeichenfolge für advisorrequest definieren, um auf der Maschine zur Bearbeitung von JSPs den Service abzufragen. Für ServerGIF können Sie die Zeichenfolge "advisorrequest" so definieren, dass der GIF-Service abgefragt wird. Und für ServerHTML können Sie advisorrequest so definieren, das der HTML-Service abgefragt wird. Empfängt der Client keine Antwort von advisorrequest zur Abfrage des GIF-Services, registriert der Dispatcher, dass der logische Server (ServerGIF) inaktiv ist, die beiden anderen logischen Server jedoch weiterhin in gutem Zustand sein können. Der Dispatcher leitet keine weiteren GIFs an den physischen Server weiter, sendet jedoch unverändert JSP- und HTML-Anfragen an den Server.

    Weitere Informationen zum Parameter advisorrequest finden Sie im Abschnitt Option "Anforderung/Antwort (URL)" der HTTP- oder HTTPS-Advisor-Funktion konfigurieren.

    Beispiel für das Konfigurieren von logischen Servern auf einem physischen Server

    Innerhalb der Dispatcher-Konfiguration können Sie einen physischen oder logischen Server mit der Hierarchie Cluster:Port:Server darstellen. Der Server kann eine eindeutige IP-Adresse der Maschine (physischer Server) sein, die als symbolischer Name oder im IP-Adressenformat angegeben wird. Wenn Sie den Server als partitionierten Server definieren, müssen Sie den Befehl dscontrol server add mit einer auflösbaren Serveradresse des physischen Servers für den Parameter address angeben. Weitere Informationen finden Sie im Abschnitt dscontrol server -- Server konfigurieren.

    Nachfolgend sehen Sie ein Beispiel für die Partitionierung physischer Server in logische Server zur Bearbeitung von Anforderungen verschiedenen Typs.

    Cluster: 1.1.1.1
            Port:  80
                 Server: A (IP-Adresse 1.1.1.2)
                           HTML-Server
                 Server: B (IP-Adresse 1.1.1.2)
                           GIF-Server
                 Server: C (IP-Adresse 1.1.1.3)
                           HTML-Server
                 Server: D (IP-Adresse 1.1.1.3)
                           JSP-Server
                 Server: E (IP-Adresse 1.1.1.4)
                           GIF-Server
                 Server: F (IP-Adresse 1.1.1.4)
                           JSP-Server
            Rule1: /*.htm
                 Server: A
                 Server: C
            Rule2: /*.jsp
                 Server: D
                 Server: F
            Rule3: /*.gif
                 Server: B
                 Server: E 
    

    In diesem Beispiel wird der Server 1.1.1.2 in zwei logische Server partitioniert: "A" (zur Bearbeitung von HTML-Anforderungen) und "B" (zur Bearbeitung von GIF-Anforderungen). Server 1.1.1.3 wird in zwei logische Server partitioniert: "C" (zur Bearbeitung von HTML-Anforderungen) und "D" (zur Bearbeitung von JSP-Anforderungen). Server 1.1.1.4 wird in zwei logische Server partitioniert: "E" (zur Bearbeitung von GIF-Anforderungen) und "F" (zur Bearbeitung von JSP-Anforderungen).


    Hohe Verfügbarkeit

    "Einfache hohe Verfügbarkeit

    Abbildung 13. Beispiel für einen Dispatcher mit einfacher hoher Verfügbarkeit

    Konfiguration des Dispatchers mit einfacher hoher Verfügbarkeit

    Die Funktion für hohe Verfügbarkeit erfordert eine zweite Dispatcher-Maschine. Die erste Dispatcher-Maschine führt den Lastausgleich für den gesamten Clientdatenverkehr aus, wie dies in einer Konfiguration mit einem einzelnen Dispatcher geschehen würde. Die zweite Dispatcher-Maschine überwacht den "Zustand" der ersten Maschine und übernimmt die Task des Lastausgleichs, wenn sie erkennt, dass die erste Dispatcher-Maschine ausgefallen ist.

    Jeder der beiden Maschinen wird eine bestimmte Rolle zugewiesen, entweder die der primären Maschine oder die der Ausweichmaschine. Die primäre Maschine sendet ständig Verbindungsdaten an die Partnermaschine. Während die primäre Maschine aktiv ist (den Lastausgleich durchführt), befindet sich die Partnermaschine in Bereitschaft. Sie wird ständig aktualisiert und ist bereit, den Lastausgleich zu übernehmen, falls dies erforderlich ist.

    In den Übertragungssitzungen zwischen den beiden Maschinen werden Überwachungssignale ausgetauscht. Mit Hilfe der Überwachungssignale kann jede Maschine den Zustand der anderen Maschine überwachen.

    Stellt die Ausweichmaschine fest, dass die aktive Maschine ausgefallen ist, übernimmt sie deren Aufgaben und beginnt mit dem Lastausgleich. An diesem Punkt kehrt sich der Status der beiden Maschinen um: die Partnermaschine wird zur aktiven Maschine und die primäre Maschine wird zur Maschine in Bereitschaft.

    In der Konfiguration mit hoher Verfügbarkeit müssen sich die primäre Maschine und die Partnermaschine innerhalb eines Teilnetzes befinden und identisch konfiguriert sein.

    Informationen zum Konfigurieren der hohen Verfügbarkeit finden Sie im Abschnitt Hohe Verfügbarkeit.

    Wechselseitige hohe Verfügbarkeit

    Abbildung 14. Beispiel für einen Dispatcher mit wechselseitiger hoher Verfügbarkeit

    Dispatcher-Konfiguration mit wechselseitiger hoher Verfügbarkeit

    Für die wechselseitige hohe Verfügbarkeit sind zwei Dispatcher-Maschinen erforderlich. Beide Maschinen führen aktiv den Lastausgleich des Clientdatenverkehrs aus und sind gleichzeitig Partnermaschinen. In einer Konfiguration mit einfacher hoher Verfügbarkeit führt nur eine Maschine den Lastausgleich durch. In einer Konfiguration mit wechselseitiger hoher Verfügbarkeit verteilen beide Maschinen einen Teil des Clientdatenverkehrs.

    Bei der wechselseitigen hohen Verfügbarkeit wird der Clientdatenverkehr den Dispatcher-Maschinen auf der Basis einer Clusteradresse zugeordnet. Jeder Cluster kann mit der nicht für Weiterleitungszwecke bestimmten Adresse (NFA, Non-Forwarding Address) seines primären Dispatchers konfiguriert werden. Die primäre Dispatcher-Maschine führt normalerweise den Lastausgleich für diesen Cluster durch. Fällt die Maschine aus, führt die andere Maschine den Lastausgleich für ihren eigenen Cluster und für den Cluster des ausgefallenen Dispatchers durch.

    Abbildung 14 zeigt eine Beispielkonfiguration mit wechselseitiger hoher Verfügbarkeit, bei der die "Clustergruppe A" und die "Clustergruppe B" gemeinsam genutzt werden. Jeder Dispatcher kann aktiv für seinen primären Cluster bestimmte Pakete weiterleiten. Fällt einer der Dispatcher aus, so dass er nicht länger aktiv für seinen primären Cluster bestimmte Pakete weiterleiten kann, übernimmt der andere Dispatcher die Weiterleitung der Pakete zu seinem Ausweichcluster.

    Anmerkung:
    Auf beiden Maschinen müssen die gemeinsam benutzten Clustergruppen identisch konfiguriert werden. Das heißt, die in beiden Konfigurationen verwendeten Ports und die unter den Ports konfigurierten Server müssen identisch sein.

    Informationen zum Konfigurieren der hohen Verfügbarkeit und der gegenseitigen hohen Verfügbarkeit finden Sie im Abschnitt Hohe Verfügbarkeit. .


    Dispatcher konfigurieren

    Lesen Sie vor dem Ausführen der Schritte in diesem Teil den Abschnitt Planung für Dispatcher. Dieses Kapitel erläutert das Erstellen einer Basiskonfiguration für die Komponente Dispatcher von Load Balancer.

    Anmerkung:
    Frühere Versionen dieses Produkts liefen unter dem Namen Network Dispatcher. In diesen Versionen war der Dispatcher-Steuerbefehl "ndcontrol". Jetzt ist der Dispatcher-Steuerbefehl dscontrol.

    Übersicht über Konfigurations-Tasks

    Vergewissern Sie sich vor Ausführung der Konfigurationsschritte in dieser Tabelle, dass die Dispatcher-Maschine und alle Servermaschinen mit dem Netz verbunden sind, gültige IP-Adressen haben und sich gegenseitig mit Ping-Aufrufen erreichen können.

    Tabelle 7. Konfigurations-Tasks für die Funktion Dispatcher

    TaskBeschreibungReferenzinformationen
    Dispatcher-Maschine konfigurieren.

    Definieren Sie die Lastausgleichskonfiguration.

    Dispatcher-Maschine konfigurieren
    Am Lastausgleich beteiligte Maschinen konfigurieren. Definieren Sie einen Aliasnamen auf der Loopback-Einheit. Überprüfen Sie, ob eine zusätzliche Route vorhanden ist, und löschen Sie zusätzliche Routen. Servermaschinen für Lastausgleich konfigurieren

    Konfigurationsmethoden

    Es gibt vier grundlegende Methoden für die Konfiguration des Dispatchers:

    Befehlszeile

    Die Befehlszeile ist die direkteste Methode für die Konfiguration des Dispatchers. Die Werte der Befehlsparameter müssen in englischen Zeichen eingegeben werden. Die einzige Ausnahme hiervon bilden Hostnamen (die in den Befehlen "cluster", "server" und "highavailability" verwendet werden) und (die in Dateibefehlen verwendeten) Dateinamen.

    Starten Sie den Dispatcher wie folgt von der Befehlszeile aus:

    1. Setzen Sie an der Eingabeaufforderung den Befehl dsserver ab. Zum Stoppen des Service geben Sie dsserver stop ein.
      Anmerkung:
      Klicken Sie auf Windows-Systemen auf Start > Einstellungen (für Windows 2000)> Systemsteuerung> Verwaltung > Dienste. Klicken Sie mit der rechten Maustaste auf IBM Dispatcher, und wählen Sie Starten aus. Zum Stoppen des Service führen Sie dieselben Schritte aus, wählen aber Stoppen aus.
    2. Setzen Sie anschließend nacheinander die Dispatcher-Steuerbefehle ab, um Ihre Konfiguration zu definieren. Bei den in diesem Handbuch beschriebenen Prozeduren wird von der Verwendung der Befehlszeile ausgegangen. Der Befehl ist dscontrol. Weitere Informationen zu Befehlen finden Sie im Abschnitt Befehlsreferenz für Dispatcher und CBR.

    Für die Parameter des Befehls "dscontrol" können Sie die Kurzform verwenden. Sie müssen nur die eindeutigen Buchstaben der Parameter eingeben. Beispiel: Wenn Sie Hilfe für den Befehl zum Speichern von Dateien aufrufen möchten, können Sie dscontrol he f an Stelle von dscontrol help file angeben.

    Wenn Sie die Befehlszeilenschnittstelle starten möchten, setzen Sie den Befehl dscontrol ab, um die Eingabeaufforderung dscontrol aufzurufen.

    Sie können die Befehlszeilenschnittstelle verlassen, indem Sie den Befehl exit oder quit absetzen.

    Scripts

    Sie können Befehle zum Konfigurieren des Dispatchers in eine Konfigurationsscriptdatei eingeben und dann zusammen ausführen. Weitere Informationen finden Sie im Abschnitt Load-Balancer-Beispielkonfigurationsdateien.

    Anmerkung:
    Falls Sie den Inhalt einer Scriptdatei (z. B. myscript) schnell ausführen möchten, verwenden Sie einen der folgenden Befehle:

    Führen Sie den folgenden Befehl aus, um die aktuelle Konfiguration in einer Scriptdatei (z. B. savescript) zu speichern:

    dscontrol file save savescript
    

    Dieser Befehl speichert die Konfigurationsscriptdatei im Verzeichnis ...ibm/edge/lb/servers/configurations/dispatcher.

    Grafische Benutzerschnittstelle

    Allgemeine Anweisungen und ein Beispiel zur grafischen Benutzerschnittstelle finden Sie in Abbildung 41.

    Gehen Sie zum Starten der grafischen Benutzerschnittstelle wie folgt vor:

    1. Vergewissern Sie sich, dass dsserver aktiv ist.
    2. Führen Sie je nach Betriebssystem eine der folgenden Aktionen aus:

    Zum Konfigurieren der Dispatcher-Komponente über die grafische Benutzerschnittstelle müssen Sie zunächst in der Baumstruktur Dispatcher auswählen. Sie können den Executor und den Manager starten, nachdem Sie eine Verbindung zu einem Host hergestellt haben. Sie können auch Cluster mit Ports und Servern erstellen und Advisor-Funktionen für den Manager starten.

    Mit der grafischen Benutzerschnittstelle können Sie dieselben Tasks wie mit dem Befehl dscontrol ausführen. Wenn Sie beispielsweise einen Cluster über die Befehlszeile definieren möchten, geben Sie den Befehl dscontrol cluster add Clustername ein. Zum Definieren eines Clusters von der GUI aus müssen Sie mit der rechten Maustaste auf "Executor" klicken und im daraufhin angezeigten Popup-Menü mit der linken Taste auf Cluster hinzufügen. Geben Sie die Clusteradresse in das Dialogfenster ein, und klicken Sie dann auf OK.

    Bereits vorhandene Dispatcher-Konfigurationsdateien können Sie mit der im Popup-Menü Host angezeigten Option Neue Konfiguration laden (zum vollständigen Ersetzen der derzeitigen Konfiguration) oder An aktuelle Konfiguration anfügen (zum Aktualisieren der derzeitigen Konfiguration) laden. Sie sollten Ihre Dispatcher-Konfiguration von Zeit zu Zeit mit der Option Konfigurationsdatei sichern unter in einer Datei sichern. Diese Option ist ebenfalls im Popup-Menü Host enthalten. Das oben in der grafischen Benutzerschnittstelle befindliche Menü Datei bietet Ihnen die Möglichkeit, die aktuellen Hostverbindungen in einer Datei zu speichern oder Verbindungen aus vorhandenen Dateien für alle Komponenten von Load Balancer wiederherzustellen.

    Die Konfigurationsbefehle können auch auf einem fernen System ausgeführt werden. Weitere Informationen finden Sie im Abschnitt Remote Method Invocation (RMI).

    Wenn Sie von der GUI aus einen Befehl ausführen möchten, gehen Sie wie folgt vor: Heben Sie in der GUI-Baumstruktur den Hostknoten hervor, und wählen Sie im Popup-Menü "Host" Befehl senden... aus. Geben Sie im Befehlseingabefeld den gewünschten Befehl ein, z. B. executor report. In einem Fenster sehen Sie die Ergebnisse und die Historie der in der aktuellen Sitzung ausgeführten Befehle.

    Sie können auf Hilfe zugreifen, indem Sie auf das Fragezeichen in der oberen rechten Ecke des Fensters von Load Balancer klicken.

    Weitere Informationen zur Verwendung der grafischen Benutzerschnittstelle finden Sie in Anhang A. Allgemeine Anweisungen zur grafischen Benutzerschnittstelle.

    Konfiguration mit dem Konfigurationsassistenten

    Führen Sie folgende Schritte aus, wenn Sie den Konfigurationsassistenten verwenden:

    1. Starten Sie wie folgt dsserver für den Dispatcher:

    2. Starten Sie den Assistenten des Dispatchers, dswizard.

    Der Assistent führt Sie schrittweise durch den Prozess zum Erstellen einer Basiskonfiguration für die Komponente Dispatcher. Der Assistent stellt Ihnen Fragen zu Ihrem Netz. Sie erhalten eine Anleitung für die Konfiguration eines Clusters, bei der der Dispatcher den Datenverkehr auf eine Gruppe von Servern verteilt.


    Dispatcher-Maschine konfigurieren

    Vor dem Konfigurieren der Dispatcher-Maschine müssen Sie (auf AIX-, HP-UX-, Linux- oder Solaris-Systemen) als Root oder (auf Windows-Systemen) als Administrator registriert sein.

    Auf allen unterstützten Plattformen kann Load Balancer einen verknüpften Server haben. Dies bedeutet, dass sich Load Balancer physisch auf einer Servermaschine befinden kann, für die er einen Lastausgleich durchführt.

    Wenn Sie die Weiterleitungsmethode "mac" anwenden möchten, benötigen Sie für die Dispatcher-Maschine mindestens zwei gültige IP-Adressen. Bei Verwendung der Weiterleitungsmethode "cbr" oder "nat" sind mindestens drei gültige IP-Adressen erforderlich:

    Nur Solaris-Systeme:

    Vergewissern Sie sich, dass die IP-Weiterleitung für das TCP/IP-Protokoll nicht aktiviert ist.

    Abbildung 15 zeigt eine Beispielkonfiguration für einen Dispatcher mit einem einzigen Cluster, zwei Ports und drei Servern.

    Abbildung 15. Beispiel der für die Load-Balancer-Maschine erforderlichen IP-Adressen


    Hilfe zu den in dieser Prozedur verwendeten Befehlen finden Sie im Abschnitt Befehlsreferenz für Dispatcher und CBR.

    Eine Beispielkonfigurationsdatei finden Sie im Abschnitt Beispielkonfigurationsdateien für Load Balancer.

    Schritt 1. Serverfunktion starten

    AIX-, HP-UX-, Linux- oder Solaris-Systeme: Geben Sie zum Starten der Serverfunktion dsserver ein.

    Windows-Systeme: Die Serverfunktion wird automatisch als Dienst gestartet.

    Anmerkung:
    Eine Standardkonfigurationsdatei (default.cfg) wird beim Starten von dsserver automatisch geladen. Entscheidet der Benutzer, dass die Dispatcher-Konfiguration in default.cfg gesichert werden soll, werden alle in dieser Datei gesicherten Daten automatisch geladen, wenn dsserver das nächste Mal gestartet wird.

    Schritt 2. Executor-Funktion starten

    Geben Sie zum Starten der Executor-Funktion den Befehl dscontrol executor start ein. Sie können jetzt auch verschiedene Executor-Einstellungen ändern. Weitere Informationen finden Sie im Abschnitt Befehlsreferenz für Dispatcher und CBR.

    Schritt 3. NFA definieren (falls vom Hostnamen abweichend)

    Die NFA wird benutzt, um zu Verwaltungszwecken (z. B. für die Verwendung von Telnet oder SMTP) eine Verbindung zur Maschine herzustellen. Standardmäßig ist diese Adresse der Hostname.

    Geben Sie zum Definieren der NFA den Befehl dscontrol executor set nfa IP-Adresse ein oder editieren Sie die Beispielkonfigurationsdatei. Die IP-Adresse ist entweder ein symbolischer Name oder die IP-Adresse.

    Schritt 4. Cluster definieren und Clusteroptionen festlegen

    Der Dispatcher verteilt die Last der an die Clusteradresse gesendeten Anforderungen auf die für die Ports dieses Clusters konfigurierten Server.

    Der Cluster ist entweder der symbolische Name, die Adresse in Schreibweise mit Trennzeichen oder die spezielle Adresse 0.0.0.0, die einen Platzhaltercluster definiert. Setzen Sie zum Definieren eines Clusters den Befehl dscontrol cluster add ab. Setzen Sie zum Definieren von Clusteroptionen den Befehl dscontrol cluster set ab, oder verwenden Sie die GUI zum Absetzen von Befehlen. Platzhaltercluster können verwendet werden, wenn mehrere IP-Adressen für den Lastausgleich eingehender Pakete in Frage kommen. Weitere Informationen finden Sie in den Abschnitten Platzhaltercluster zum Zusammenfassen von Serverkonfigurationen verwenden, Platzhaltercluster für den Lastausgleich von Firewalls verwenden und Platzhaltercluster mit Caching Proxy für transparente Weiterleitung verwenden.

    Schritt 5. Aliasnamen auf der Netzschnittstellenkarte erstellen

    Nachdem der Cluster definiert wurde, müssen Sie normalerweise die Clusteradresse auf einer der Netzschnittstellenkarten der Dispatcher-Maschine konfigurieren. Setzen Sie dazu den Befehl dscontrol executor configure Clusteradresse ab. Damit wird nach einem Adapter mit einer vorhandenen Adresse gesucht, die zu demselben Teilnetz wie die Clusteradresse gehört. Anschließend wird der Adapterkonfigurationsbefehl des Betriebssystems für die Clusteradresse unter Verwendung des gefundenen Adapters und der Netzmaske für die auf diesem Adapter vorhandene Adresse abgesetzt. Beispiel:

    dscontrol executor configure 204.67.172.72 
    

    In manchen Fällen soll die Clusteradresse möglicherweise nicht konfiguriert werden. Dies gilt für Cluster, die zu einem Bereitschaftsserver im Modus für hohe Verfügbarkeit hinzugefügt wurden, oder für Cluster, die zu einem Weitverkehrs-Dispatcher hinzugefügt wurden, der als ferner Server dient. Sie müssen den Befehl "executor configure" auch nicht ausführen, wenn Sie im Standalone-Modus das Beispielscript goIdle verwenden. Informationen zum Script goIdle finden Sie im Abschnitt Scripts verwenden.

    In seltenen Fällen haben Sie möglicherweise eine Clusteradresse, die mit keinem Teilnetz für vorhandene Adressen übereinstimmt. Verwenden Sie in diesem Fall die zweite Form des Befehls "executor configure", und geben Sie explizit den Schnittstellennamen und die Netzmaske an. Verwenden Sie dscontrol executor configure Clusteradresse Schnittstellenname Netzmaske.

    Beispiele:

    dscontrol executor configure 204.67.172.72 en0 255.255.0.0 
    (AIX-Systeme)
    dscontrol executor configure 204.67.172.72 eth0:1 255.255.0.0 
    (Linux-Systeme)
    dscontrol executor configure 204.67.172.72 eri0 255.255.0.0 
    (Solaris-Systeme)
    dscontrol executor configure 204.67.172.72 en1 255.255.0.0 
    (Windows-Systeme)
     
    

    Windows-Systeme

    Für die zweite Form des Befehls executor configure müssen Sie auf Windows-Systemen den zu verwendenden Schnittstellennamen ermitteln. Befindet sich in Ihrer Maschine nur eine einzige Ethernet-Karte, lautet der Schnittstellenname en0. Befindet sich in Ihrer Maschine nur eine einzige Token-Ring-Karte, lautet der Schnittstellenname tr0. Befinden sich in Ihrer Maschine mehrere Karten beider Typen, müssen Sie die Zuordnung der Karten festlegen. Gehen Sie wie folgt vor:

    1. Starten Sie den Executor wie folgt in der Befehlszeile: dscontrol executor start
    2. Führen Sie den folgenden Befehl aus: dscontrol executor xm 1

    In der Anzeige erscheint eine Ausgabe. Suchen Sie in den Zeilen, die auf Number of NIC records folgen, nach der IP-Adresse Ihrer Load-Balancer-Maschine, um den für die Load-Balancer-Konfiguration zu verwendenden Schnittstellennamen zu bestimmen.

    Die IP-Adresse Ihrer Load-Balancer-Maschine wird wie folgt aufgelistet: ia->ia_addr. Der zugehörige Schnittstellenname wird mit ifp->if_name angegeben.

    Die mit dem Befehl executor configure zugewiesenen Schnittstellennamen werden den in diesem Befehl aufgelisteten Schnittstellennamen zugeordnet.

    Nachdem Sie diese Zuordnungsinformationen erhalten haben, können auf der Netzschnittstelle einen Aliasnamen für die Clusteradresse festlegen.

    Clusteraliasnamen mit ifconfig-Befehlen konfigurieren

    Auf Linux- oder UNIX-Systemen führt der Befehl "executor configure" ifconfig-Befehle aus.

    Solaris- und HP-UX-Systeme

    Bei der Verwendung von bindungsspezifischen Serveranwendungen, die an eine Liste von IP-Adressen gebunden sind, zu denen die IP-Adresse des Servers nicht gehört, verwenden Sie den Befehl arp publish anstelle von ifconfig, damit auf der Load-Balancer-Maschine dynamisch eine IP-Adresse festgelegt wird. Beispiel:

     arp -s <cluster> <MAC-Adresse von Load Balancer> pub
    

    Schritt 6. Ports definieren und Portoptionen festlegen

    Zum Definieren eines Ports können Sie den Befehl dscontrol port add Cluster:Port eingeben, die Beispielkonfigurationsdatei editieren oder die GUI verwenden. Cluster ist entweder der symbolische Name oder die IP-Adresse. Port ist die Nummer des Ports, den Sie für dieses Protokoll verwenden. Sie können jetzt auch verschiedene Porteinstellungen ändern. Sie müssen alle Server für einen Port definieren und konfigurieren. Weitere Informationen finden Sie im Abschnitt Befehlsreferenz für Dispatcher und CBR.

    Mit der Portnummer 0 (null) wird ein Platzhalterport angegeben. Dieser Port akzeptiert Datenverkehr, der nicht für einen der definierten Ports eines Clusters bestimmt ist. Der Platzhalterport wird zum Konfigurieren von Regeln und Servern für alle Ports verwendet. Diese Funktion kann auch verwendet werden, wenn Sie eine identische Server-/Regelkonfiguration für mehrere Ports haben. Der Datenverkehr an einem Port könnte dann die Lastausgleichsentscheidungen für Datenverkehr an anderen Ports beeinflussen. Weitere Informationen zur Verwendung eines Platzhalterports finden Sie im Abschnitt Platzhalterport für die Übertragung von Datenverkehr mit nicht konfiguriertem Port verwenden.

    Schritt 7. Am Lastausgleich beteiligte Servermaschinen definieren

    Geben Sie zum Definieren einer am Lastausgleich beteiligten Servermaschine den Befehl dscontrol server add Cluster:Port:Server ein. Sie können auch die Beispielkonfigurationsdatei editieren oder die GUI verwenden. Cluster und Server sind entweder symbolische Namen oder IP-Adressen. Port ist die Nummer des Ports, den Sie für dieses Protokoll verwenden. Für einen Port eines Clusters müssen Sie mehrere Server definieren, um einen Lastausgleich durchführen zu können.

    Bindungsspezifische Server: Wenn die Komponente Dispatcher die Last auf bindungsspezifische Server verteilt, müssen die Server so konfiguriert werden, dass sie an die Clusteradresse gebunden werden. Da der Dispatcher Pakete ohne Änderung der Ziel-IP-Adresse weiterleitet, enthalten die beim Server eingehenden Pakete noch immer die Clusteradresse als Ziel. Wenn ein Server für die Bindung an eine andere IP-Adresse als die Clusteradresse konfiguriert ist, kann der Server für den Cluster bestimmte Anforderungen nicht akzeptieren.

    Mit dem Befehl netstat -an können Sie feststellen, ob der Server bindungsspezifisch ist. Achten Sie auf den Server:Port. Wenn der Server nicht bindungsspezifisch ist, gibt der Befehl 0.0.0.0:80 zurück. Andernfalls sehen Sie eine Adresse wie 192.168.15.103:80.

    Anmerkung:
    Für Solaris- und Linux-Systeme: Bei Verwendung von Advisor-Funktionen dürfen bindungsspezifische Server nicht verknüpft werden.

    Verknüpfung mehrerer Adressen: In einer verknüpften Konfiguration muss die Adresse der verknüpften Servermaschine nicht mit der NFA übereinstimmen. Wenn Ihre Maschine mit mehreren IP-Adressen definiert wurde, können Sie eine andere Adresse verwenden. Für die Komponente Dispatcher muss die verknüpfte Servermaschine mit dem Befehl dscontrol server als verknüpft definiert werden. Weitere Informationen zu verknüpften Servern finden Sie im Abschnitt Verknüpfte Server verwenden.

    Weitere Informationen zur Syntax des Befehls "dscontrol server" finden Sie im Abschnitt dscontrol server -- Server konfigurieren.

    Schritt 8. Managerfunktion starten (optional)

    Die Managerfunktion verbessert den Lastausgleich. Soll der Manager gestartet werden, geben Sie den Befehl dscontrol manager start ein, editieren Sie die Beispielkonfigurationsdatei, oder verwenden Sie die GUI.

    Schritt 9. Advisor-Funktion starten (optional)

    Die Advisor-Funktionen liefern dem Manager weitere Informationen über die Fähigkeit der am Lastausgleich beteiligten Servermaschinen, auf Anforderungen zu antworten. Advisor-Funktionen sind protokollspezifisch. Soll beispielsweise die HTTP-Advisor-Funktion gestartet werden, setzen Sie den folgenden Befehl ab:

    dscontrol advisor start http Port
    
    Eine Liste der Advisor-Funktionen mit den zugehörigen Standardports finden Sie im Abschnitt Befehlsreferenz für Dispatcher und CBR. Beschreibungen der einzelnen Advisor-Funktionen finden Sie im Abschnitt Liste der Advisor-Funktionen.

    Schritt 10. Clusterproportionen festlegen

    Wenn Sie Advisor-Funktionen starten, können Sie die Wichtigkeit ändern, die in Entscheidungen für den Lastausgleich einfließenden Informationen von Advisor-Funktionen beigemessen wird. Setzen Sie zum Festlegen von Clusterproportionen den Befehl dscontrol cluster set Cluster proportions ab. Weitere Informationen finden Sie im Abschnitt Proportionale Bedeutung von Statusinformationen.


    Servermaschinen für Lastausgleich konfigurieren

    Führen Sie die nachstehenden Schritte aus, wenn eine der folgenden Bedingungen erfüllt ist:

    Wird die Weiterleitungsmethode "mac" verwendet, verteilt der Dispatcher die Last nur auf Server, bei denen der Loopback-Adapter mit einer zusätzlichen IP-Adresse konfiguriert werden kann, da der Back-End-Server nicht auf ARP-Anforderungen (Adressauflösungsprotokoll) reagiert. Führen Sie die Schritte in diesem Abschnitt aus, um die am Lastausgleich beteiligten Servermaschinen zu konfigurieren.

    Schritt 1. Aliasnamen auf der Loopback-Einheit festlegen

    Damit die am Lastausgleich beteiligten Servermaschinen arbeiten können, müssen Sie die Loopback-Einheit (die häufig als lo0 bezeichnet wird) auf die Clusteradresse setzen (oder bevorzugt einen Aliasnamen für die Clusteradresse angeben). Bei Verwendung der Weiterleitungsmethode "mac" ändert die Komponente Dispatcher nicht die Ziel-IP-Adresse des TCP/IP-Pakets, bevor sie dieses an eine TCP-Servermaschine weiterleitet. Wird die Loopback-Einheit auf die Clusteradresse gesetzt oder diese Adresse als Aliasname der Loopback-Einheit festgelegt, akzeptieren die am Lastausgleich beteiligten Servermaschinen ein an die Clusteradresse gerichtetes Paket.

    Falls Ihr Betriebssystem Aliasnamen auf Netzschnittstellen unterstützt (wie es bei AIX-, HP-UX-, Linux-, Solaris- oder Windows-Systemen der Fall ist), sollten Sie auf der der Loopback-Einheit einen Aliasnamen für die Clusteradresse festlegen. Ein Betriebssystem mit Unterstützung für Aliasnamen bringt den Vorteil, dass die am Lastausgleich beteiligten Servermaschinen für mehrere Clusteradressen konfiguriert werden können.

    WICHTIG: Informationen zu Linux-Systemen finden Sie im Abschnitt Alternativen für die Festlegung eines Loopback-Aliasnamens unter Linux bei Verwendung der Load-Balancer-Weiterleitungsmethode "mac".

    Wenn das Betriebssystem Ihres Servers keine Aliasnamen unterstützt, müssen Sie die Loopback-Einheit auf die Clusteradresse setzen.

    Verwenden Sie den in Tabelle 8 angegebenen betriebssystemspezifischen Befehl, um die Adresse der Loopback-Einheit oder einen Aliasnamen für die Einheit zu definieren.

    Tabelle 8. Befehle zum Festlegen eines Aliasnamens auf der Loopback-Einheit (lo0) für Dispatcher

    AIX 4.3 und früher
    ifconfig lo0 alias Clusteradresse Netzmaske Netzmaske
    Anmerkung:
    Verwenden Sie die Netzmaske des Primäradapters.
    AIX 5.x ifconfig lo0 alias Clusteradresse Netzmaske 255.255.255.255
    HP-UXifconfig lo0:1 Clusteradresse up
    LinuxWählen Sie einen der folgenden Befehle aus:
    • ip -4 addr add Clusteradresse/32 dev lo
    • ifconfig lo:1 Clusteradresse Netzmaske 255.255.255.255 up
    WICHTIGER HINWEIS: Wenn Sie einen der Konfigurationsbefehle auf Ihrer Maschine abgesetzt haben, müssen Sie denselben Befehl konsistent verwenden (ip oder ifconfig), da es andernfalls zu unerwarteten Ergebnissen kommen kann.
    OS/2(R) ifconfig lo Clusteradresse
    OS/390(R) Loopback-Aliasnamen auf einem OS/390-System konfigurieren
    • In der Teildatei mit den IP-Parametern muss ein Administrator einen Eintrag in der Liste der Ausgangsadressen erstellen. Beispiel:
      HOME
      ;Address                   Link
      192.168.252.11             tr0
      192.168.100.100            1tr1
      192.168.252.12             loopback
    • Für die Loopback-Einheit können mehrere Adressen definiert werden.
    • Standardmäßig ist die Loopback-Adresse 127.0.0.1 konfiguriert.
    Solaris 7ifconfig lo0:1 Clusteradresse 127.0.0.1 up
    Solaris 8, Solaris 9 und Solaris 10 ifconfig lo0:1 plumb Clusteradresse Netzmaske Netzmaske up
    Windows Server 2003
    1. Klicken Sie auf Start und dann auf Systemsteuerung.
    2. Fügen Sie den MS Loopback Adapter Driver hinzu (falls noch nicht erfolgt).
      1. Klicken Sie auf Hardware. Damit wird der "Hardware-Assistent" gestartet.
      2. Klicken Sie auf "Weiter".
      3. Wählen Sie die Option Ja, die Hardware wurde bereits angeschlossen aus. Klicken Sie dann auf "Weiter".
      4. Wenn der MS Loopback Adapter in der Liste aufgeführt ist, ist er bereits installiert. Klicken Sie auf "Abbrechen", um die Anzeige zu verlassen.
      5. Ist der MS Loopback Adapter nicht aufgelistet, wählen Sie Neues Gerät hinzufügen aus, und klicken Sie auf "Weiter".
      6. Falls Sie Hardware aus einer Liste auswählen möchten, wählen Sie für die Frage Soll nach neuen Hardwarekomponenten gesucht werden? als Antwort "Nein, die Hardwarekomponenten selbst in der Liste auswählen" aus, und klicken Sie auf "Weiter".
      7. Wählen Sie Netzwerkadapter aus, und klicken Sie auf "Weiter".
      8. Wählen Sie in der Anzeige Netzwerkadapter wählen unter "Hersteller" Microsoft und dann Microsoft Loopback Adapter aus.
      9. Klicken Sie auf "Weiter". Klicken Sie dann erneut auf "Weiter", um die Standardeinstellungen zu installieren (oder wählen Sie Datenträger aus, legen Sie die CD ein, und installieren Sie von der CD).
      10. Klicken Sie auf "Fertig stellen", um die Installation zu beenden.
    3. Klicken Sie in der Systemsteuerung doppelt auf Netzwerk- und DFÜ-Verbindungen.
    4. Wählen Sie die Verbindung mit dem Einheitennamen "Microsoft Loopback Adapter" aus.
    5. Wählen Sie im angezeigten Menü Eigenschaften aus.
    6. Wählen Sie Internetprotokoll (TCP/IP) aus, und klicken Sie auf Eigenschaften.
    7. Klicken Sie auf Folgende IP-Adresse verwenden. Geben Sie für IP-Adresse die Clusteradresse und für Subnetzmaske die Teilnetzmaske des Back-End-Servers ein.
      Anmerkung:
      Geben Sie keine Router-Adresse ein. Verwenden Sie den lokalen Host als Standard-DNS-Server.
    Windows 2000
    1. Klicken Sie auf Start, Einstellungen und dann auf Systemsteuerung.
    2. Fügen Sie den MS Loopback Adapter Driver hinzu (falls noch nicht erfolgt).
      1. Klicken Sie doppelt auf Hardware. Damit wird der Assistent zum Hinzufügen/Entfernen von Hardware gestartet.
      2. Klicken Sie auf Weiter, wählen Sie Gerät hinzufügen bzw. Problem beheben aus, und klicken Sie dann auf Weiter.
      3. Die Anzeige blinkt. Anschließend erscheint die Anzeige Gerät wählen.
      4. Wenn der MS Loopback Adapter in der Liste aufgeführt ist, ist er bereits installiert. Klicken Sie auf "Abbrechen", um die Anzeige zu verlassen.
      5. Ist der MS Loopback Adapter nicht aufgelistet, wählen Sie Neues Gerät hinzufügen aus, und klicken Sie auf "Weiter".
      6. Falls Sie Hardware aus einer Liste auswählen möchten, wählen Sie für die Frage Soll nach neuen Hardwarekomponenten gesucht werden? als Antwort "Nein, die Hardwarekomponenten selbst in der Liste auswählen" aus, und klicken Sie auf "Weiter".
      7. Wählen Sie Netzwerkadapter aus, und klicken Sie auf "Weiter".
      8. Wählen Sie in der Anzeige Netzwerkadapter wählen unter "Hersteller" Microsoft und dann Microsoft Loopback Adapter aus.
      9. Klicken Sie auf "Weiter". Klicken Sie dann erneut auf "Weiter", um die Standardeinstellungen zu installieren (oder wählen Sie Datenträger aus, legen Sie die CD ein, und installieren Sie von der CD).
      10. Klicken Sie auf "Fertig stellen", um die Installation zu beenden.
    3. Klicken Sie in der Systemsteuerung doppelt auf Netzwerk- und DFÜ-Verbindungen.
    4. Wählen Sie die Verbindung mit dem Einheitennamen "Microsoft Loopback Adapter" aus, und klicken Sie mit der rechten Maustaste auf den Namen.
    5. Wählen Sie im angezeigten Menü Eigenschaften aus.
    6. Wählen Sie Internetprotokoll (TCP/IP) aus, und klicken Sie auf Eigenschaften.
    7. Klicken Sie auf Folgende IP-Adresse verwenden. Geben Sie für IP-Adresse die Clusteradresse und für Subnetzmaske die Standardteilnetzmaske (255.0.0.0) ein.
      Anmerkung:
      Geben Sie keine Router-Adresse ein. Verwenden Sie den lokalen Host als Standard-DNS-Server.
    Windows NT(R)
    1. Klicken Sie auf Start und dann auf Einstellungen.
    2. Klicken Sie auf Systemsteuerung und dann doppelt auf Netzwerk.
    3. Fügen Sie den MS Loopback Adapter Driver hinzu (falls noch nicht erfolgt).
      1. Klicken Sie im Fenster "Netzwerk" auf Netzwerkkarte.
      2. Wählen Sie MS Loopback Adapter aus, und klicken Sie auf OK.
      3. Legen Sie bei der entsprechenden Aufforderung die Installations-CD bzw. den Installationsdatenträger ein.
      4. Klicken Sie im Fenster "Netzwerk" auf Protokolle.
      5. Wählen Sie TCP/IP-Protokoll aus, und klicken Sie auf Eigenschaften.
      6. Wählen Sie MS Loopback Adapter aus, und klicken Sie auf OK.
    4. Legen Sie als Loopback-Adresse die Clusteradresse fest. Übernehmen Sie die Standardteilnetzmaske (255.0.0.0), und geben Sie keine Gateway-Adresse ein.
    Anmerkung:
    Möglicherweise müssen Sie die Netzwerkeinstellungen verlassen und erneut aufrufen, bevor der MS Loopback Driver unter der TCP/IP-Konfiguration angezeigt wird.

    Schritt 2. Überprüfung auf zusätzliche Route

    Unter einigen Betriebssystemen wurde möglicherweise eine Standardroute erstellt, die entfernt werden muss.

    Windows-Beispiel:

    1. Nachdem route print eingegeben wurde, wird eine ähnliche Tabelle wie die folgende angezeigt. (Dieses Beispiel veranschaulicht das Auffinden und Entfernen einer zusätzlichen Route zu Cluster 9.67.133.158 mit der Standardnetzmaske 255.0.0.0.)
      Aktive Routen:
       
      Netzadresse        Netzmaske          Gateway-Adresse       Schnittstelle       Metrik
      0.0.0.0            0.0.0.0            9.67.128.1            9.67.133.67         1
      9.0.0.0            255.0.0.0          9.67.133.158          9.67.133.158        1
      9.67.128.0         255.255.248.0      9.67.133.67           9.67.133.67         1
      9.67.133.67        255.255.255.255    127.0.0.1             127.0.0.1           1
      9.67.133.158       255.255.255.255    127.0.0.1             127.0.0.1           1
      9.255.255.255      255.255.255.255    9.67.133.67           9.67.133.67         1
      127.0.0.0          255.0.0.0          127.0.0.1             127.0.0.1           1
      224.0.0.0          224.0.0.0          9.67.133.158          9.67.133.158        1
      224.0.0.0          224.0.0.0          9.67.133.67           9.67.133.67         1
      255.255.255.255    255.255.255.255    9.67.133.67           9.67.133.67         1 
      
    2. Suchen Sie die Clusteradresse in der Spalte "Gateway". Ist eine zusätzliche Route vorhanden, wird die Clusteradresse zweimal aufgeführt. In diesem Beispiel erscheint die Clusteradresse (9.67.133.158) in Zeile 2 und Zeile 8.
    3. Ermitteln Sie für jede Zeile, in der die Clusteradresse erscheint, die Netzadresse. Sie benötigen eine dieser Routen und müssen die überschüssige Route löschen. Die zu löschende zusätzliche Route ist die Route, deren dessen Netzadresse mit der ersten Ziffer der Clusteradresse beginnt, gefolgt von drei Nullen. In diesem Beispiel erscheint die zusätzliche Route in Zeile 2. Diese Route hat die Netzadresse 9.0.0.0:
                9.0.0.0    255.0.0.0   9.67.133.158  9.67.133.158     1 
       
      

    Schritt 3. Zusätzliche Routen löschen

    Die zusätzliche Route muss gelöscht werden. Löschen Sie die zusätzliche Route mit dem in Tabelle 9 angegebenen betriebssystemspezifischen Befehl.

    Beispiel: Geben Sie zum Löschen einer zusätzlichen Route wie in der Beispielauflistung "Aktive Routen" für Schritt 2 Folgendes ein:

    route delete 9.0.0.0 9.67.133.158
    

    Tabelle 9. Befehle zum Löschen zusätzlicher Routen für Dispatcher

    HP-UX
    route delete Clusteradresse Clusteradresse
    Windowsroute delete Netzadresse Clusteradresse (an einer MS-DOS-Eingabeaufforderung)
    Anmerkung:
    Die zusätzliche Route müssen Sie bei jedem Neustart des Servers löschen.

    Unter Windows 2003 können keine Routen gelöscht werden. Alle zusätzlichen Routen müssten ignoriert werden. Falls nach dem Konfigurieren des Aliasnamens Probleme beim Routing auftreten, entfernen Sie den Aliasnamen und fügen Sie ihn dann mit einer anderen Netzmaske wieder hinzu.

    Wenn Sie für das in Abbildung 15 gezeigte Beispiel eine Servermaschine mit AIX konfigurieren, würde der Befehl wie folgt lauten:

      route delete -net  204.0.0.0  204.67.172.72
    

    Schritt 4. Serverkonfiguration prüfen

    Führen Sie zum Überprüfen der Konfiguration eines Back-End-Servers auf einer anderen Maschine im selben Teilnetz bei nicht aktivem Load Balancer und nicht konfiguriertem Cluster die folgenden Schritte aus:

    1. Setzen Sie den folgenden Befehl ab:
      arp -d Cluster
      
    2. Setzen Sie den folgenden Befehl ab:
      ping Cluster
      

      Sie sollten keine Antwort empfangen. Falls Sie eine Antwort auf das ping erhalten, vergewissern Sie sich, dass Sie nicht mit ifconfig die Schnittstelle auf die Clusteradresse gesetzt haben. Vergewissern Sie sich, dass keine Maschine einen veröffentlichten Eintrag arp für die Clusteradresse hat.

    3. Senden Sie ein ping an den Back-End-Server und setzen Sie unmittelbar darauf den folgenden Befehl ab:
      arp -a
      

      Die Ausgabe des Befehls sollte die MAC-Adresse Ihres Servers enthalten. Setzen Sie den folgenden Befehl ab:

      arp -s Cluster MAC-Adresse_des_Servers
      
    4. Senden Sie einen Ping-Befehl an den Cluster. Sie sollten eine Antwort empfangen. Setzen Sie eine http-, telnet- oder eine andere an den Cluster adressierte Anfrage ab, die Ihr Back-End-Server verarbeiten können müsste. Vergewissern Sie sich, dass der Server ordnungsgemäß arbeitet.
    5. Setzen Sie den folgenden Befehl ab:
      arp -d Cluster
      
    6. Senden Sie einen Ping-Befehl an den Cluster. Sie sollten keine Antwort empfangen.
      Anmerkung:
      Falls Sie eine Antwort empfangen, setzen Sie die Anweisung arp Cluster ab, um die MAC-Adresse der falsch konfigurierten Maschine zu ermitteln. Wiederholen Sie dann die Schritte 1 bis 6.

    Alternativen für die Festlegung eines Loopback-Aliasnamens unter Linux bei Verwendung der Load-Balancer-Weiterleitungsmethode "mac"

    Einige Linux-Versionen setzen für jede auf der Maschine konfigurierte IP-Adresse auf allen Schnittstellen der Maschine eine ARP-Antwort ab. Linux kann außerdem für ARP-Abfragen who-has ausgehend von allen auf der Maschine vorhandenen IP-Adressen eine ARP-Quellen-IP-Adresse auswählen, ohne dabei die Schnittstellen zu berücksichtigen, für die diese Adressen konfiguriert sind. Dies führt dazu, dass der gesamte Clusterdatenverkehr auf unkontrollierte Weise an nur einen Server weitergeleitet wird.

    Wenn Sie die Dispatcher-Weiterleitungsmethode "mac" verwenden, müssen Sie durch einen Mechanismus sicherstellen, dass die Stacks der Back-End-Server an den Cluster adressierten Datenverkehr akzeptieren können. Wenn sowohl die hohe Verfügbarkeit als auch die Verknüpfung aktiviert ist, gehört zu diesen Back-End-Servern auch die verknüpfte Bereitschaftsmaschine für hohe Verfügbarkeit.

    In den meisten Fällen müssen Sie auf der Loopback-Einheit einen Aliasnamen für die Clusteradresse festlegen. Bei Back-End-Servern muss daher auf der Loopback-Einheit ein Aliasname für den Cluster definiert sein. Falls Sie mit hoher Verfügbarkeit und Verknüpfung arbeiten, müssen Sie auf der Loopback-Einheit der Bereitschaftsserver für Lastausgleich Clusteraliasnamen festlegen.

    Um sicherzustellen, dass Linux-Systeme Adressen nicht auf der Loopback-Einheit zugänglich machen, können Sie eine der folgenden vier Lösungen nutzen, die Linux-Systeme mit der Dispatcher-Weiterleitungsmethode "mac" kompatibel machen.

    1. Verwenden Sie einen Kernel, der die Adresse nicht verfügbar macht. Dies ist die bevorzugte Option, da sie keinen Systemaufwand pro Paket verursacht und keine Konfiguration für jeden Kernel erfordert.
    2. Leiten Sie mit IP-Tabellen den gesamten ankommenden Clusterdatenverkehr an den lokalen Host um. Falls Sie sich für diese Methode entscheiden, konfigurieren Sie auf dem Loopback-Adapter keinen Aliasnamen. Verwenden Sie stattdessen den folgenden Befehl:
       # iptables -t nat -A PREROUTING -d $CLUSTER_ADDRESS -j REDIRECT
      
      Dieser Befehl veranlasst Linux-Systeme, für jedes Paket ein DNAT (Destination NAT) durchzuführen, bei dem die Clusteradressen in die Schnittstellenadressen konvertiert werden. Die Kehrseite dieser Methode ist jedoch, dass bei den Verbindungen pro Sekunde ein Durchsatzrückgang von ca. 6,4 % zu verzeichnen ist. Diese Methode funktioniert nur bei unterstützten Stock Distributionen. Es ist weder ein Kernel-Modul noch ein Patch-Build oder eine Patch-Installation erforderlich.
    3. Wenden Sie das Modul noarp ab Version 1.2.0 an. Die Kernel-Quelle muss verfügbar und ordnungsgemäß konfiguriert sein. Außerdem müssen die Entwicklungs-Tools (gcc, gnu make usw.) verfügbar sein. Bei jedem Kernel-Upgrade müssen Sie einen Build für das Modul erstellen und das Modul installieren. Es ist unter http://www.masarlabs.com/noarp/ verfügbar. Da der eigentliche Kernel-Code nicht modifiziert wird, ist diese Methode kein so starker Eingriff wie die (nachfolgende) Lösung Nr. 4 und auch nicht so fehleranfällig. Sie müssen das Modul konfigurieren, bevor Sie auf der Loopback-Einheit Aliasnamen für Clusteradressen festlegen. Beispiel:
      # modprobe noarp
      # noarpctl add $CLUSTER_ADDRESS Adresse_der_primären_NIC
      
      Hier steht Adresse_der_primären_NIC für eine Adresse in demselben Teilnetz wie die Clusteradresse. Anschließend können Sie ganz normal Aliasnamen für Cluster festlegen. Beispiel:
       # ifconfig lo:1 Clusteradresse netmask 255.255.255.255 up
      
      Anmerkung:
      Bei Verknüpfungskonfigurationen mit hoher Verfügbarkeit müssen noarpctl adds und dels in die go*-Scripts aufgenommen werden, um sicherzustellen, dass der aktive Load Balancer ARP für die Clusteradressen verwenden kann und der als Server fungierende Bereitschafts-Load-Balancer nicht versehentlich den gesamten Clusterdatenverkehr empfängt.
    4. Laden Sie den Julian Patch von der folgenden Website herunter: http://www.ssi.bg/~ja/#hidden. Lesen Sie die Anweisungen zu Ihrer Distribution, damit Sie den Patch auf einen Kernel anwenden und einen Kernel kompilieren, der für diese Distribution geeignet ist. Falls dies ein verknüpfter Load Balancer mit hoher Verfügbarkeit ist, vergewissern Sie sich, dass uname -r mit dem von der Distribution bereitgestellten Kernel übereinstimmt. Stellen Sie außerdem sicher, dass beim Start die Datei .config des Distributions-Kernels verwendet wird. Wenn Sie für Ihren Kernel einen Build mit dem Julian Hidden Patch erstellt, den Kernel installiert haben und nun ausführen, führen Sie die Anweisungen zur ersten Lösung aus, um den Patch zu aktivieren.
      Anmerkung:
      Die Ausführung eines angepassten Kernels kann Probleme bei der Unterstützung für die Distribution nach sich ziehen.

    Komponente Content Based Routing (CBR)

    Dieser Teil enthält Informationen zu einer schnellen Erstkonfiguration sowie zur Planung und beschreibt die Konfigurationsmethoden für die Komponente CBR von Load Balancer. Zu diesem Teil gehören die folgenden Kapitel:


    Schnellkonfiguration

    Dieses Beispiel zeigt die Konfiguration von drei lokal angeschlossenen Workstations, die CBR mit Caching Proxy verwenden, um den Webdatenverkehr auf zwei Webserver zu verteilen. (Der Einfachheit halber zeigt dieses Beispiel die Server innerhalb desselben LAN-Segments. Bei der Verwendung von CBR müssen sich die Server jedoch nicht in demselben LAN befinden.)

    Abbildung 16. Einfache lokale CBR-Konfiguration

    Abbildung, die einen Client, eine Internetwolke, eine Load-Balancer-Maschine und zwei lokal angeschlossene Server mit angegebenen Adressen zeigt.


    Voraussetzungen

    In dem Beispiel für einen schnellen Start werden drei Workstations und vier IP-Adressen benötigt. Eine Workstation wird als CBR-Maschine verwendet; die beiden anderen Workstations werden als Webserver verwendet. Jeder Webserver benötigt eine IP-Adresse. Die CBR-Workstation benötigt eine eigene Adresse und eine Adresse für den Lastausgleich.

    Anmerkung:
    Die Komponente Content Based Routing (CBR) ist auf allen unterstützten Plattformen, die keine 64-Bit-JVM ausführen, verfügbar. Alternativ können Sie die Weiterleitungsmethode "cbr" der Load-Balancer-Komponente Dispatcher verwenden, um inhaltsbasiertes Routing ohne die Verwendung von Caching Proxy zu ermöglichen. Weitere Informationen finden Sie im Abschnitt Dispatcher-Weiterleitungsmethode "cbr".

    Für die Verwendung von CBR muss auf demselben Server Caching Proxy installiert sein. Informationen zum Konfigurieren von Caching Proxy für CBR finden Sie im Abschnitt Schritt 1. Caching Proxy für die Verwendung von CBR konfigurieren.


    Vorbereitungen

    1. Konfigurieren Sie Ihre Workstations für dieses Beispiel so, dass sie sich innerhalb eines LAN-Segments befinden. Stellen Sie sicher, dass der Datenaustausch im Netz zwischen den drei Maschinen nicht über Router oder Brücken erfolgen muss.
    2. Konfigurieren Sie die Netzwerkadapter der drei Workstations. In diesem Beispiel wird die folgende Netzkonfiguration angenommen:
      WorkstationNameIP-Adresse
      1 server1.mywebsite.com 9.27.27.101
      2 server2.mywebsite.com 9.27.27.102
      3 server3.mywebsite.com 9.27.27.103
      Netzmaske = 255.255.255.0

      Jede Workstation enthält nur eine Standard-Ethernet-Netzschnittstellenkarte.

    3. Stellen Sie sicher, dass server1.mywebsite.com sowohl server2.mywebsite.com als auch server3.mywebsite.com mit einem Ping-Befehl erreichen kann.
    4. Stellen Sie sicher, dass server1.mywebsite.com von server2.mywebsite.com und server3.mywebsite.com mit einem Ping-Befehl erreicht werden kann.
    5. Stellen Sie sicher, dass Webserver an server2.mywebsite.com und server3.mywebsite.com betriebsbereit sind. Verwenden Sie einen Webbrowser, um Seiten direkt von http://server2.mywebsite.com (z. B. .../member/index.html) und http://server3.mywebsite.com (z. B. .../guest/index.html) anzufordern.
    6. Definieren Sie eine andere gültige IP-Adresse für dieses LAN-Segment. Dies ist die Clusteradresse, die Sie den Clients zur Verfügung stellen, die auf Ihre Site zugreifen möchten. In diesem Beispiel wird folgende Adresse verwendet:
      Name= www.mywebsite.com
      IP=9.27.27.104 
      

    CBR konfigurieren

    Für CBR können Sie eine Konfiguration unter Verwendung der Befehlszeile, des Konfigurationsassistenten oder der grafischen Benutzerschnittstelle (GUI) erstellen. Dieses Beispiel für schnellen Start zeigt die Ausführung der Konfigurationsschritte in der Befehlszeile.

    Anmerkung:
    Die Parameterwerte müssen mit Ausnahme der Parameterwerte für Hostnamen und Dateinamen in englischen Zeichen eingegeben werden.

    Konfiguration über die Befehlszeile

    Führen Sie an einer Eingabeaufforderung die folgenden Schritte aus:

    1. Starten Sie den cbrserver. Führen Sie den folgenden Befehl als Root bzw. als Administrator aus: cbrserver
      Anmerkung:
      Für Windows-Plattformen: Starten Sie cbrserver (Content Based Routing) über die Anzeige "Dienste": Start > Einstellungen (für Windows 2000) > Systemsteuerung > Verwaltung > Dienste.
    2. Starten Sie wie folgt die Executor-Funktion von CBR:

      cbrcontrol executor start

    3. Starten Sie Caching Proxy. (Caching Proxy kann nach dem Starten der Executor-Funktion jederzeit gestartet werden.)

      ibmproxy

      Anmerkung:
      Für Windows-Plattformen: Sie können Caching Proxy auch über die Anzeige "Dienste" starten: Start > Einstellungen (für Windows 2000) > Systemsteuerung > Verwaltung > Dienste.
    4. Fügen Sie wie folgt den Cluster (Hostname und Website, zu denen Clients eine Verbindung herstellen) zur CBR-Konfiguration hinzu:

      cbrcontrol cluster add www.mywebsite.com

    5. Fügen Sie die Clusteradresse (9.27.27.104) für die Website zur Netzschnittstellenkarte der CBR-Maschine hinzu. Weitere Informationen finden Sie im Abschnitt Schritt 5. Aliasnamen auf der Netzschnittstellenkarte erstellen (optional).
    6. Fügen Sie wie folgt den Port für das Protokoll HTTP zur CBR-Konfiguration hinzu:

      cbrcontrol port add www.mywebsite.com:80

    7. Fügen Sie wie folgt alle Webserver zur CBR-Konfiguration hinzu:

      cbrcontrol server add www.mywebsite.com:80:server2.mywebsite.com

      cbrcontrol server add www.mywebsite.com:80:server3.mywebsite.com

    8. Fügen Sie Inhaltsregeln zu Ihrer CBR-Konfiguration hinzu. (Mit einer Inhaltsregel wird definiert, wie zwischen URL-Anforderungen unterschieden wird und wie eine Anforderung an einen der Server oder eine der Servergruppen gesendet wird.)

      cbrcontrol rule add www.mywebsite.com:80:memberRule type content pattern uri=*/member/*

      cbrcontrol rule add www.mywebsite.com:80:guestRule type content pattern uri=*/guest/*

      In diesem Beispiel werden Clientanforderungen an die Website "www.mywebsite.com" bei Anwendung der Inhaltsregel ausgehend von einem Verzeichnis in ihrem URI-Anforderungspfad an verschiedene Server gesendet. Weitere Informationen finden Sie in Anhang B. Syntax für Inhaltsregeln (Muster).

    9. Fügen Sie wie folgt Server zu Ihren Regeln hinzu:

      cbrcontrol rule useserver www.mywebsite:80:memberRule server2.mywebsite.com

      cbrcontrol rule useserver www.mywebsite:80:guestRule server3.mywebsite.com

      CBR führt den Lastausgleich jetzt ausgehend von der Inhaltsregel durch. Ein Client mit einer URL-Anforderung, die /member/ enthält, wird an server2.mywebsite.com weitergeleitet. Ein Client mit einer URL-Anforderung, die /guest/ enthält, wird an server3.mywebsite.com weitergeleitet.

    10. Starten Sie wie folgt die Managerfunktion von CBR:

      cbrcontrol manager start

    11. Starten Sie wie folgt die Advisor-Funktion von CBR:

      cbrcontrol advisor start http 80

      CBR stellt jetzt sicher, dass keine Clientanforderungen an einen ausgefallenen Webserver gesendet werden.

    Die Basiskonfiguration mit lokal angeschlossenen Servern ist damit vollständig.

    Konfiguration testen

    Testen Sie wie folgt, ob die Konfiguration korrekt ist:

    1. Rufen Sie in einem Webbrowser die Adresse http://www.mywebsite.com/member/index.htm auf. Wenn eine Seite angezeigt wird, funktioniert die Konfiguration.
    2. Laden Sie die Seite erneut im Webbrowser.
    3. Überprüfen Sie die Ergebnisse des folgenden Befehls:
      cbrcontrol server report www.mywebsite.com:80:
      
      Die Einträge der Spalte "Summe Verbindungen" für beide Server sollten addiert 2 ergeben.

    Konfiguration über die grafische Benutzerschnittstelle

    Informationen zur Verwendung der grafischen Benutzerschnittstelle von CBR finden Sie im Abschnitt Grafische Benutzerschnittstelle und in Anhang A. Allgemeine Anweisungen zur grafischen Benutzerschnittstelle.

    Konfiguration mit dem Konfigurationsassistenten

    Informationen zur Verwendung des CBR-Assistenten finden Sie im Abschnitt Konfigurationsassistent.


    Typen von Cluster-, Port- und Serverkonfigurationen

    Es gibt viele Möglichkeiten, CBR für die Unterstützung Ihrer Site zu konfigurieren. Wenn Sie für Ihre Site nur einen Hostnamen haben, zu dem alle Kunden eine Verbindung herstellen, können Sie einen Cluster mit Servern definieren. Für jeden dieser Server konfigurieren Sie einen Port, über den CBR kommuniziert. Sehen Sie sich die Abbildung 9 an.

    Abbildung 17. CBR-Beispielkonfiguration mit einem Cluster und zwei Ports

    Einfache Konfiguration

    In diesem Beispiel ist für die Komponente CBR ein Cluster mit der Adresse www.productworks.com definiert. Dieser Cluster hat zwei Ports: Port 80 für HTTP und Port 443 für SSL. Ein Client, der eine Anforderung an http://www.productworks.com (Port 80) richtet, wird einem anderen Server zugeordnet als ein Client, der eine Anforderung an http://www.productworks.com (Port 443) richtet.

    Wenn Ihre Site sehr groß ist und Sie für jedes unterstützte Protokoll mehrere dedizierte Server haben, sollten Sie CBR auf andere Weise konfigurieren. In diesem Fall könnten Sie für jedes Protokoll einen Cluster mit nur einem Port, aber mehreren Servern definieren (siehe Abbildung 10).

    Abbildung 18. CBR-Beispielkonfiguration mit zwei Clustern mit jeweils einem Port

    Konfiguration mit zwei Cluster mit jeweils einem einzigen Port

    In diesem Beispiel für die Komponente CBR sind zwei Cluster definiert: www.productworks.com für Port 80 (HTTP) und www.testworks.com für Port 443 (SSL).

    Wenn Ihre Site Inhalte für mehrere Unternehmen oder Abteilungen bereitstellt, die jeweils mit einem eigenen URL auf Ihre Site zugreifen, muss CBR auf eine dritte Art konfiguriert werden. In diesem Fall könnten Sie für jede Firma oder Abteilung einen Cluster definieren und anschließend die Ports, an denen Verbindungen mit dem jeweiligen URL empfangen werden sollen (siehe Abbildung 11).

    Abbildung 19. CBR-Beispielkonfiguration mit zwei Clustern mit jeweils zwei Ports

    Konfiguration mit zwei Cluster mit jeweils zwei Ports

    In diesem Beispiel für die Komponente CBR wurden für die Sites www.productworks.com und www.testworks.com jeweils zwei Cluster mit Port 80 (HTTP) und Port 443 (SSL) definiert.


    Planung für Content Based Routing

    In diesem Kapitel wird beschrieben, was die für die Planung des Netzes zuständige Person vor der Installation und Konfiguration der Komponente CBR mit Caching Proxy berücksichtigen muss.

    Dieses Kapitel enthält die folgenden Abschnitte:


    Überlegungen bei der Planung

    Mit der Komponente CBR können Sie unter Verwendung von Caching Proxy zum Weiterleiten der Anforderung HTTP- und SSL-Datenverkehr verteilen. Mit CBR können Sie einen Lastausgleich für Server durchführen, die Sie in der CBR-Konfigurationsdatei mit cbrcontrol-Befehlen konfiguriert haben.

    Anmerkung:
    Die Komponente Content Based Routing (CBR) ist auf allen unterstützten Plattformen, die keine 64-Bit-JVM ausführen, verfügbar. Alternativ können Sie die Weiterleitungsmethode "cbr" der Load-Balancer-Komponente Dispatcher verwenden, um inhaltsbasiertes Routing ohne die Verwendung von Caching Proxy zu ermöglichen. Weitere Informationen finden Sie im Abschnitt Dispatcher-Weiterleitungsmethode "cbr".

    CBR ist dem Dispatcher hinsichtlich der Komponentenstruktur sehr ähnlich. CBR umfasst die folgenden Funktionen:

    Die drei wichtigsten Funktionen der Komponente CBR (Executor, Manager und Advisor-Funktionen) arbeiten gemeinsam an der Verteilung der eingehenden Anforderungen auf die Server. Neben dem Verteilen von Anforderungen überwacht der Executor die Anzahl neuer und aktiver Verbindungen. Diese Informationen stellt er anschließend dem Manager zur Verfügung.

    Anforderungen nach verschiedenen Inhalten verteilen

    Die Komponente CBR gibt Ihnen die Möglichkeit, eine Gruppe von Servern anzugeben, die eine Anforderung auf der Basis des Abgleichs eines regulären Ausdrucks mit dem Inhalt der Clientanforderung bearbeiten. Mit CBR können Sie Ihre Site partitionieren, so dass verschiedene Inhalte oder Anwendungsdienste von unterschiedlichen Servergruppen bearbeitet werden. Diese Partitionierung ist für Clients, die auf Ihre Site zugreifen, transparent.

    Siteinhalt für kürzere Antwortzeiten aufteilen

    Eine Möglichkeit, Ihre Site zu partitionieren, besteht darin, einige Server ausschließlich für die Bearbeitung von cgi-Anforderungen und eine andere Gruppe von Servern für die Bearbeitung aller anderen Anforderungen zuzuordnen. Dies verhindert, dass die Server aufgrund der Verarbeitung umfangreicher cgi-Scripts für den normalen HTML-Datenverkehr zu langsam werden, und resultiert in einer insgesamt besseren Antwortzeit für die Clients. Mit Hilfe dieses Schemas könnten Sie auch leistungsstärkere Workstations für normale Anforderungen zuordnen. Dadurch würde die Antwortzeit für Clients verbessert, ohne dass alle Ihre Server aufgerüstet werden müssen. Sie könnten auch für cgi-Anforderungen leistungsstärkere Workstations zur Verfügung stellen.

    Eine andere Möglichkeit zur Partitionierung Ihrer Site besteht darin, Clients, die auf Seiten mit erforderlicher Registrierung zugreifen, an eine Servergruppe zu verweisen, und alle anderen Anforderungen an eine zweite Servergruppe zu senden. Damit würde verhindert, dass Browser Ihrer Site Ressourcen binden, die von bereits registrierten Clients verwendet werden könnten. Außerdem könnten Sie leistungsstärkere Workstation verwenden, um Services für die registrierten Clients zur Verfügung zu stellen.

    Sie könnten natürlich die oben genannten Methoden kombinieren, um eine noch größere Flexibilität und einen noch besseren Service zu erreichen.

    Webserverinhalt sichern

    Da CBR die Angabe mehrerer Server für jede Art von Anforderung zulässt, können die Anforderungen so verteilt werden, dass eine optimale Clientantwortzeit erreicht wird. Aufgrund der Möglichkeit, jedem Inhaltstyp mehrere Server zuzuordnen, sind Sie abgesichert, wenn eine Workstation oder ein Server ausfällt. CBR erkennt den Ausfall und verteilt die Clientanforderungen auf die übrigen Server der Gruppe.

    CPU-Nutzung mit mehreren Caching-Proxy-Prozessen verbessern

    Caching Proxy kommuniziert über die zugehörige Plug-in-Schnittstelle mit einem CBR-Prozess. Voraussetzung dafür ist, dass CBR auf der lokalen Maschine aktiv ist. Da dies zwei separate Prozesse sind, können mehrere Instanzen von Caching Proxy aktiv sein und mit einer Instanz von CBR zusammenarbeiten. Mit dieser Konfiguration können Sie die Adressen oder Funktionen unter den Caching Proxies aufteilen oder die Ressourcennutzung der Maschine Verbessern, weil der Clientdatenverkehr von mehreren Caching Proxies bearbeitet wird. Die Proxy-Instanzen können, je nach den Erfordernissen des Datenverkehrs, an verschiedenen Ports empfangsbereit sein oder an eindeutige IP-Adressen eines Ports gebunden werden.

    Regelbasierter Lastausgleich mit CBR

    CBR überprüft zusammen mit Caching Proxy HTTP-Anforderungen anhand angegebener Regeltypen. Wenn Caching Proxy aktiv ist, akzeptiert es Clientanforderungen und fragt bei CBR den besten Server an. Bei dieser Abfrage gleicht CBR die Anforderung mit einer Gruppe von Regeln mit bestimmten Prioritäten ab. Wenn eine Regel erfüllt ist, wird aus einer vorkonfigurierten Servergruppe ein geeigneter Server ausgewählt. Abschließend teilt CBR Caching Proxy mit, welcher Server ausgewählt wurde. Die Anforderung wird dann an diesen Server weitergeleitet.

    Nachdem Sie einen Cluster für den Lastausgleich definiert haben, müssen Sie sicherstellen, dass es für alle Anforderungen an diesen Cluster eine Regel für die Auswahl eines Servers gibt. Wird keine Regel gefunden, die zu einer bestimmten Anforderung passt, empfängt der Client von Caching Proxy eine Fehlerseite. Das Erstellen einer in allen Fällen gültigen Regel ("always true") mit einer sehr hohen Prioritätsnummer ist der einfachste Weg zu gewährleisten, dass alle Anforderungen mit einer Regel übereinstimmen. Vergewissern Sie sich, dass die von dieser Regel verwendeten Server alle Anforderungen bearbeiten können, die nicht explizit von den Regeln mit einer kleineren Prioritätsnummer bearbeitet werden. (Anmerkung: Die Regeln mit kleinerer Prioritätsnummer werden zuerst ausgewertet.)

    Weitere Informationen finden Sie im Abschnitt Regelbasierten Lastausgleich konfigurieren.

    Lastausgleich für sichere Verbindungen (SSL)

    CBR mit Caching Proxy kann SSL-Übertragungen vom Client zum Proxy empfangen und Übertragungen vom Proxy zu einem SSL-Server unterstützen. Wenn Sie für einen Server der CBR-Konfiguration einen SSL-Port für den Empfang der SSL-Anforderung vom Client definieren, können Sie den Datenverkehr mit CBR auf sichere Server (SSL-Server) verteilen und die Sicherheit Ihrer Site gewährleisten.

    Zusätzlich zu den Änderungen an der Datei "ibmproxy.conf" für CBR müssen Sie der Datei "ibmproxy.conf" eine Konfigurationsanweisung hinzufügen, um die SSL-Verschlüsselung für Datenverkehr vom Proxy zum Server zu aktivieren. Diese Anweisung muss das folgende Format haben:

    proxy
    URI-Muster URL-Muster Adresse

    Hier ist uri-Muster ein zu suchendes Muster (z. B. /secure/*), url-Muster ein Austausch-URL (z. B. https://ClusterA/secure/*) und Adresse die Clusteradresse (z. B. ClusterA).

    Lastausgleich für SSL-Datenverkehr vom Client zum Proxy und HTTP-Datenverkehr vom Proxy zum Server

    Die Komponente CBR mit Caching Proxy kann auch SSL-Übertragungen vom Client empfangen und die SSL-Anfrage vor der Weiterleitung an einen HTTP-Server entschlüsseln. Für den Befehl "cbrcontrol server" gibt es das optionale Schlüsselwort mapport, damit CBR SSL-Datenverkehr vom Client zum Proxy und HTTP-Datenverkehr vom Proxy zum Server unterstützen kann. Verwenden Sie dieses Schlüsselwort, wenn der Port auf dem Server ein anderer als der vom Client eingehende Port ist. Nachfolgend sehen Sie ein Beispiel für das Hinzufügen eines Ports mit dem Schlüsselwort mapport. Der Clientport ist 443 (SSL) und der Serverport 80 (HTTP):

    cbrcontrol server add Cluster:443 mapport 80
    

    Die Portnummer für mapport kann eine beliebige positive ganze Zahl sein. Die Standardportnummer ist der Wert des vom Client eingehenden Ports.

    Da CBR in der Lage sein muss, Empfehlungen zu einer HTTP-Anforderung für einen am Port 443 (SSL) konfigurierten Server zu geben, gibt es die spezielle Advisor-Funktion ssl2http. Diese Advisor-Funktion wird an (dem vom Client eingehenden) Port 443 gestartet und gibt Empfehlungen zu den für diesen Port konfigurierten Servern. Wenn zwei Cluster konfiguriert sind und jeder der Cluster den Port 443 und die Server mit einem anderen mapport konfiguriert hat, kann eine Instanz der Advisor-Funktion den entsprechenden Port öffnen. Nachfolgend ist ein Beispiel dieser Konfiguration aufgeführt:

    Executor          
        Cluster1
           Port:443
               Server1 mapport 80
               Server2 mapport 8080
        Cluster2
           Port:443
               Server3 mapport 80
               Server4 mapport 8080
        Manager
          Advisor ssl2http 443
     
    

    Content Based Routing konfigurieren

    Lesen Sie vor dem Ausführen der Schritte in diesem Teil den Abschnitt Planung für Content Based Routing. In diesem Kapitel wird erklärt, wie eine Basiskonfiguration für die Komponente CBR von Load Balancer erstellt wird.


    Übersicht über Konfigurations-Tasks

    Vergewissern Sie sich vor Ausführung der Konfigurationsschritte in dieser Tabelle, dass die CBR-Maschine und alle Servermaschinen mit dem Netz verbunden sind, gültige IP-Adressen haben und sich mit Ping-Aufrufen erreichen können.

    Anmerkung:
    Die Komponente Content Based Routing (CBR) ist auf allen unterstützten Plattformen, die keine 64-Bit-JVM ausführen, verfügbar. Alternativ können Sie die Weiterleitungsmethode "cbr" der Load-Balancer-Komponente Dispatcher verwenden, um inhaltsbasiertes Routing ohne die Verwendung von Caching Proxy zu ermöglichen. Weitere Informationen finden Sie im Abschnitt Dispatcher-Weiterleitungsmethode "cbr".

    Tabelle 10. Konfigurations-Tasks für die Komponente CBR

    TaskBeschreibungReferenzinformationen
    CBR-Maschine konfigurierenStellen Sie fest, welche Voraussetzungen zu erfüllen sind.CBR-Maschine konfigurieren
    Am Lastausgleich beteiligte Maschinen konfigurieren. Definieren Sie Ihre Lastausgleichskonfiguration. Schritt 7. Am Lastausgleich beteiligte Servermaschinen definieren

    Konfigurationsmethoden

    Es gibt im Wesentlichen vier Methoden für das Erstellen einer Basiskonfiguration für die Komponente CBR von Load Balancer:

    Voraussetzung für die Verwendung von CBR ist die Installation von Caching Proxy.

    Anmerkung:
    Caching Proxy ist ein Dienst, der nach der Installation standardmäßig automatisch gestartet wird. Vor dem Starten der CBR-Serverfunktion (cbrserver) müssen Sie Caching Proxy stoppen und den Dienst Caching Proxy so modifizieren, dass er manuell gestartet wird.

    Befehlszeile

    Dies ist die direkte Methode für die Konfiguration von CBR. Die Werte der Befehlsparameter müssen in englischen Zeichen eingegeben werden. Die einzige Ausnahme hiervon bilden Hostnamen (die z. B. in den Befehlen "cluster" und "server" verwendet werden) und Dateinamen.

    Starten Sie CBR wie folgt von der Befehlszeile aus:

    Sie können eine gekürzte Version der Parameter für den Befehl "cbrcontrol" eingeben. Sie müssen nur die eindeutigen Buchstaben der Parameter eingeben. Beispiel: Wenn Sie Hilfe für den Befehl zum Speichern von Dateien aufrufen möchten, können Sie cbrcontrol he f an Stelle von cbrcontrol help file angeben.

    Wenn Sie die Befehlszeilenschnittstelle starten möchten, setzen Sie den Befehl cbrcontrol ab, um die cbrcontrol-Eingabeaufforderung aufzurufen.

    Sie können die Befehlszeilenschnittstelle verlassen, indem Sie den Befehl exit oder quit absetzen.

    Anmerkungen:

    1. Auf der Windows-Plattform wird dsserver für die Komponente Dispatcher automatisch gestartet. Falls Sie nur mit CBR und nicht mit der Komponente Dispatcher arbeiten, können Sie den automatischen Start von dsserver wie folgt unterbinden:
      1. Klicken Sie im Fenster "Dienste" mit der rechten Maustaste auf "IBM Dispatcher".
      2. Wählen Sie den Menüeintrag "Eigenschaften" aus.
      3. Wählen Sie im Feld Starttyp die Option Manuell aus.
      4. Klicken Sie auf OK und schließen Sie das Fenster "Dienste".

    2. Wenn Sie Content Based Routing (CBR) nicht von der Eingabeaufforderung cbrcontrol>> aus, sondern lieber von der Eingabeaufforderung des Betriebssystems aus konfigurieren möchten, seien Sie bei Verwendung der folgenden Zeichen vorsichtig:

      ( ) linke und rechte runde Klammer

      & Et-Zeichen

      | vertikaler Balken

      ! Ausrufezeichen

      * Stern.

      Die Shell des Betriebssystems könnte diese Zeichen als Sonderzeichen interpretieren und in alternativen Text konvertieren, bevor sie von cbrcontrol ausgewertet werden.

      Die oben aufgelisteten Sonderzeichen sind optionale Zeichen für den Befehl cbrcontrol rule add und werden zum Angeben eines Musters für eine Inhaltsregel verwendet. Der folgende Befehl ist deshalb unter Umständen nur bei Verwendung der Eingabeaufforderung cbrcontrol>> gültig.

      rule add 10.1.203.4:80:cbr_prod_rule_ek type content
        pattern uri=/nipoek/*

      Wenn dieser Befehl an der Eingabeaufforderung des Betriebssystems funktionieren soll, müssen Sie das Muster wie folgt in Anführungszeichen setzen:

      cbrcontrol rule add 10.1.203.4:80:cbr_prod_rule_ek type content
        pattern "uri=/nipoek/*"
      

      Fehlen die Anführungszeichen, könnte beim Speichern der Regel in CBR ein Teil des Musters abgeschnitten werden. An der Eingabeaufforderung cbrcontrol>> wird die Verwendung von Anführungszeichen nicht unterstützt.

    Scripts

    Die Befehle zum Konfigurieren von CBR können in eine Konfigurationsscriptdatei eingegeben und dann zusammen ausgeführt werden.

    Anmerkung:
    Falls Sie den Inhalt einer Scriptdatei (z. B. myScript) schnell ausführen möchten, verwenden Sie einen der folgenden Befehle:

    Führen Sie den folgenden Befehl aus, um die aktuelle Konfiguration in einer Scriptdatei (z. B. savescript) zu speichern:

    cbrcontrol file save savescript
    

    Dieser Befehl speichert die Scriptdatei mit der Konfiguration im Verzeichnis ...ibm/edge/lb/servers/configurations/cbr.

    Grafische Benutzerschnittstelle

    Allgemeine Anweisungen und ein Beispiel zur grafischen Benutzerschnittstelle finden Sie in Abbildung 41.

    Gehen Sie zum Starten der GUI wie folgt vor:

    1. Vergewissern Sie sich, dass cbrserver aktiv ist. Setzen Sie an einer Eingabeaufforderung als Root oder Administrator den Befehl cbrserver ab.
    2. Führen Sie je nach Betriebssystem eine der folgenden Aktionen aus:
    3. Starten Sie Caching Proxy. (Wenn Sie die GUI verwenden, müssen Sie zunächst eine Hostverbindung herstellen und vor dem Start von Caching Proxy den Executor für die Komponente CBR starten.) Führen Sie einen der folgenden Schritte aus:

    Zum Konfigurieren der Komponente CBR über die grafische Benutzerschnittstelle müssen Sie zunächst in der Baumstruktur Content Based Routing auswählen. Sie können den Manager starten, nachdem Sie eine Verbindung zu einem Host hergestellt haben. Sie können auch Cluster mit Ports und Servern erstellen und Advisor-Funktionen für den Manager starten.

    Über die grafische Benutzerschnittstelle können Sie die gleichen Schritte wie mit dem Befehl cbrcontrol ausführen. Wenn Sie beispielsweise einen Cluster über die Befehlszeile definieren möchten, geben Sie den Befehl cbrcontrol cluster add Clustername ein. Zum Definieren eines Clusters von der GUI aus müssen Sie mit der rechten Maustaste auf "Executor" klicken und in dem daraufhin angezeigten Popup-Menü mit der linken Maustaste auf Cluster hinzufügen. Geben Sie im Dialogfenster die Clusteradresse ein, und klicken Sie auf OK.

    Bereits vorhandene CBR-Konfigurationsdateien können Sie mit der im Popup-Menü Host angezeigten Option Neue Konfiguration laden (zum vollständigen Ersetzen der derzeitigen Konfiguration) oder An aktuelle Konfiguration anfügen (zum Aktualisieren der derzeitigen Konfiguration) laden. Sie sollten Ihre CBR-Konfiguration von Zeit zu Zeit mit der Option Konfigurationsdatei sichern unter in einer Datei sichern. Diese Option ist ebenfalls im Popup-Menü Host enthalten. Das oben in der grafischen Benutzerschnittstelle befindliche Menü Datei bietet Ihnen die Möglichkeit, die aktuellen Hostverbindungen in einer Datei zu speichern oder Verbindungen aus vorhandenen Dateien für alle Komponenten von Load Balancer wiederherzustellen.

    Sie können auf Hilfe zugreifen, indem Sie auf das Fragezeichen in der oberen rechten Ecke des Fensters von Load Balancer klicken.

    Wenn Sie von der GUI aus einen Befehl ausführen möchten, gehen Sie wie folgt vor: Heben Sie in der GUI-Baumstruktur den Hostknoten hervor, und wählen Sie im Popup-Menü "Host" Befehl senden... aus. Geben Sie im Befehlseingabefeld den gewünschten Befehl ein, z. B. executor report. In einem Fenster sehen Sie die Ergebnisse und die Historie der in der aktuellen Sitzung ausgeführten Befehle.

    Weitere Informationen zur Verwendung der grafischen Benutzerschnittstelle finden Sie in Anhang A. Allgemeine Anweisungen zur grafischen Benutzerschnittstelle.

    Konfigurationsassistent

    Führen Sie folgende Schritte aus, wenn Sie den Konfigurationsassistenten verwenden:

    1. Starten Sie cbrserver, indem Sie an der Eingabeaufforderung Root bzw. Administrator den Befehl cbrserver absetzen.
    2. Starten Sie wie folgt die Assistentenfunktion von CBR:

      Starten Sie den Assistenten von der Eingabeaufforderung aus, indem Sie den Befehl cbrwizard absetzen. Sie können den Konfigurationsassistenten auch im CBR-Komponentenmenü auswählen, das auf der GUI angezeigt wird.

    3. Starten Sie Caching Proxy zum Verteilen des HTTP- oder HTTPS-Datenverkehrs (SSL).

      Auf AIX-, HP-UX-, Linux- oder Solaris-Systemen: Geben Sie zum Starten von Caching Proxy ibmproxy ein.

      Für Windows-Systeme: Rufen Sie zum Starten von Caching Proxy die Anzeige "Dienste" auf: Start > Einstellungen (für Windows 2000) > Systemsteuerung > Verwaltung > Dienste.

    Der CBR-Assistent führt Sie schrittweise durch den Prozess zum Erstellen einer Basiskonfiguration für die Komponente CBR. Der Assistent stellt Ihnen Fragen bezüglich Ihres Netzes und führt Sie durch die Konfiguration eines Clusters, mit dem CBR den Datenverkehr auf eine Gruppe von Servern verteilen kann.


    CBR-Maschine konfigurieren

    Vor dem Konfigurieren der Maschine mit CBR müssen Sie (auf AIX-, HP-UX-, Linux- oder Solaris-Systemen) als Root oder (auf Windows-Systemen) als Administrator registriert sein.

    Sie benötigen für jeden zu konfigurierenden Servercluster eine IP-Adresse. Eine Clusteradresse ist eine Adresse, die einem Hostnamen zugeordnet ist (beispielsweise www.firma.com). Diese IP-Adresse wird von einem Client benutzt, um die Verbindung zu den Servern in einem Cluster herzustellen. Diese Adresse ist in der URL-Anforderung von dem Client enthalten. CBR verteilt alle Anforderungen, die an dieselbe Clusteradresse gerichtet sind.

    Nur für Solaris-Systeme: Vor Verwendung der Komponente CBR müssen die Systemstandardwerte für die prozessübergreifende Kommunikation (Inter-process Communication) geändert werden. Die maximale Größe des gemeinsam benutzten Speichersegments und die Anzahl von Semaphor-Kennungen müssen erhöht werden. Sie können Ihr System auf die Unterstützung für CBR einstellen, indem Sie die Datei /etc/system auf Ihrem System editieren und die folgenden Anweisungen hinzufügen, bevor Sie dann einen Warmstart durchführen:

    set shmsys:shminfo_shmmax=0x02000000
    set semsys:seminfo_semmap=750
    set semsys:seminfo_semmni=30
    set semsys:seminfo_semmns=750
    set semsys:seminfo_semmnu=30
    set semsys:seminfo_semume=30

    Wenn Sie das gemeinsam benutzte Speichersegment nicht auf die oben gezeigten Werte vergrößern, kann der Befehl cbrcontrol executor start nicht ausgeführt werden.

    Schritt 1. Caching Proxy für die Verwendung von CBR konfigurieren

    Voraussetzung für die Verwendung von CBR ist die Installation von Caching Proxy.

    Anmerkung:
    Caching Proxy ist ein Dienst, der nach der Installation standardmäßig automatisch gestartet wird. Vor dem Starten der CBR-Serverfunktion müssen Sie Caching Proxy stoppen und den Dienst Caching Proxy so modifizieren, dass er manuell gestartet wird.

    Die Konfigurationsdatei für Caching Proxy (ibmproxy.conf) müssen Sie wie folgt ändern:

    Vergewissern Sie sich, dass die eingehende URL-Anweisung CacheByIncomingUrl auf off (Standardeinstellung) gesetzt ist.

    Fügen Sie in der Konfigurationsdatei für jeden Cluster zum Abschnitt mit den Zuordnungsregel eine ähnliche Zuordnungsregel wie die folgende hinzu:

    Proxy    /*  http://cluster.domain.com/*    cluster.domain.com
    
    Anmerkung:
    CBR legt das Protokoll, den Server und den Zielport später fest.

    Für das CBR-Plug-in müssen Sie vier Einträge editieren:

    Jeder Eintrag muss sich jeweils in einer neuen Zeile befinden. Die Datei "ibmproxy.conf" enthält mehrere Einträge "ServerInit", einen für jedes Plug-in. Die Einträge für das CBR-Plug-in müssen editiert werden. Außerdem müssen Sie das Kommentarzeichen löschen.

    Nachfolgend sehen Sie die spezifischen Zusätze zur Konfigurationsdatei für die einzelnen Betriebssysteme.

    Abbildung 20. CBR-Konfigurationsdatei für AIX-, Linux- und Solaris-Systeme

    ServerInit  /opt/ibm/edge/lb/servers/lib/liblbcbr.so:ndServerInit 
     
    PostAuth  /opt/ibm/edge/lb/servers/lib/liblbcbr.so:ndPostAuth 
     
    PostExit  /opt/ibm/edge/lb/servers/lib/liblbcbr.so:ndPostExit 
     
    ServerTerm  /opt/ibm/edge/lb/servers/lib/liblbcbr.so:ndServerTerm

    Abbildung 21. CBR-Konfigurationsdatei für HP-UX-Systeme

    ServerInit  /opt/ibm/edge/lb/servers/lib/liblbcbr.sl:ndServerInit 
     
    PostAuth  /opt/ibm/edge/lb/servers/lib/liblbcbr.sl:ndPostAuth 
     
    PostExit  /opt/ibm/edge/lb/servers/lib/liblbcbr.sl:ndPostExit 
     
    ServerTerm  /opt/ibm/edge/lb/servers/lib/liblbcbr.sl:ndServerTerm

    Abbildung 22. CBR-Konfigurationsdatei für Windows-Systeme

    ServerInit  C:\Programme\IBM\edge\lb\servers\lib\liblbcbr.dll:ndServerInit 
     
    PostAuth  C:\Programme\IBM\edge\lb\servers\lib\liblbcbr.dll:ndPostAuth 
     
    PostExit  C:\Programme\IBM\edge\lb\servers\lib\liblbcbr.dll:ndPostExit 
     
    ServerTerm  C:\Programme\IBM\edge\lb\servers\lib\liblbcbr.dll:ndServerTerm
    

    Schritt 2. Serverfunktion starten

    Geben Sie zum Starten der CBR-Serverfunktion in der Befehlszeile cbrserver ein.

    Eine Standardkonfigurationsdatei (default.cfg) wird beim Starten von cbrserver automatisch geladen. Wenn Sie die CBR-Konfiguration in default.cfg sichern, werden alle in dieser Datei gesicherten Angaben beim nächsten Starten von cbrserver automatisch geladen.

    Schritt 3. Executor-Funktion starten

    Geben Sie zum Starten der Executor-Funktion den Befehl cbrcontrol executor start ein. Sie können jetzt auch verschiedene Executor-Einstellungen ändern. Weitere Informationen finden Sie im Abschnitt dscontrol executor -- Executor steuern.

    Schritt 4. Cluster definieren und Clusteroptionen festlegen

    CBR verteilt die an den Cluster gesendeten Anforderungen auf die entsprechenden Server, die für die Ports dieses Clusters konfiguriert wurden.

    Der Cluster ist der symbolische Name im Hostabschnitt des URL und muss mit dem in der Proxy-Anweisung der Datei "ibmproxy.conf" verwendeten Namen übereinstimmen.

    In CBR definierte Cluster sollten so definiert werden, dass sie mit der eingehenden Anforderung übereinstimmen. Ein Cluster muss mit dem Hostnamen oder der IP-Adresse definiert werden, der bzw. die in der eingehenden Anforderung enthalten ist. Wird die Anforderung beispielsweise mit der IP-Adresse eingegeben, muss der Cluster mit der IP-Adresse definiert sein. Falls mehrere Hostnamen in eine IP-Adresse aufgelöst werden (und Anforderungen mit jedem dieser Hostnamen eingehen können), sollten alle Hostnamen als Cluster definiert sein.

    Setzen Sie zum Definieren eines Clusters den folgenden Befehl ab:

    cbrcontrol cluster add Cluster
    

    Setzen Sie zum Festlegen von Clusteroptionen den folgenden Befehl ab:

    cbrcontrol cluster set Wert_der_Clusteroption

    Weitere Informationen finden Sie im Abschnitt Befehlsreferenz für Dispatcher und CBR.

    Schritt 5. Aliasnamen auf der Netzschnittstellenkarte erstellen (optional)

    Wenn Sie Caching Proxy als Reverse Proxy konfiguriert haben und einen Lastausgleich für mehrere Websites durchführen, müssen Sie die Clusteradresse jeder Website zu mindestens einer Netzschnittstellenkarte der Load-Balancer-Maschine hinzufügen. Andernfalls kann dieser Schritt übergangen werden.

    Auf AIX-, HP-UX-, Linux- oder Solaris-Systemen fügen Sie die Clusteradresse mit dem Befehl "ifconfig" der Netzschnittstellenkarte hinzu. Den Befehl für das von Ihnen verwendete Betriebssystem können Sie Tabelle 11 entnehmen.

    Tabelle 11. Befehle zum Erstellen eines Aliasnamens auf der NIC

    AIXifconfig Schnittstellenname Alias Clusteradresse Netzmaske Netzmaske
    HP-UXifconfig Schnittstellenname Clusteradresse Netzmaske Netzmaske up
    Linuxifconfig Schnittstellenname Clusteradresse Netzmaske Netzmaske up
    Solaris 8, Solaris 9 und Solaris 10 ifconfig Schnittstellenname addif Clusteradresse Netzmaske Netzmaske up
    Anmerkung:
    Auf Linux- und HP-UX-Systemen muss der Schnittstellenname für jede hinzugefügte Clusteradresse eine eindeutige Nummer haben, z. B. eth0:1, eth0:2 usw.

    Für Windows 2000: Gehen Sie zum Hinzufügen der Clusteradresse zur Netzschnittstelle wie folgt vor:

    1. Klicken Sie auf Start > Einstellungen > Systemsteuerung.
    2. Klicken Sie doppelt auf Netzwerk- und DFÜ-Verbindungen.
    3. Klicken Sie mit der rechten Maustaste auf LAN-Verbindung.
    4. Wählen Sie Eigenschaften aus.
    5. Wählen Sie Internetprotokoll (TCP/IP) aus, und klicken Sie auf Eigenschaften.
    6. Wählen Sie Folgende IP-Adresse verwenden aus, und klicken Sie auf Erweitert.
    7. Klicken Sie auf Hinzufügen. Geben Sie dann die IP-Adresse und die Subnetzmaske für den Cluster ein.

    Für Windows 2003: Gehen Sie zum Hinzufügen der Clusteradresse zur Netzschnittstelle wie folgt vor:

    1. Klicken Sie auf Start > Systemsteuerung > Netzverbindungen > LAN-Verbindung.
    2. Klicken Sie auf Eigenschaften.
    3. Wählen Sie Internetprotokoll (TCP/IP) aus, und klicken Sie auf Eigenschaften.
    4. Wählen Sie Folgende IP-Adresse verwenden aus, und klicken Sie auf Erweitert.
    5. Klicken Sie auf Hinzufügen. Geben Sie dann die IP-Adresse und die Subnetzmaske für den Cluster ein.

    Schritt 6. Ports definieren und Portoptionen festlegen

    Die Portnummer bezeichnet den Port, an dem die Serveranwendungen empfangsbereit sind. Für HTTP-Datenverkehr ist dies bei Verwendung von CBR mit Caching Proxy in der Regel Port 80.

    Setzen Sie den folgenden Befehl ab, um für den im vorherigen Schritt definierten Cluster einen Port zu definieren:

    cbrcontrol port add Cluster:Port 
    

    Setzen Sie zum Festlegen von Portoptionen den folgenden Befehl ab:

    cbrcontrol port set Cluster:Wert_der_Portoption

    Weitere Informationen finden Sie im Abschnitt Befehlsreferenz für Dispatcher und CBR.

    Schritt 7. Am Lastausgleich beteiligte Servermaschinen definieren

    Die Servermaschinen sind die Maschinen, auf denen die Anwendungen ausgeführt werden, deren Last verteilt werden soll. Für Server wird der symbolische Name der Servermaschine oder deren Adresse in Schreibweise mit Trennzeichen angegeben. Setzen Sie den folgenden Befehl ab, um für Cluster und Port einen Server zu definieren:

    cbrcontrol server add Cluster:Port:Server

    Für einen Cluster müssen Sie pro Port mehrere Server definieren, um einen Lastausgleich durchführen zu können.

    Schritt 8. Regeln zur Konfiguration hinzufügen

    Dies ist der wichtigste Schritt beim Konfigurieren von CBR mit Caching Proxy. Mit einer Regel wird definiert, wie zwischen URL-Anforderungen unterschieden wird und wie eine Anforderung an die entsprechende Gruppe von Servern gesendet wird. Der spezielle von CBR verwendete Regeltyp ist "content". Setzen Sie zum Definieren einer Inhaltsregel den folgenden Befehl ab:

    cbrcontrol rule
    add Cluster:Port:Regel type content pattern Muster

    Der Wert Muster ist der reguläre Ausdruck, der mit dem URL in den einzelnen Clientanforderungen verglichen wird. Weitere Informationen zum Konfigurieren des Musters finden Sie in Anhang B. Syntax für Inhaltsregeln (Muster).

    Einige der anderen in Dispatcher definierten Regeltypen können ebenfalls für CBR verwendet werden. Weitere Informationen finden Sie im Abschnitt Regelbasierten Lastausgleich konfigurieren.

    Schritt 9. Server zu den Regeln hinzufügen

    Wenn für eine Clientanforderung eine Übereinstimmung mit einer Regel gefunden wird, wird bei der der Regel zugeordneten Servergruppe der beste Server abgefragt. Die der Regel zugeordnete Servergruppe ist eine Untergruppe der Server, die für den Port definiert sind. Setzen Sie den folgenden Befehl ab, um Server zur Servergruppe einer Regel hinzuzufügen:

    cbrcontrol rule useserver Cluster:Port:Regel server
    

    Schritt 10. Managerfunktion starten (optional)

    Die Managerfunktion verbessert den Lastausgleich. Setzen Sie zum Starten des Managers den folgenden Befehl ab:

    cbrcontrol manager start

    Schritt 11. Advisor-Funktion starten (optional)

    Die Advisor-Funktionen liefern dem Manager weitere Informationen über die Fähigkeit der am Lastausgleich beteiligten Servermaschinen, auf Anforderungen zu antworten. Advisor-Funktionen sind protokollspezifisch. Soll beispielsweise die HTTP-Advisor-Funktion gestartet werden, setzen Sie den folgenden Befehl ab:

    cbrcontrol advisor start http Port
    

    Schritt 12. Clusterproportionen festlegen

    Wenn Sie Advisor-Funktionen starten, können Sie die Wichtigkeit ändern, die in Entscheidungen für den Lastausgleich einfließenden Informationen von Advisor-Funktionen beigemessen wird. Setzen Sie zum Festlegen von Clusterproportionen den Befehl cbrcontrol cluster set Cluster proportions ab. Weitere Informationen finden Sie im Abschnitt Proportionale Bedeutung von Statusinformationen.

    Schritt 13. Caching Proxy starten

    Starten Sie in der neuen Umgebung, indem Sie an der Eingabeaufforderung den Befehl ibmproxy absetzen.

    Anmerkung:
    Für Windows-Systeme: Starten Sie Caching Proxy über die Anzeige "Dienste": Start -> Einstellungen (für Windows 2000) -> Systemsteuerung -> Verwaltung -> Dienste.

    CBR-Konfigurationsbeispiel

    Führen Sie die folgenden Schritte aus, um CBR zu konfigurieren:

    1. Starten Sie CBR durch Absetzen des Befehls cbrserver.
    2. Starten Sie die Befehlszeilenschnittstelle. Setzen Sie dazu den Befehl cbrcontrol ab.
    3. Die Eingabeaufforderung cbrcontrol wird angezeigt. Setzen Sie die folgenden Befehle ab. (cluster(c),port(p),rule(r),server(s))
    4. Starten Sie Caching Proxy durch Absetzen des Befehls ibmproxy. (Auf der Windows-Plattform müssen Sie Caching Proxy über die "Dienste" starten.)
    5. Entfernen Sie alle Proxy-Konfigurationen aus dem Browser.
    6. Laden Sie http://c/ in Ihren Browser. Hier steht "c" für den Cluster, den Sie zuvor konfiguriert haben.

    Kompöonente Site Selector

    Dieser Teil enthält Informationen zu einer schnellen Erstkonfiguration sowie zur Planung und beschreibt die Konfigurationsmethoden für die Komponente Site Selector von Load Balancer. Zu diesem Teil gehören die folgenden Kapitel:


    Schnellkonfiguration

    Dieses Beispiel für einen schnellen Start zeigt das Erstellen einer Sitekonfiguration, bei der Site Selector den Datenverkehr ausgehend von dem in einer Clientanforderung verwendeten Domänennamen auf die Server einer Gruppe verteilt.

    Abbildung 23. Einfache Site-Selector-Konfiguration

    Abbildung, die einen Client, eine Internetwolke, eine Load-Balancer-Maschine und zwei lokal angeschlossene Server mit angegebenen Adressen zeigt.


    Voraussetzungen

    Für dieses Beispiel für schnellen Start benötigen Sie Folgendes:


    Vorbereitungen

    In diesem Beispiel für schnellen Start ist die Domäne der Firmensite mywebshop.com. Site Selector ist für eine Unterdomäne innerhalb von mywebshop.com verantwortlich. Sie müssen daher eine Unterdomäne von mywebshop.com definieren. Beispiel: apps.mywebshop.com. Site Selector ist kein vollständig implementierter DNS wie BIND und fungiert in einer DNS-Hierarchie als Blattknoten. Site Selector ist für die Unterdomäne apps.mywebshop.com autoritativ. Die Unterdomäne apps.mywebshop.com umfasst die folgenden Sitenamen: marketing.apps.mywebshop.com und developer.apps.mywebshop.com.

    1. Aktualisieren Sie den Domänennamensserver der Firmensite (vergleichen Sie hierzu Abbildung 23). Erstellen Sie in der Datei named.data einen Namensservereintrag für die Unterdomäne (apps.mywebshop.com) mit Site Selector als autoritativem Namensserver:

      apps.mywebshop.com. IN NS siteselector.mywebshop.com

    2. Vergewissern Sie sich, dass der vollständig qualifizierte Hostname oder die Site im aktuellen Domänennamenssystem nicht aufgelöst wird.
    3. Installieren Sie auf den Servern (Server 1, Server 2, Server 3, Server 4), für die Site Selector den Lastausgleich durchführen soll, Metric Server. Weitere Informationen finden Sie im Abschnitt Metric Server.

    Site Selector konfigurieren

    Für Site Selector können Sie eine Konfiguration unter Verwendung der Befehlszeile, des Konfigurationsassistenten oder der grafischen Benutzerschnittstelle (GUI) erstellen. Dieses Beispiel für schnellen Start zeigt die Ausführung der Konfigurationsschritte in der Befehlszeile.

    Anmerkung:
    Die Parameterwerte müssen mit Ausnahme der Parameterwerte für Hostnamen und Dateinamen in englischen Zeichen eingegeben werden.

    Konfiguration über die Befehlszeile

    Führen Sie an einer Eingabeaufforderung die folgenden Schritte aus:

    1. Starten Sie den ssserver auf der Maschine, die das Hosting für Site Selector übernimmt. Setzen Sie an einer Eingabeaufforderung Root bzw. Administrator den Befehl ssserver ab.
      Anmerkung:
      Für Windows-Plattformen: Starten Sie ssserver (IBM Site Selector) über die Anzeige "Dienste": Start > Einstellungen (für Windows 2000) > Systemsteuerung > Verwaltung > Dienste.
    2. Starten Sie wie folgt den Namensserver für die Site-Selector-Konfiguration:

      sscontrol nameserver start

    3. Konfigurieren Sie für Site Selector die Sitenamen (marketing.apps.mywebshop.com und developer.apps.mywebshop.com):

      sscontrol sitename add marketing.apps.mywebshop.com

      sscontrol sitename add developer.apps.mywebshop.com

    4. Fügen Sie die Server zur Site-Selector-Konfiguration hinzu. (Konfigurieren Sie Server 1 und Server 2 für den Sitenamen marketing.apps.mywebshop.com. Konfigurieren Sie Server 3 und Server 4 für den Sitenamen developer.apps.myeebshop.com):

      sscontrol server add marketing.apps.mywebshop.com:server1+server2

      sscontrol server add developer.apps.mywebshop.com:server3+server4

    5. Starten Sie wie folgt die Managerfunktion von Site Selector:

      sscontrol manager start

    6. Starten Sie die Advisor-Funktion von Site Selector (HTTP-Advisor-Funktion für marketing.apps.mywebshop.com und FTP-Advisor-Funktion für developer.apps.mywebshop):

      sscontrol advisor start http marketing.apps.mywebshop.com:80

      sscontrol advisor start ftp developer.apps.mywebshop.com:21

      Site Selector stellt jetzt sicher, dass keine Clientanforderungen an einen ausgefallenen Server gesendet werden.

    7. Vergewissern Sie sich, dass auf allen am Lastausgleich beteiligten Servern Metric Server gestartet wurde.

    Die Basiskonfiguration für Site Selector ist damit vollständig.

    Konfiguration testen

    Testen Sie wie folgt, ob die Konfiguration korrekt ist:

    1. Versuchen Sie von einem Client aus, auf dem ein primärer DNS als verantwortlicher Namensserver für mywebshop.com konfiguriert ist, mit ping einen der konfigurierten Sitenamen zu erreichen.
    2. Stellen Sie eine Verbindung zur Anwendung her. Beispiel:
    3. Überprüfen Sie die Ergebnisse des folgenden Befehls:

      sscontrol server status marketing.apps.mywebshop.com:

      sscontrol server status developer.apps.mywebshop.com:

      Der Eintrag unter "Summe Treffer" müsste für jeden Server den abgesetzten ping- und Anwendungsanforderungen entsprechen.

    Konfiguration über die grafische Benutzerschnittstelle

    Informationen zur Verwendung der grafischen Benutzerschnittstelle von Site Selector finden Sie im Abschnitt Grafische Benutzerschnittstelle und in Anhang A. Allgemeine Anweisungen zur grafischen Benutzerschnittstelle.

    Konfiguration mit dem Konfigurationsassistenten

    Informationen zur Verwendung des Site-Selector-Assistenten können Sie dem Abschnitt Konfigurationsassistent entnehmen.


    Planung für Site Selector

    In diesem Kapitel wird beschrieben, was die für die Planung des Netzes zuständige Person vor der Installation und Konfiguration der Komponente Site Selector berücksichtigen muss.

    Dieses Kapitel enthält die folgenden Abschnitte:


    Überlegungen bei der Planung

    Site Selector verteilt zusammen mit einem Domänennamensserver die Last auf eine Gruppe von Servern. Dazu verwendet Site Selector erfasste Metriken und Wertigkeiten. Sie können eine Sitekonfiguration erstellen, bei der die Last innerhalb einer Servergruppe auf der Grundlage des für eine Clientanforderung verwendeten Domänennamens verteilt wird.

    Einschränkungen: Site Selector unterstützt nur DNS-Abfragen des Typs A. Bei allen anderen Abfragetypen erscheint der Rückkehrcode NOTIMPL (nicht implementiert). Falls eine ganze Domäne an Site Selector delegiert wird, stellen Sie sicher, dass die Domäne nur Abfragen des Typs A empfängt.

    Abbildung 24. Beispiel für eine DNS-Umgebung


    Wenn Sie innerhalb Ihrer DNS-Umgebung eine Unterdomäne für Site Selector einrichten, sollte Site Selector die Berechtigung für diese Unterdomäne haben. Beispiel (siehe Abbildung 24): Ihre Firma hat die Berechtigung für die Domäne firma.com erhalten. Innerhalb der Firma gibt es mehrere Unterdomänen. Site Selector hätte in diesem Fall die Berechtigung für siteload.firma.com und die DNS-Server hätten weiterhin die Berechtigung für atlanta.firma.com und boston.firma.com.

    Damit der Namensserver der Firma erkennt, dass Site Selector die Berechtigung für die Unterdomäne siteload hat, muss zur benannten Datendatei für den Server ein Namensservereintrag hinzugefügt werden. Auf AIX-Systemen würde ein solcher Namensservereintrag etwa wie folgt aussehen:

    siteload.firma.com. IN NS siteselector.firma.com.
    

    Hier ist siteselector.firma.com der Hostname der Site-Selector-Maschine. In allen anderen benannten Datendateien für DNS-Server sind äquivalente Einträge erforderlich.

    Ein Client fordert die Auflösung eines Domänennamens bei einem Namensserver innerhalb seines Netzes an. Der Namensserver leitet die Anforderung an die Site-Selector-Maschine weiter. Site Selector löst den Domänennamen dann in die IP-Adresse eines der Server auf, die für den Sitenamen konfiguriert wurden. Anschließend gibt Site Selector die IP-Adresse des ausgewählten Servers an den Namensserver zurück. Der Namensserver liefert die IP-Adresse an den Client. (Site Selector arbeitet als nicht rekursiver Namensserver (Blattknotenserver) und meldet einen Fehler, wenn die Domänennamensanforderung nicht aufgelöst werden kann.)

    Abbildung 5 veranschaulicht eine Site, bei der Site Selector zusammen mit einem DNS-System die Last auf lokale und ferne Server verteilt.

    Site Selektor umfasst die folgenden Funktionen:

    Die vier wichtigsten Funktionen von Site Selector (Namensserver, Manager, Metric Server und Advisor-Funktionen) interagieren, um die eingehenden Anforderungen auf die Server zu verteilen und aufzulösen.

    Hinweise zu TTL

    Der DNS-gestützte Lastausgleich erfordert, dass Namensauflösungen zwischengespeichert werden können. Der TTL-Wert (Time To Live) bestimmt die Effizienz des DNS-gestützten Lastausgleichs. TTL legt fest, wie lange ein anderer Namensserver die aufgelöste Antwort zwischenspeichert. Bei einem kleinen TTL-Wert können geringfügige Änderungen der Server- oder Netzlast schneller realisiert werden. Wird die Zwischenspeicherung inaktiviert, müssen die Clients sich mit jeder Namensauflösungsanforderung an den maßgeblichen Namensserver wenden, was potenziell die Latenzzeit erhöht. Bei der Auswahl eines TTL-Wertes sollte sorgfältig abgewogen werden, welchen Einfluss das Inaktivieren der Zwischenspeicherung auf eine Umgebung hat. Es ist auch zu bedenken, dass der DNS-gestützte Lastausgleich potenziell von der Zwischenspeicherung von Namensauflösungen auf dem Client eingeschränkt werden kann.

    TTL kann mit dem Befehl sscontrol sitename [add | set] konfiguriert werden. Weitere Informationen finden Sie im Abschnitt sscontrol sitename -- Sitenamen konfigurieren.

    Netzproximität verwenden

    Die Netzproximität ist die Berechnung der Nähe jedes einzelnen Servers zum anfordernden Client. Zum Bestimmen der Netzproximität sendet der Agent Metric Server (der auf jedem Server mit Lastausgleich installiert sein muss) ein ping an die Client-IP-Adresse und meldet Site Selector die Antwortzeit. Site Selector bezieht die Proximitätsantwort in die Lastausgleichsentscheidung ein. Site Selector kombiniert den Wert der Netzproximitätsantwort mit der Wertigkeit vom Manager und ermittelt so die endgültige Wertigkeit für den Server.

    Die Verwendung der Netzproximität mit Site Selector ist optional.

    Site Selector stellt die folgenden Netzproximitätsoptionen bereit, die pro Sitenamen festgelegt werden können:

    Optionen für die Netzproximität können mit dem Befehl sscontrol sitename [add | set] gesetzt werden. Weitere Informationen finden Sie im Abschnitt Befehlsreferenz für Site Selektor.


    Site Selector konfigurieren

    Lesen Sie vor dem Ausführen der Schritte in diesem Teil den Abschnitt Planung für Site Selector. In diesem Kapitel wird das Erstellen einer Basiskonfiguration für die Komponente Site Selector von Load Balancer erläutert.


    Übersicht über Konfigurations-Tasks

    Anmerkung:
    Vergewissern Sie sich vor Ausführung der Konfigurationsschritte in dieser Tabelle, dass die Site-Selector-Maschine und alle Servermaschinen mit dem Netz verbunden sind, gültige IP-Adressen haben und sich mit Ping-Aufrufen erreichen können.

    Tabelle 12. Konfigurations-Tasks für die Komponente Site Selector

    TaskBeschreibungReferenzinformationen
    Site-Selector-Maschine konfigurieren. Stellen Sie fest, welche Voraussetzungen zu erfüllen sind.Site-Selector-Maschine konfigurieren
    Am Lastausgleich beteiligte Maschinen konfigurieren. Definieren Sie Ihre Lastausgleichskonfiguration. Schritt 4. Am Lastausgleich beteiligte Servermaschinen definieren

    Konfigurationsmethoden

    Es gibt im Wesentlichen vier Methoden für das Erstellen einer Basiskonfiguration für die Komponente Site Selector von Load Balancer:

    Befehlszeile

    Dies ist die direkte Methode für die Konfiguration von Site Selector. Die Werte der Befehlsparameter müssen in englischen Zeichen eingegeben werden. Die einzige Ausnahme hiervon bilden Hostnamen (die z. B. in den Befehlen "sitename" und "server" verwendet werden) und Dateinamen.

    Starten Sie Site Selector wie folgt von der Befehlszeile aus:

    1. Setzen Sie an der Eingabeaufforderung den Befehl ssserver ab. Zum Stoppen des Service geben Sie ssserver stop ein.
      Anmerkung:
      Klicken Sie auf Windows-Systemen auf Start > Einstellungen (für Windows 2000) > Systemsteuerung > Verwaltung > Dienste. Klicken Sie mit der rechten Maustaste auf IBM Site Selector, und wählen Sie anschließend Starten aus. Zum Stoppen des Service führen Sie dieselben Schritte aus, wählen aber Stoppen aus.
    2. Setzen Sie anschließend die gewünschten Steuerbefehle für Site Selector ab, um die Konfiguration einzurichten. Bei den in diesem Handbuch beschriebenen Prozeduren wird von der Verwendung der Befehlszeile ausgegangen. Der Befehl ist sscontrol. Weitere Informationen zu Befehlen finden Sie im Abschnitt Befehlsreferenz für Site Selector.

    Sie können eine Minimalversion der Parameter für den Befehl "sscontrol" eingeben. Sie müssen nur die eindeutigen Buchstaben der Parameter eingeben. Beispiel: Wenn Sie Hilfe für den Befehl zum Speichern von Dateien aufrufen möchten, können Sie sscontrol he f an Stelle von sscontrol help file angeben.

    Wenn Sie die Befehlszeilenschnittstelle starten möchten, setzen Sie den Befehl sscontrol ab, um die Eingabeaufforderung sscontrol aufzurufen.

    Sie können die Befehlszeilenschnittstelle verlassen, indem Sie den Befehl exit oder quit absetzen.

    Anmerkung:
    Auf der Windows-Plattform wird dsserver für die Komponente Dispatcher automatisch gestartet. Falls Sie nur mit Site Selector und nicht mit der Komponente Dispatcher arbeiten, können Sie den automatischen Start von dsserver wie folgt unterbinden:
    1. Klicken Sie in der Windows-Anzeige "Dienste" mit der rechten Maustaste auf "IBM Dispatcher".
    2. Wählen Sie den Menüeintrag "Eigenschaften" aus.
    3. Wählen Sie im Feld Starttyp die Option Manuell aus.
    4. Klicken Sie auf OK, und schließen Sie das Fenster "Dienste".

    Scripts

    Die Befehle zum Konfigurieren von Site Selector können in eine Konfigurationsscriptdatei eingegeben und dann zusammen ausgeführt werden.

    Anmerkung:
    Falls Sie den Inhalt einer Scriptdatei (z. B. myScript) schnell ausführen möchten, verwenden Sie einen der folgenden Befehle:

    Führen Sie den folgenden Befehl aus, um die aktuelle Konfiguration in einer Scriptdatei (z. B. savescript) zu speichern:

    sscontrol file save savescript
    

    Dieser Befehl speichert die Scriptdatei mit der Konfiguration im Verzeichnis ...ibm/edge/lb/servers/configurations/ss.

    Grafische Benutzerschnittstelle

    Abbildung 41 zeigt ein Beispiel für die GUI mit allgemeinen Anweisungen.

    Gehen Sie zum Starten der GUI wie folgt vor:

    1. Vergewissern Sie sich, dass ssserver aktiv ist. Setzen Sie an einer Eingabeaufforderung als Root bzw. Administrator den Befehl ssserver ab.
    2. Führen Sie anschließend einen der folgenden Schritte aus:

    Zum Konfigurieren von Site Selector über die grafische Benutzerschnittstelle müssen Sie zunächst in der Baumstruktur Site Selector auswählen. Nachdem Sie eine Verbindung zu einem Host hergestellt haben, auf dem ssserver ausgeführt wird, können Sie Sitenamen mit Servern erstellen und den Manager sowie Advisor-Funktionen starten.

    Über die grafische Benutzerschnittstelle können Sie die gleichen Schritte wie mit dem Befehl sscontrol ausführen. Wenn Sie beispielsweise einen Sitenamen über die Befehlszeile definieren möchten, müssen Sie den Befehl sscontrol sitename add Sitename eingeben. Zum Definieren eines Sitenamens über die grafische Benutzerschnittstelle müssen Sie mit der rechten Maustaste auf "Namensserver" klicken und anschließend in dem daraufhin angezeigten Popup-Menü mit der auf Sitenamen hinzufügen klicken. Geben Sie im Dialogfenster den Sitenamen ein, und klicken Sie auf OK.

    Bereits vorhandene Site-Selector-Konfigurationsdateien können Sie mit der im Popup-Menü Host angezeigten Option Neue Konfiguration laden (zum vollständigen Ersetzen der derzeitigen Konfiguration) oder An aktuelle Konfiguration anfügen (zum Aktualisieren der derzeitigen Konfiguration) laden. Sie sollten Ihre Site-Selector-Konfiguration von Zeit zu Zeit mit der Option Konfigurationsdatei sichern unter in einer Datei sichern. Diese Option ist ebenfalls im Popup-Menü Host enthalten. Das oben in der grafischen Benutzerschnittstelle befindliche Menü Datei bietet Ihnen die Möglichkeit, die aktuellen Hostverbindungen in einer Datei zu speichern oder Verbindungen aus vorhandenen Dateien für alle Komponenten von Load Balancer wiederherzustellen.

    Wenn Sie einen Befehl über die grafische Benutzerschnittstelle ausführen möchten, gehen Sie wie folgt vor: Heben Sie in der GUI-Baumstruktur den Hostknoten hervor, und wählen Sie im Popup-Menü "Host" Befehl senden... aus. Geben Sie im Befehlseingabefeld den gewünschten Befehl ein, z. B. nameserver status. In einem Fenster sehen Sie die Ergebnisse und die Historie der in der aktuellen Sitzung ausgeführten Befehle.

    Sie können auf Hilfe zugreifen, indem Sie auf das Fragezeichen in der oberen rechten Ecke des Fensters von Load Balancer klicken.

    Weitere Informationen zur Verwendung der grafischen Benutzerschnittstelle finden Sie in Anhang A. Allgemeine Anweisungen zur grafischen Benutzerschnittstelle.

    Konfigurationsassistent

    Führen Sie folgende Schritte aus, wenn Sie den Konfigurationsassistenten verwenden:

    1. Starten Sie wie folgt den ssserver für Site Selector:

    2. Starten Sie den Assistenten von Site Selector sswizard.

      Sie können den Assistenten von der Eingabeaufforderung aus starten, indem Sie den Befehl sswizard absetzen. Sie können den Konfigurationsassistenten auch über das Menü "Komponente Site Selector" in der grafischen Benutzerschnittstelle auswählen.

    Der Site-Selector-Assistent führt Sie schrittweise durch den Prozess zum Erstellen einer Basiskonfiguration für die Komponente Site Selector. Er stellt Ihnen Fragen zu Ihrem Netz und leitet Sie beim Konfigurieren eines Sitenamens an, mit dem Site Selector den Datenverkehr auf eine Gruppe von Servern verteilen kann.


    Site-Selector-Maschine konfigurieren

    Vor dem Konfigurieren der Site-Selector-Maschine müssen Sie (auf AIX-, HP-UX-, Linux- oder Solaris-Systemen) als Root oder (auf Windows-Systemen) als Administrator registriert sein.

    Für eine Gruppe von Servern, die Sie konfigurieren, benötigen Sie einen nicht auflösbaren vollständig qualifizierten Hostnamen als Sitenamen. Der Sitename ist der Name, mit dem Clients auf Ihre Site zugreifen (z. B. www.IhreFirma.com). Site Selector verteilt mit dem DNS den Datenverkehr für die Site auf die Server der Gruppe.

    Schritt 1. Serverfunktion starten

    Geben Sie zum Starten der Site-Selector-Serverfunktion in der Befehlszeile ssserver ein.

    Anmerkung:
    Eine Standardkonfigurationsdatei (default.cfg) wird beim Starten von ssserver automatisch geladen. Wenn Sie die Konfiguration in default.cfg sichern, werden alle in dieser Datei gesicherten Angaben beim nächsten Starten von ssserver automatisch geladen.

    Schritt 2. Namensserver starten

    Geben Sie zum Starten des Namensservers den Befehl sscontrol nameserver start ein.

    Optional können Sie den Namensserver starten, indem Sie ihn mit dem Schlüsselwort bindaddress ausschließlich an die angegebene Adresse binden.

    Schritt 3. Sitenamen definieren und Optionen für den Sitenamen festlegen

    Site Selector verteilt die an den Sitenamen gesendeten Anforderungen auf die entsprechenden Server, die für die Site konfiguriert sind.

    Der Sitename ist ein nicht auflösbarer Hostname, den der Client anfordert. Der Sitename muss ein vollständig qualifizierter Domänenname sein (z. B. www.dnsdownload.com). Wenn ein Client diesen Sitenamen anfordert, wird eine der dem Sitenamen zugeordneten Server-IP-Adressen zurückgegeben.

    Setzen Sie zum Definieren eines Sitenamens den folgenden Befehl ab:

    sscontrol sitename add Sitename
    

    Setzen Sie zum Festlegen der Optionen für den Sitenamen den folgenden Befehl ab:

    sscontrol sitename set Optionswert für Sitename
    

    Weitere Informationen finden Sie im Abschnitt Befehlsreferenz für Site Selector.

    Schritt 4. Am Lastausgleich beteiligte Servermaschinen definieren

    Die Servermaschinen sind die Maschinen, auf denen die Anwendungen ausgeführt werden, deren Last verteilt werden soll. Für Server wird der symbolische Name der Servermaschine oder deren Adresse in Schreibweise mit Trennzeichen angegeben. Setzen Sie den folgenden Befehl ab, um für den Sitenamen aus Schritt 3 einen Server zu definieren:

    sscontrol server add Sitename:Server
    

    Für einen Sitenamen müssen Sie mehrere Server definieren, um einen Lastausgleich durchführen zu können.

    Schritt 5. Managerfunktion starten (optional)

    Die Managerfunktion ergänzt den Lastausgleich. Vergewissern Sie sich vor dem Starten der Managerfunktion, dass auf allen am Lastausgleich beteiligten Maschinen Metric Server installiert ist.

    Setzen Sie zum Starten des Managers den folgenden Befehl ab:

    sscontrol manager start
    

    Schritt 6. Advisor-Funktion starten (optional)

    Die Advisor-Funktionen liefern dem Manager weitere Informationen über die Fähigkeit der am Lastausgleich beteiligten Servermaschinen, auf Anforderungen zu antworten. Advisor-Funktionen sind protokollspezifisch. Load Balancer stellt zahlreiche Advisor-Funktionen bereit. Wenn Sie beispielsweise die HTTP-Advisor-Funktion für einen bestimmten Sitenamen starten möchten, setzen Sie den folgenden Befehl ab:

    sscontrol advisor start http Sitename:Port
    

    Schritt 7. Systemmetrik definieren (optional)

    Informationen zur Verwendung von Systemmetriken und Metric Server finden Sie im Abschnitt Metric Server.

    Schritt 8. Proportionen für den Sitenamen festlegen

    Wenn Sie Advisor-Funktionen starten, können Sie die Wichtigkeit ändern, die in Entscheidungen für den Lastausgleich einfließenden Informationen von Advisor-Funktionen (Portinformationen) beigemessen wird. Setzen Sie zum Festlegen der Proportionen für den Sitenamen den Befehl sscontrol sitename set Sitename proportions ab. Weitere Informationen finden Sie im Abschnitt Proportionale Bedeutung von Statusinformationen.


    Servermaschinen für Lastausgleich konfigurieren

    Verwenden Sie Metric Server zusammen mit der Komponente Site Selector. Informationen zum Konfigurieren von Metric Server auf allen Maschinen, für die Site Selector einen Lastausgleich durchführt, finden Sie im Abschnitt Metric Server.


    Komponente Cisco CSS Controller

    Dieser Teil enthält Informationen zu einer schnellen Erstkonfiguration sowie zur Planung und beschreibt die Konfigurationsmethoden für die Komponente Cisco CSS Controller von Load Balancer. Zu diesem Teil gehören die folgenden Kapitel:


    Schnellkonfiguration

    Dieses Beispiel für schnellen Start demonstriert das Erstellen einer Konfiguration mit der Komponente Cisco CSS Controller. Cisco CSS Controller stellt Serverwertigkeiten bereit, die dem Cisco CSS Switch helfen, für seine Lastausgleichsentscheidungen eine optimale Serverauswahl zu treffen.

    Abbildung 25. Einfache Cisco-CSS-Controller-Konfiguration

    Abbildung, die eine Basiskonfiguration von Cisco CSS Controller zeigt


    Voraussetzungen

    Für dieses Beispiel für schnellen Start benötigen Sie Folgendes:


    Vorbereitungen

    Vergewissern Sie sich vor dem Konfigurieren dieses Beispiels, dass die folgenden Schritte abgeschlossen sind:


    Komponente Cisco CSS Controller konfigurieren

    Für Cisco CSS Controller können Sie eine Konfiguration unter Verwendung der Befehlszeile oder der grafischen Benutzerschnittstelle (GUI) erstellen. Dieses Beispiel für schnellen Start zeigt die Ausführung der Konfigurationsschritte in der Befehlszeile.

    Anmerkung:
    Die Parameterwerte müssen mit Ausnahme der Parameterwerte für Hostnamen und Dateinamen in englischen Zeichen eingegeben werden.

    Konfiguration über die Befehlszeile

    Führen Sie an einer Eingabeaufforderung die folgenden Schritte aus:

    1. Starten Sie den ccoserver für Load Balancer. Setzen Sie an einer Eingabeaufforderung als Root bzw. Administrator den Befehl ccoserver ab.
    2. Fügen Sie der Konfiguration von Cisco CSS Controller einen Switch-Consultant hinzu. Geben Sie dazu die IP-Schnittstellenadresse des Cisco CSS Switch und den Namen der Community mit Schreib-/Lesezugriff an. Diese Werte müssen mit den entsprechenden Attributen des Cisco CSS Switch übereinstimmen.

      ccocontrol consultant add SwConsultant-1 address 9.17.32.50 community public

      Damit wird die Konnektivität zum Cisco CSS Switch überprüft und festgestellt, ob der Name der SNMP-Community mit Schreib-/Lesezugriff funktioniert.

    3. Fügen Sie zum Switch-Consultant Eignerangaben (Eignerangabe-1) hinzu. Geben Sie dazu den Eignernamen (Eignername-1) und die Inhaltsregel (ContentRegel-1) an:

      ccocontrol ownercontent add SwConsultant-1:OwnerContent-1 ownername OwnerName-1 contentrule ContentRule-1

      Diese Werte müssen mit den entsprechenden Attributen des Cisco CSS Switch übereinstimmen.

      Cisco CSS Controller kann jetzt über SNMP mit dem Switch kommunizieren und die notwendigen Konfigurationsdaten für den Switch abrufen. Nach diesem Schritt sollte Cisco CSS Controller anzeigen, welche Services für den Cisco CSS Switch und die entsprechenden Eignerangaben konfiguriert sind.

    4. Konfigurieren Sie die zu erfassenden Metriken (aktive Verbindungen, Verbindungsrate, HTTP) und für jede Metrik zu diesen Eignerangaben die proportionale Bedeutung:

      ccocontrol ownercontent metrics SwConsultant-1:OwnerContent-1 activeconn 45 connrate 45 http 10

      Dieser Befehl legt fest, welche Metriken mit welcher Proportion von den Services zur Berechnung der Wertigkeit erfasst werden sollen. Die proportionalen Angaben aller Metriken müssen in der Summe 100 ergeben.

    5. Starten Sie den Switch-Consultant für Cisco CSS Controller:

      ccocontrol consultant start SwConsultant-1

      Mit diesem Befehl werden alle Metrik-Collector gestartet, so dass mit dem Berechnen der Servicewertigkeit begonnen werden kann. Cisco CSS Controller teilt dem Cisco CSS Switch über SNMP die berechneten Servicewertigkeiten mit.

    Die Basiskonfiguration von Cisco CSS Controller ist damit vollständig.

    Konfiguration testen

    Testen Sie wie folgt, ob die Konfiguration korrekt ist:

    1. Rufen Sie im Clientwebbrowser die Adresse http://www.Intersplashx.com auf. Wenn eine Seite angezeigt wird, funktioniert die Konfiguration.
    2. Laden Sie die Seite erneut im Webbrowser.
    3. Überprüfen Sie die Ergebnisse des folgenden Befehls: ccocontrol service report SwConsultant-1:Eignerangabe-1:Service-1. Die Einträge der Spalte "Summe Verbindungen" für beide Webserver sollten addiert 2 ergeben.

    Konfiguration über die grafische Benutzerschnittstelle

    Informationen zur Verwendung der grafischen Benutzerschnittstelle von Cisco CSS Controller finden Sie im Abschnitt Grafische Benutzerschnittstelle und in Anhang A. Allgemeine Anweisungen zur grafischen Benutzerschnittstelle.


    Planung für Cisco CSS Controller

    In diesem Kapitel wird beschrieben, was die für die Planung des Netzes zuständige Person vor der Installation und Konfiguration der Komponente Cisco CSS Controller berücksichtigen muss.

    Dieses Kapitel umfasst die folgenden Abschnitte:


    Systemvoraussetzungen

    Informationen zu den Hardware- und Softwarevoraussetzungen finden Sie auf der folgenden Webseite: http://www.ibm.com/support/docview.wss?rs=180&uid=swg27006921.

    Außerdem benötigen Sie Folgendes:


    Überlegungen bei der Planung

    Cisco CSS Controller verwaltet eine Reihe von Switch-Consultants. Jeder Consultant bestimmt Wertigkeiten für Services, deren Arbeitslast von nur einem Switch verteilt wird. Der Switch, für den der Consultant die Wertigkeiten bereitstellt, ist für die Inhaltsverteilung konfiguriert. Der Consultant sendet die berechneten Wertigkeiten mit dem Protokoll SNMP an den Switch. Wenn der Lastausgleichsalgorithmus mit einer Round-Robin-Methode gewichtet wird, verwendet der Switch die Wertigkeiten, um für die Inhaltsregel des Lastausgleichs einen Service auszuwählen. Für die Bestimmung der Wertigkeiten verwendet der Consultant eine oder mehrere der folgenden Informationen:

    Eine Beschreibung der Inhaltsverteilung und ausführliche Informationen zum Konfigurieren des Switch können Sie der Veröffentlichung Cisco Content Services Switch Getting Started Guide entnehmen.

    Sie benötigen Folgendes, damit ein Consultant die zur Bestimmung der Servicewertigkeiten erforderlichen Informationen abrufen kann:

    Position des Consultant im Netz

    Wie in Abbildung 26 gezeigt, kann sich die Verbindung zwischen Consultant und Netz hinter den Switches befinden, für die der Consultant Wertigkeiten bereitstellen soll. Für die Konnektivität zwischen dem Controller, dem Switch und den Services müssen einige Parameter für den Switch und einige für den Controller konfiguriert werden.

    Abbildung 26:

    Ausführliche Informationen zum Konfigurieren von virtuellen LANs und des IP-Routing auf dem Switch können Sie der Veröffentlichung Cisco Content Services Switch Getting Started Guide entnehmen.

    Abbildung 26. Beispiel für einen Consultant, der hinter den Switches mit dem Netz verbunden ist

    Consultant hinter den Switches

    Für die Verwaltung von Cisco CSS Controller können Sie eine der folgenden Schnittstellen nutzen:

    Fernverwaltung (Abbildung 27):

    Ausführliche Informationen hierzu können Sie der Veröffentlichung Cisco Content Services Switch Getting Started Guide entnehmen.

    Abbildung 27. Beispiel für einen Consultant (optional mit einem Partner für hohe Verfügbarkeit) hinter dem Switch mit einer Benutzerschnittstelle vor dem Switch

    Consultant hinter dem Switch, Benutzerschnittstelle vor dem Switch, optional Partner für hohe Verfügbarkeit

    Hohe Verfügbarkeit

    Die hohe Controllerverfügbarkeit erweitert die Fähigkeiten von Load Balancer im Bereich der Fehlertoleranz. Die Entwicklung der hohen Controllerverfügbarkeit wurde im Hinblick auf die Verfügbarkeit für die Paketweiterleitung entwickelt und bedeutet die Verfügbarkeit zweier gleichzeitig aktiver Controller, von denen einer der primäre und der andere der sekundäre Controller ist.

    Beide Controller werden mit identischen Switch-Daten konfiguriert und es ist immer nur ein Controller zur Zeit aktiv. Entsprechend der Logik der hohen Verfügbarkeit bedeutet dies, dass nur der aktive Controller neue Wertigkeiten für den Switch berechnet und aktualisiert.

    Für die hohe Controllerverfügbarkeit kommuniziert der Controller mit seinem Partner über eine von Ihnen konfigurierte Adresse und einen von Ihnen konfigurierten Port unter Verwendung des UDP (User Datagram Protocol). Mit diesen Paketen tauschen die Controller die für hohe Verfügbarkeit wichtigen Daten (Erreichbarkeitsdaten) aus und stellen (mit Überwachungssignalen) fest, ob der Partner verfügbar ist. Wenn der Bereitschaftscontroller erkennt, dass der aktive Controller ausgefallen ist, übernimmt er die Aufgaben des aktiven Controllers. Damit wird der Bereitschaftscontroller zum aktiven Controller und beginnt, neue Wertigkeiten für den Switch zu berechnen und zu aktualisieren.

    Neben der Verfügbarkeit des Partners können Sie für die hohe Verfügbarkeit Erreichbarkeitsziele konfigurieren. Bei der hohen Controllerverfügbarkeit werden Erreichbarkeitsdaten verwendet, um festzustellen, welcher der Controller aktiv und welcher der Bereitschaftscontroller ist. Der aktive Controller kann mehr Ziele mit ping erreichen und ist von seinem Partnercontroller aus erreichbar.

    Weitere Informationen finden Sie im Abschnitt Hohe Verfügbarkeit.

    Wertigkeit berechnen

    Wenn der Consultant feststellt, dass ein Service nicht verfügbar ist, setzt er diesen Service auf dem Switch aus, damit der Switch den Service bei der Verteilung von Anforderungen nicht berücksichtigt. Sobald der Service wieder verfügbar ist, aktiviert der Consultant den Service auf dem Switch, so dass er bei Lastausgleichsanforderungen wieder Berücksichtigung findet.

    Fehlerbestimmung

    Cisco CSS Controller schreibt Einträge in die folgenden Protokolle:

    Diese Protokolle befinden sich in den folgenden Verzeichnissen:

    In jedem Protokoll können Sie die Protokollgröße und -stufe festlegen. Weitere Informationen finden Sie im Abschnitt Load-Balancer-Protokolle verwenden.


    Cisco CSS Controller konfigurieren

    Lesen Sie vor dem Ausführen der Schritte in diesem Teil den Abschnitt Planung für Cisco CSS Controller. Dieses Kapitel erläutert das Erstellen einer Basiskonfiguration für die Komponente Cisco CSS Controller von Load Balancer.


    Übersicht über Konfigurations-Tasks

    Vor Ausführung einer der in diesem Kapitel beschriebenen Konfigurationsmethoden müssen Sie die folgenden Schritte ausführen:

    1. Vergewissern Sie sich, dass der Cisco CSS Switch und alle Servermaschinen richtig konfiguriert sind.
    2. Konfigurieren Sie Cisco CSS Controller so, dass die Adresse des Cisco CSS Switch und der Name der SNMP-Community mit den entsprechenden Attributen des Cisco CSS Switch übereinstimmen. Informationen zum Konfigurieren des Consultants finden Sie im Abschnitt ccocontrol consultant -- Consultant konfigurieren und steuern.


    Tabelle 13. Konfigurations-Tasks für die Komponente Cisco CSS Controller

    TaskBeschreibungReferenzinformationen
    Maschine mit Cisco CSS Controller konfigurieren Ermitteln Sie die Voraussetzungen. Controller für die Maschine mit dem Cisco CSS Switches konfigurieren
    Konfiguration testen Überprüfen Sie, ob die Konfiguration funktioniert. Konfiguration testen

    Konfigurationsmethoden

    Es gibt im Wesentlichen drei Methoden für das Erstellen einer Basiskonfiguration für die Load-Balancer-Komponente Cisco CSS Controller:

    Befehlszeile

    Dies ist die direkte Methode für die Konfiguration von Cisco CSS Controller. Bei den in diesem Handbuch beschriebenen Prozeduren wird von der Verwendung der Befehlszeile ausgegangen. Die Werte der Befehlsparameter müssen in englischen Zeichen eingegeben werden. Die einzige Ausnahme hiervon bilden Hostnamen (die z. B. im Befehl consultant add verwendet werden) und Dateinamen.

    Starten Sie Cisco CSS Controller wie folgt über die Befehlszeile:

    1. Setzen Sie an der Eingabeaufforderung den Befehl ccoserver ab. Geben Sie zum Stoppen des Servers ccoserver stop ein.

      Anmerkungen:

      1. Klicken Sie auf Windows-Systemen auf Start > Einstellungen (für Windows 2000) > Systemsteuerung > Verwaltung > Dienste. Klicken Sie mit der rechten Maustaste auf IBM Cisco CSS Controller, und wählen Sie anschließend Starten aus. Zum Stoppen des Service führen Sie dieselben Schritte aus, wählen aber Stoppen aus.

      2. Auf Windows-Systemen können Sie ccoserver automatisch beim Booten starten. Gehen Sie dazu wie folgt vor:
        1. Klicken Sie auf Start > Einstellungen > Systemsteuerung > Verwaltung > Dienste.
        2. Klicken Sie mit der rechten Maustaste auf IBM Cisco CSS Controller, und wählen Sie anschließend Eigenschaften aus.
        3. Klicken Sie rechts neben Starttyp auf den Abwärtspfeil, und wählen Sie Automatisch aus.
        4. Klicken Sie auf OK.
    2. Setzen Sie anschließend die gewünschten Steuerbefehle für Cisco CSS Controller ab, um die Konfiguration einzurichten. Bei den in diesem Handbuch beschriebenen Prozeduren wird von der Verwendung der Befehlszeile ausgegangen. Der Befehl ist ccocontrol. Weitere Informationen zu Befehlen finden Sie im Abschnitt Befehlsreferenz für Cisco CSS Controller.

    Sie können eine gekürzte Version der Parameter für den Befehl "ccocontrol" eingeben. Sie müssen nur die eindeutigen Buchstaben der Parameter eingeben. Beispiel: Wenn Sie Hilfe für den Befehl zum Speichern von Dateien aufrufen möchten, können Sie ccocontrol he f an Stelle von ccocontrol help file angeben.

    Wenn Sie die Befehlszeilenschnittstelle starten möchten, setzen Sie den Befehl ccocontrol ab, um die Eingabeaufforderung ccocontrol aufzurufen.

    Sie können die Befehlszeilenschnittstelle verlassen, indem Sie den Befehl exit oder quit absetzen.

    Anmerkung:
    Auf Windows-Plattformen wird dsserver für die Komponente Dispatcher automatisch gestartet. Falls Sie nur mit Cisco CSS Controller und nicht mit der Komponente Dispatcher arbeiten, können Sie den automatischen Start von dsserver wie folgt unterbinden:
    1. Klicken Sie in der Windows-Anzeige "Dienste" mit der rechten Maustaste auf IBM Dispatcher.
    2. Wählen Sie Eigenschaften aus.
    3. Wählen Sie im Feld Starttyp die Option Manuell aus.
    4. Klicken Sie auf OK, und schließen Sie das Fenster "Dienste".

    XML

    Die soeben definierte Konfiguration kann in einer XML-Datei gespeichert werden. So kann die Konfiguration später schnell erneut geladen werden.

    Verwenden Sie zum Ausführen des Inhaltes einer XML-Datei (z. B. myscript.xml) einen der folgenden Befehle:

    Die XML-Dateien werden im Verzeichnis ...ibm/edge/lb/servers/configurations/cco/ gespeichert.

    Grafische Benutzerschnittstelle

    Allgemeine Anweisungen und ein Beispiel zur grafischen Benutzerschnittstelle finden Sie in Abbildung 41.

    Gehen Sie zum Starten der GUI wie folgt vor:

    1. Wenn ccoserver noch nicht aktiv ist, starten Sie den Dienst jetzt, indem Sie als Root den folgenden Befehl absetzen:

      ccoserver.

    2. Führen Sie anschließend einen der folgenden Schritte aus:

    Gehen Sie zum Konfigurieren von Cisco CSS Controller über die grafische Benutzerschnittstelle wie folgt vor:

    1. Klicken Sie in der Baumstruktur mit der rechten Maustaste auf Cisco CSS Controller.
    2. Stellen Sie eine Verbindung zu einem Host her.
    3. Erstellen Sie einen oder mehrere Switch-Consultant(s) mit den gewünschten Eignerangaben und den zugehörigen Metriken.
    4. Starten Sie den Consultant.

    Von der GUI aus können Sie alle mit dem Befehl ccocontrol ausführbaren Schritte ausführen. Beispiel:

    Gehen Sie wie folgt vor, um von der GUI aus einen Befehl auszuführen:

    1. Klicken Sie mit der rechten Maustaste auf den Knoten Host, und wählen Sie Befehl senden... aus.
    2. Geben Sie im Befehlseingabefeld den gewünschten Befehl ein, z. B. consultant report.
    3. Klicken Sie auf "Senden".

    Im Fenster "Ergebnis" sehen Sie die Ergebnisse und die Historie der in der aktuellen Sitzung ausgeführten Befehle.

    Falls Sie Hilfe benötigen, klicken Sie oben rechts im Load-Balancer-Fenster auf das Fragezeichen.

    Weitere Informationen zur Verwendung der grafischen Benutzerschnittstelle finden Sie in Anhang A. Allgemeine Anweisungen zur grafischen Benutzerschnittstelle.


    Controller für Cisco-CSS-Switch-Maschine konfigurieren

    Vor dem Konfigurieren der Maschine mit Cisco CSS Controller müssen Sie (auf AIX-, HP-UX-, Linux- oder Solaris-Systemen) als Root oder (auf Windows-Systemen) als Administrator registriert sein.

    Der Consultant muss in der Lage sein, als Administrator des Cisco CSS Switch eine Verbindung zum Cisco CSS Switch herzustellen.

    Wenn Sie den Consultant konfigurieren, müssen die Adresse und der Name der SNMP-Community mit den entsprechenden Attributen des Cisco CSS Switch übereinstimmen.

    Hilfe zu den in dieser Prozedur verwendeten Befehlen finden Sie im Abschnitt Befehlsreferenz für Cisco CSS Controller.

    Schritt 1. Serverfunktion starten

    Wenn ccoserver noch nicht aktiv ist, starten Sie den Dienst jetzt, indem Sie als Root ccoserver eingeben.

    Anmerkung:
    Klicken Sie auf Windows-Systemen auf Start > Einstellungen (für Windows 2000) > Systemsteuerung > Verwaltung > Dienste. Klicken Sie mit der rechten Maustaste auf IBM Cisco Controller, und wählen Sie "Starten" aus.

    Schritt 2. Befehlszeilenschnittstelle starten

    Geben Sie ccocontrol ein, um die Befehlszeilenschnittstelle aufzurufen.

    Schritt 3. Consultant konfigurieren

    Sie müssen die Switch-Adresse und einen Namen für die SNMP-Community konfigurieren. Diese Werte müssen mit den entsprechenden Attributen des Cisco CSS Switch übereinstimmen.

    Geben Sie Folgendes ein, um einen Consultant hinzuzufügen:

    consultant add ID_des_Switch-Consultants address IP-Adresse_des_Switch 
    community Community-Name
    

    Schritt 3. Eignerangaben konfigurieren

    Eignerangaben sind die Darstellung einer Inhaltsregel für einen Eigner, der für den Cisco CSS Switch definiert ist. Der Eignername und der Name der Inhaltsregel müssen mit der entsprechenden Definition auf dem Switch übereinstimmen.

    Geben Sie Folgendes ein, um Eignerangaben zu definieren:

    ownercontent add ID_des_Switch-Consultants:ID_für_Eignerangaben ownername Eignername 
    contentrule Name_der_Inhaltsregel
    

    Schritt 4. Konfiguration der Services prüfen

    Wenn die Eignerangaben definiert sind, schließt der Consultant die Konfiguration ab, indem er die für den Switch konfigurierten Services abruft. Vergleichen Sie die Konfiguration auf dem Switch mit der Konfiguration für den Consultant, um sicherzustellen, dass die Services übereinstimmen.

    Schritt 5. Metriken konfigurieren

    Anhand von Metriken werden die Wertigkeiten von Services und ihre proportionale Gewichtung (im Vergleich zu anderen Services) bestimmt. Sie können eine beliebige Kombination von Metriken für Verbindungsdaten, für Advisor-Funktionen der Anwendung und für Metric Server verwenden. Die proportionalen Gewichtungen müssen in der Summe stets 100 ergeben.

    Wenn Sie die Eignerangaben konfigurieren, werden die Standardmetriken activeconn und connrate definiert. Falls Sie zusätzliche oder gänzlich andere Metriken verwenden möchten, geben Sie Folgendes ein:

    ownercontent metrics ID_des_Switch-Consultants:ID_für_Eignerangaben Metrik1 Proportion1 
    Metrik2 Proportion2...MetrikN ProportionN
    

    Schritt 6. Consultant starten

    Geben Sie zum Starten des Consultants Folgendes ein:

    consultant start ID_des_Switch-Consultants
    

    Mit diesem Befehl werden die Metrik-Collector gestartet, und die Berechnung von Wertigkeiten beginnt.

    Schritt 7. Metric Server starten (optional)

    Wenn Sie in Schritt 5 Systemmetriken definiert haben, muss auf den Servicemaschinen Metric Server gestartet werden. Informationen zur Verwendung von Metric Server finden Sie im Abschnitt Metric Server.

    Schritt 8. Hohe Verfügbarkeit konfigurieren (optional)

    Geben Sie Folgendes ein, um die hohe Verfügbarkeit zu konfigurieren:

    highavailability add address IP-Adresse partneraddress IP-Adresse port 80 
    role primary
    

    In einer Umgebung mit hoher Verfügbarkeit können Sie mehrere Switches konfigurieren. Cisco CSS Controller muss so konfiguriert werden, dass er für alle Switches und die entsprechenden Ausweicheinheiten Wertigkeiten bereitstellt, um auch bei der Übernahme der Aufgaben eines Switch durch einen anderen die ständige Verfügbarkeit von Wertigkeitsinformationen zu gewährleisten.

    Ausführliche Informationen zur Verwendung und Konfiguration der hohen Verfügbarkeit für den Controller finden Sie im Abschnitt Erweiterte Features für Cisco CSS Controller und Nortel Alteon Controller.


    Konfiguration testen

    Testen Sie wie folgt, ob die Konfiguration korrekt ist:

    1. Setzen Sie die Protokollstufe des Consultant auf 4.
    2. Trennen Sie einen Server für eine Minute vom Cisco CSS Switch, oder fahren Sie den Anwendungsserver für eine Minute herunter.
    3. Stellen Sie die Verbindung des Servers zum Switch wieder her, oder führen Sie einen Neustart für den Anwendungsserver aus.
    4. Setzen Sie die Protokollstufe des Consultant auf den gewünschten Wert (1) zurück.
    5. Rufen Sie die Datei "consultant.log" in den folgenden Verzeichnissen auf, und suchen Sie nach dem Eintrag setServerWeights setting service:

    Komponente Nortel Alteon Controller

    Dieser Teil enthält Informationen zu einer schnellen Erstkonfiguration sowie zur Planung und beschreibt die Konfigurationsmethoden für die Komponente Nortel Alteon Controller von Load Balancer. Zu diesem Teil gehören die folgenden Kapitel:


    Schnellkonfiguration

    Dieses Beispiel für schnellen Start demonstriert das Erstellen einer Konfiguration mit der Komponente Nortel Alteon Controller. Nortel Alteon Controller stellt dem Nortel Alteon Web Switch Wertigkeiten zur Verfügung. Anhand dieser Wertigkeiten werden Server für Services ausgewählt, für die der Switch einen Lastausgleich durchführt.

    Abbildung 28. Einfache Nortel-Alteon-Controller-Konfiguration

    Abbildung, die einen Client, eine Internetwolke, eine Maschine mit Nortel Alteon Controller, einen Nortel Alteon Web Switch und Servermaschinen zeigt.


    Voraussetzungen

    Für dieses Beispiel für schnellen Start benötigen Sie Folgendes:


    Vorbereitungen

    Vergewissern Sie sich vor dem Konfigurieren dieses Beispiels, dass die folgenden Schritte abgeschlossen sind:


    Komponente Nortel Alteon Controller konfigurieren

    Für Nortel Alteon Controller können Sie eine Konfiguration unter Verwendung der Befehlszeile oder der grafischen Benutzerschnittstelle (GUI) erstellen. Dieses Beispiel für schnellen Start zeigt die Ausführung der Konfigurationsschritte in der Befehlszeile.

    Anmerkung:
    Die Parameterwerte müssen mit Ausnahme der Parameterwerte für Hostnamen und Dateinamen in englischen Zeichen eingegeben werden.

    Konfiguration über die Befehlszeile

    Führen Sie an einer Eingabeaufforderung die folgenden Schritte aus:

    1. Starten Sie auf der Maschine mit Nortel Alteon Controller den nalserver. Setzen Sie an einer Eingabeaufforderung als Root bzw. Administrator den Befehl nalserver ab.
    2. Fügen Sie zur Konfiguration von Nortel Alteon Controller einen Consultant hinzu. Geben Sie dazu die IP-Schnittstellenadresse des Nortel Alteon Web Switch an. (Geben Sie die Community mit Lesezugriff und die Community mit Schreibzugriff nur an, wenn sie vom Standard (public, private) abweichen):

      nalcontrol consultant add Consultant-1 address 9.87.32.50

      Damit wird die Konnektivität zum Nortel Alteon Web Switch überprüft und festgestellt, ob die Namen der SNMP-Community funktionieren.

    3. Fügen Sie zum Consultant (Consultant-1) einen Service (Service-1) hinzu. Geben Sie dazu für den Service die ID des virtuellen Servers (1) und die Nummer des virtuellen Ports (80) an:

      nalcontrol service add Consultant-1:Service-1 vsid 1 vport 80

      Nortel Alteon Controller kommuniziert über SNMP mit dem Switch und ruft die notwendigen Konfigurationsdaten für den Switch ab. Nach diesem Schritt sollte Nortel Alteon Controller anzeigen, welche Server auf dem Nortel Alteon Web Switch für diesen Service konfiguriert sind.

    4. Konfigurieren Sie die Metriken, die für die dem Service zugeordnete Servergruppe erfasst werden sollen:

      nalcontrol service metrics Consultant-1:Service-1 http 40 activeconn 30 connrate 30

      Dieser Befehl legt fest, welche Metriken von den Servern erfasst und welche relative Bedeutung sie bei der Berechnung der Wertigkeit haben sollen.

    5. Starten Sie die Consultant-Funktion für Nortel Alteon Controlle:

      nalcontrol consultant start Consultant-1

      Mit diesem Befehl werden alle Metrik-Collector gestartet, so dass mit dem Berechnen der Serverwertigkeit begonnen werden kann. Nortel Alteon Controller teilt dem Nortel Alteon Web Switch über SNMP die berechneten Serverwertigkeiten mit.

    Die Basiskonfiguration für Nortel Alteon Controller ist damit vollständig.

    Konfiguration testen

    Testen Sie wie folgt, ob die Konfiguration korrekt ist:

    1. Rufen Sie im Clientwebbrowser die Adresse http://www.Intersplashx.com auf. Wenn eine Seite angezeigt wird, funktioniert die Konfiguration.
    2. Laden Sie die Seite erneut im Webbrowser.
    3. Überprüfen Sie die Ergebnisse des folgenden Befehls: nalcontrol service report Consultant-1:Service-1. Die Einträge der Spalte "Summe Verbindungen" für beide Webserver sollten addiert 2 ergeben.

    Konfiguration über die grafische Benutzerschnittstelle

    Informationen zur Verwendung der grafischen Benutzerschnittstelle von Nortel Alteon Controller finden Sie im Abschnitt Grafische Benutzerschnittstelle und in Anhang A. Allgemeine Anweisungen zur grafischen Benutzerschnittstelle.


    Planung für Nortel Alteon Controller

    In diesem Kapitel wird beschrieben, was die für die Planung des Netzes zuständige Person vor der Installation und Konfiguration der Komponente Nortel Alteon Controller berücksichtigen muss.

    Dieses Kapitel umfasst die folgenden Abschnitte:


    Systemvoraussetzungen

    Informationen zu den Hardware- und Softwarevoraussetzungen finden Sie auf der folgenden Webseite: http://www.ibm.com/support/docview.wss?rs=180&uid=swg27006921.

    Außerdem benötigen Sie Folgendes:


    Überlegungen bei der Planung

    Nortel Alteon Controller verwaltet eine Reihe von Switch-Consultants. Jeder Consultant bestimmt Wertigkeiten für Server, deren Arbeitslast von nur einem Switch verteilt wird. Der Switch, für den der Consultant die Wertigkeiten bereitstellt, ist für den Serverlastausgleich konfiguriert. Der Consultant sendet die berechneten Wertigkeiten mit dem Protokoll SNMP an den Switch. Ausgehend von diesen Wertigkeiten wählt der Switch für den Service, dessen Last verteilt werden soll, einen Server aus. Für die Bestimmung der Wertigkeiten verwendet der Consultant eine oder mehrere der folgenden Informationen:

    Eine Beschreibung des Serverlastausgleichs und ausführliche Informationen zum Konfigurieren des Switch können Sie dem "Nortel Alteon Web OS Application Guide" entnehmen.

    Sie benötigen Folgendes, damit ein Consultant die zur Bestimmung der Serverwertigkeiten erforderlichen Informationen abrufen kann:

    Position des Consultant im Netz

    Die Verbindung zwischen Consultant und Netz kann sich vor oder hinter den Switches befinden, für die der Consultant Wertigkeiten bereitstellen soll. Für die Konnektivität zwischen dem Controller, dem Switch und den Servern müssen einige Parameter für den Switch und einige für den Controller konfiguriert werden.

    Abbildung 29:

    Ausführliche Informationen zum Konfigurieren von virtuellen LANs und des IP-Routing auf dem Switch können Sie dem "Nortel Alteon Web OS Application Guide" oder der Veröffentlichung "Command Reference" entnehmen.

    Abbildung 29. Beispiel für einen Consultant, der hinter dem Switch mit dem Netz verbunden ist

    Consultant hinter den Switches

    Abbildung 30:

    Abbildung 30. Beispiel für einen Consultant, der über ein Intranet vor dem Switch mit dem Netz verbunden ist

    Über das Intranet vor dem Switch verbundener Consultant

    Für die Verwaltung von Nortel Alteon Controller können Sie eine der folgenden Schnittstellen nutzen:

    Abbildung 31:

    Abbildung 31. Beispiel für einen Consultant hinter dem Switch mit einer Benutzerschnittstelle vor dem Switch

    Consultant hinter dem Switch, Benutzerschnittstelle vor dem Switch

    Vom Controller festgelegte Serverattribute auf dem Switch

    Wenn ein Consultant Wertigkeiten für Server berechnet, die einen Service bereitstellen, für den ein Switch den Lastausgleich durchführt, inaktiviert der Consultant die normale Überprüfung des Serverzustandes auf dem Switch, um unnötigen Datenverkehr zu den Servern zu vermeiden. Die Zustandsprüfung wird vom Consultant reaktiviert, sobald die Bereitstellung der Wertigkeiten für den Service abgeschlossen ist. Das Intervall für die Überprüfung des Serverzustandes entspricht der MIB-Variablen slbNewCgRealServerPingInterval.

    Wenn der Consultant feststellt, dass ein Server nicht verfügbar ist, setzt er die maximale Verbindungsanzahl des Servers auf null, damit der Server bei der Verteilung von Anforderungen nicht berücksichtigt wird. Sobald der Server wieder verfügbar ist, wird der ursprüngliche Wert für die maximale Verbindungsanzahl wiederhergestellt. Die maximale Anzahl von Verbindungen des Servers entspricht der MIB-Variablen slbNewCfgRealServerMaxCons.

    Wird eine Wertigkeit für einen realen Server berechnet, wird diese für den Server festgelegt. Die Serverwertigkeit entspricht der MIB-Variablen slbNewCfgRealServerWeight.

    Ausweichserver konfigurieren

    Der Switch lässt die Konfiguration von Servern zu, die als Ausweichserver fungieren. Wenn der Switch feststellt, dass ein Server mit verfügbarem Ausweichserver nicht erreichbar ist, kann er Anforderungen an den Ausweichserver senden. Berechnet der Consultant Wertigkeiten für einen Service mit verfügbarem Ausweichservice, werden Wertigkeiten für den Ausweichserver und den primären Server berechnet, damit Wertigkeiten für die Serverauswahl bereit stehen, wenn der Ausweichservice genutzt werden muss.

    Die Wertigkeit eines Ausweichservers kann über der eines primären Servers liegen. Der Grund dafür ist, dass keine Anforderungen an den Ausweichserver weitergeleitet werden und dieser somit nicht belastet ist, solange der Switch nicht auf ihn zurückgreift.

    Zur Vermeidung ungenutzter Serverressourcen ist es allgemein üblich, dass Server, die einem Service zugeordnet sind, als Ausweichserver für Server verwendet werden, die einem anderen Service zugeordnet sind. Bei der Implementierung einer solchen Konfiguration sollten Sie es vermeiden, dieselben realen Server mehreren gleichzeitig aktiven Services zuzuordnen. Andernfalls überschreibt der Consultant die Wertigkeit des Servers für jeden Service, an dem der Server beteiligt ist.

    Jeder reale Server ist durch eine ganze Zahl, eine Wertigkeit und ein IP-Adressattribut gekennzeichnet. Zwei reale Server können dieselbe IP-Adresse haben. In einem solchen Fall sind zwei reale Server derselben physischen Servermaschine zugeordnet. Die als Ausweichserver vorgesehenen Server sollten nur für die Sicherung eines Services konfiguriert werden. Dient eine physische Maschine zur Sicherung von Servern, die mehreren Services zugeordnet sind, müssen Sie für jeden Service einmal konfiguriert werden und eine für jeden Service eindeutige Server-ID erhalten. Dadurch kann den Ausweichservern für jeden Service eine eindeutige Wertigkeit zugeordnet werden.

    Abbildung 32. Beispiel für einen Consultant mit Ausweichservern

    Mit Ausweichservern konfigurierter Consultant

    Gruppen konfigurieren

    Die Server eines Switch können als Teil mehrerer Gruppen konfiguriert werden. Ebenso können die Gruppen eines Switch für mehrere Services konfiguriert werden.

    Da ein Server für mehrere Services konfiguriert werden kann, wird die Wertigkeit für jeden Service berechnet, den der Server anbietet. Deshalb ist nicht sicher, dass die Wertigkeit korrekt ist, denn es ist unbekannt, auf welchen Service sie sich bezieht.

    Bestimmt der Consultant Wertigkeiten für einen Service, für einen anderen jedoch nicht, kann der Fall eintreten, dass der Service, für den keine Wertigkeit berechnet wurde, keine Überprüfung des Serverzustandes übernimmt (weil diese inaktiviert ist). In einem solchen Fall kann der Switch keine ordnungsgemäße Lastverteilung für diesen Service sicherstellen.

    In Kenntnis dieser Möglichkeiten müssen Sie gewährleisten, dass ein realer Server nicht mehreren am Lastausgleich beteiligten Services zugeordnet wird. Das bedeutet jedoch nicht, dass eine Servermaschine nicht Anfragen nach verschiedenen Services bedienen kann. Es bedeutet viel mehr, dass ein realer Server auf dem Switch für jeden Service, für den er Anfragen bearbeitet, mit einer eindeutigen Kennung konfiguriert werden muss.

    Hohe Verfügbarkeit

    Nortel Alteon Controller und der Nortel Alteon Web Switch besitzen Funktionen für hohe Verfügbarkeit.

    Sie können zwei Controller konfigurieren, die auf zwei verschiedenen Systemen in einer fehlertoleranten Konfiguration ausgeführt werden.

    Zwei oder mehr Switches können sich gegenseitig sichern, wenn Sie sie als virtuellen IP-Schnittstellen-Router (VIR) oder virtuellen IP-Server-Router (VSR) konfigurieren.

    Ein (vom Controller verwalteter) Consultant stellt nur Wertigkeiten für einen Switch bereit. Da es möglich ist, dass ein Ausweich-Switch die Aufgaben des Master-Switch übernimmt, müssen Sie den Controller mit dem Consultant für jeden Switch konfigurieren, der potenziell als Master-Switch eingesetzt werden könnte. Auf diese Weise ist sichergestellt, dass ein Master-Switch immer Wertigkeiten empfängt.

    Wenn die Controller mit einem VIR verbunden sind, ist darüber hinaus ihre Kommunikation mit den Servern, den Switches und dem Ausweichcontroller auch bei Verlust der Konnektivität zu einem der Switches gewährleistet.

    Informationen zur hohen Verfügbarkeit der Switches können Sie dem "Nortel Alteon Web OS Application Guide" entnehmen.

    Die hohe Controllerverfügbarkeit erweitert die Fähigkeiten von Load Balancer im Bereich der Fehlertoleranz. Die Entwicklung der hohen Controllerverfügbarkeit wurde im Hinblick auf die Verfügbarkeit für die klassische Paketweiterleitung entwickelt und bedeutet die Verfügbarkeit zweier gleichzeitig aktiver Controller, von denen einer der primäre und der andere der sekundäre Controller ist.

    Beide Controller werden mit identischen Switch-Daten konfiguriert. Ähnlich wie bei der klassischen hohen Verfügbarkeit ist immer nur ein Controller zur Zeit aktiv. Entsprechend der Logik der hohen Verfügbarkeit bedeutet dies, dass nur der aktive Controller neue Wertigkeiten für den Switch berechnet und aktualisiert.

    Für die hohe Controllerverfügbarkeit kommuniziert der Controller mit seinem Partner über eine von Ihnen konfigurierte Adresse und einen von Ihnen konfigurierten Port unter Verwendung des UDP (User Datagram Protocol). Mit diesen Paketen tauschen die Controller die für hohe Verfügbarkeit wichtigen Daten (Erreichbarkeitsdaten) aus und stellen (mit Überwachungssignalen) fest, ob der Partner verfügbar ist. Wenn der Bereitschaftscontroller erkennt, dass der aktive Controller ausgefallen ist, übernimmt er die Aufgaben des aktiven Controllers. Damit wird der Bereitschaftscontroller zum aktiven Controller und beginnt, neue Wertigkeiten für den Switch zu berechnen und zu aktualisieren.

    Neben der Verfügbarkeit des Partners können Sie für die hohe Verfügbarkeit Erreichbarkeitsziele konfigurieren. Wie bei der klassischen hohen Verfügbarkeit werden die Erreichbarkeitsdaten bei der hohen Controllerverfügbarkeit verwendet, um festzustellen, welcher der Controller aktiv und welcher der Bereitschaftscontroller ist. Der aktive Controller kann mehr Ziele mit ping erreichen und ist von seinem Partnercontroller aus erreichbar.

    Weitere Informationen finden Sie im Abschnitt Hohe Verfügbarkeit.

    Abbildung 33:

    Abbildung 33. Beispiel für die hohe Verfügbarkeit von Nortel Alteon Controller und Nortel Alteon Web Switch

    Hohe Verfügbarkeit von Controller und Switch

    Optimierung

    Sie können den Consultant mit einer Sensitivitätsschwelle konfigurieren, damit sich die Wertigkeiten nicht zu oft ändern. Die Sensitivitätsschwelle gibt an, in welchem Maße sich eine Wertigkeit ändern muss, damit die Änderung als relevant angesehen wird. Weitere Informationen finden Sie im Abschnitt Sensitivitätsschwelle.

    Wenn der Switch einen zu großen Aufwand mit dem Aktualisieren der Wertigkeiten betreiben muss, können Sie die Inaktivitätszeit des Consultant erhöhen, um den Datenverkehr zwischen dem Controller, den Servern und dem Switch zu reduzieren. Dieser Zeitwert legt die Zeit der Inaktivität zwischen den Definitionszyklen für die Wertigkeit in Sekunden fest.

    Wenn die Server zu viele Überwachungsanfragen vom Consultant bearbeiten müssen, können Sie die Inaktivitätszeit der Metrik-Collector ändern. Eine ausführliche Beschreibung dieses Prozesses finden Sie im Abschnitt Ruhezeiten für Wertigkeitsberechnung.

    Fehlerbestimmung

    Cisco CSS Controller schreibt Einträge in die folgenden Protokolle:

    Diese Protokolle befinden sich in den folgenden Verzeichnissen:

    In jedem Protokoll können Sie die Protokollgröße und -stufe festlegen. Weitere Informationen finden Sie im Abschnitt Load-Balancer-Protokolle verwenden.


    Nortel Alteon Controller konfigurieren

    Lesen Sie vor dem Ausführen der Schritte in diesem Teil den Abschnitt Planung für Nortel Alteon Controller. Dieses Kapitel erläutert das Erstellen einer Basiskonfiguration für die Komponente Nortel Alteon Controller von Load Balancer.


    Übersicht über Konfigurations-Tasks

    Vor Ausführung einer der in diesem Kapitel beschriebenen Konfigurationsmethoden müssen Sie gewährleisten, dass der Nortel Alteon Web Switch und alle Servermaschinen ordnungsgemäß konfiguriert sind.


    Tabelle 14. Konfigurations-Tasks für die Komponente Nortel Alteon Controller

    TaskBeschreibungReferenzinformationen
    Nortel Alteon Web Switch und die Server konfigurieren Konfigurieren Sie den Switch. Switch konfigurieren, (SETSWITCH)
    Maschine mit Nortel Alteon Controller konfigurieren Konfigurieren Sie den Controller. Schritt 1. Serverfunktion starten
    Konfiguration testen Vergewissern Sie sich, dass die Konfiguration funktioniert. Konfiguration testen

    Konfigurationsmethoden

    Es gibt im Wesentlichen drei Methoden für das Erstellen einer Basiskonfiguration für die Load-Balancer-Komponente Nortel Alteon Controller:

    Befehlszeile

    Dies ist die direkte Methode für die Konfiguration von Nortel Alteon Controller. Bei den in diesem Handbuch beschriebenen Prozeduren wird von der Verwendung der Befehlszeile ausgegangen.

    Starten Sie Nortel Alteon Controller wie folgt über die Befehlszeile:

    1. Setzen Sie an der Eingabeaufforderung den Befehl nalserver ab. Zum Stoppen des Service geben Sie nalserver stop ein.

      Anmerkungen:

      1. Klicken Sie auf Windows-Systemen auf Start > Einstellungen (für Windows 2000) > Systemsteuerung > Verwaltung > Dienste. Klicken Sie mit der rechten Maustaste auf IBM Nortel Alteon Controller, und wählen Sie "Starten" aus. Zum Stoppen des Services müssen Sie dieselben Schritte ausführen und "Beenden" auswählen.

      2. Auf Windows-Systemen können Sie nalserver automatisch beim Booten starten. Gehen Sie dazu wie folgt vor:
        1. Klicken Sie auf Start > Einstellungen (für Windows 2000) > Systemsteuerung > Verwaltung > Dienste.
        2. Klicken Sie mit der rechten Maustaste auf IBM Nortel Alteon Controller, und wählen Sie "Eigenschaften" aus.
        3. Klicken Sie rechts neben "Starttyp" auf den Abwärtspfeil, und wählen Sie "Automatisch" aus.
        4. Klicken Sie auf "OK".
    2. Setzen Sie anschließend die gewünschten Steuerbefehle für Nortel Alteon Controller ab, um die Konfiguration einzurichten. Bei den in diesem Handbuch beschriebenen Prozeduren wird von der Verwendung der Befehlszeile ausgegangen. Der Befehl ist nalcontrol. Weitere Informationen zu Befehlen finden Sie im Abschnitt Befehlsreferenz für Nortel Alteon Controller.

    Für die Parameter des Befehls "nalcontrol" können Sie die abgekürzte Form verwenden. Sie müssen nur die eindeutigen Buchstaben der Parameter eingeben. Beispiel: Wenn Sie Hilfe für den Befehl zum Speichern von Dateien aufrufen möchten, können Sie nalcontrol he f an Stelle von nalcontrol help file angeben.

    Sie können die Befehlszeilenschnittstelle verlassen, indem Sie den Befehl exit oder quit absetzen.

    Anmerkungen:

    1. Für alle Parameterwerte des Befehls müssen Sie die englischen Zeichen verwenden. Die einzige Ausnahme hiervon bilden Hostnamen (die in den server-Befehlen verwendet werden) und (die in Dateibefehlen verwendeten) Dateinamen.

    2. Auf Windows-Systemen wird dsserver für die Komponente Dispatcher automatisch gestartet. Falls Sie nur mit Nortel Alteon Controller und nicht mit der Komponente Dispatcher arbeiten, können Sie den automatischen Start von ndserver wie folgt unterbinden:
      1. Klicken Sie im Fenster "Dienste" von Windows mit der rechten Maustaste auf "IBM Dispatcher".
      2. Wählen Sie den Menüeintrag "Eigenschaften" aus.
      3. Wählen Sie im Feld Starttyp die Option Manuell aus.
      4. Klicken Sie auf OK, und schließen Sie das Fenster "Dienste".

    XML

    Die soeben definierte Konfiguration kann in einer XML-Datei gespeichert werden. So kann die Konfiguration später schnell erneut geladen werden.

    Verwenden Sie zum Ausführen des Inhaltes einer XML-Datei (z. B. myscript.xml) die folgenden Befehle:

    Die XML-Dateien werden im Verzeichnis ...ibm/edge/lb/servers/configurations/nal/ gespeichert.

    Grafische Benutzerschnittstelle

    Ein Beispiel für die grafische Benutzerschnittstelle finden Sie in Abbildung 41.

    Rufen Sie die grafische Benutzerschnittstelle wie folgt auf:

    1. Wenn nalserver noch nicht aktiv ist, starten Sie den Dienst jetzt, indem Sie als Root nalserver eingeben.
    2. Führen Sie anschließend einen der folgenden Schritte aus:

    Gehen Sie zum Konfigurieren von Nortel Alteon Controller über die grafische Benutzerschnittstelle wie folgt vor:

    1. Klicken Sie in der Baumstruktur mit der rechten Maustaste auf Nortel Alteon Controller.
    2. Stellen Sie eine Verbindung zu einem Host her.
    3. Erstellen Sie einen oder mehrere Switch-Consultant(s) mit den gewünschten Services und den zugehörigen Metriken.
    4. Starten Sie den Consultant.

    Von der GUI aus können Sie alle mit dem Befehl nalcontrol ausführbaren Schritte ausführen. Beispiel:

    Gehen Sie wie folgt vor, um über die grafische Benutzerschnittstelle einen Befehl auszuführen:

    1. Klicken Sie mit der rechten Maustaste auf den Knoten Host, und wählen Sie Befehl senden.... aus.
    2. Geben Sie im Befehlseingabefeld den gewünschten Befehl ein, z. B. consultant report.
    3. Klicken Sie auf "Senden".

    Im Fenster "Ergebnis" sehen Sie die Ergebnisse und die Historie der in der aktuellen Sitzung ausgeführten Befehle.

    Falls Sie Hilfe benötigen, klicken Sie oben rechts im Load-Balancer-Fenster auf das Fragezeichen.

    Weitere Informationen zur Verwendung der grafischen Benutzerschnittstelle finden Sie in Anhang A. Allgemeine Anweisungen zur grafischen Benutzerschnittstelle.


    Nortel Alteon Controller konfigurieren

    Hilfe zu den in dieser Prozedur verwendeten Befehlen finden Sie im Abschnitt Befehlsreferenz für Nortel Alteon Controller.

    Vor dem Konfigurieren der Maschine mit Nortel Alteon Controller müssen Sie die folgenden Schritte ausführen:

    Schritt 1. Serverfunktion starten

    Wenn nalserver noch nicht aktiv ist, starten Sie den Dienst jetzt, indem Sie als Root nalserver eingeben.

    Anmerkung:
    Klicken Sie auf Windows-Systemen auf Start > Einstellungen (für Windows 2000) > Systemsteuerungl> Verwaltung > Dienste. Klicken Sie mit der rechten Maustaste auf IBM Nortel Alteon Controller, und wählen Sie "Starten" aus.

    Schritt 2. Befehlszeilenschnittstelle starten

    Geben Sie nalcontrol ein, um die Befehlszeilenschnittstelle aufzurufen.

    Schritt 3. Consultant für Nortel Alteon Web Switch definieren

    Geben Sie Folgendes ein, um einen Switch-Consultant hinzuzufügen:

    consultant add ID_des_Switch-Consultants address IP-Adresse_des_Switch
    

    Schritt 4. Service zum Switch-Consultant hinzufügen

    Geben Sie Folgendes ein, um einen Service hinzuzufügen:

    service add ID_des_Switch-Consultant:Service-ID vsid ID_des_virtuellen_Servers vport 
    Nummer_des_virtuellen_Ports
    

    Ein Service ist durch die ID eines virtuellen Servers (VSID) und die Nummer eines virtuellen Ports (VPORT) gekennzeichnet. Beide Werte sind einem virtuellen Server zugeordnet, der zuvor für den Switch konfiguriert wurde.

    Schritt 5. Metriken konfigurieren

    Anhand der Metriken wird die Wertigkeit der Server bestimmt. Jeder Metrik wird eine proportionale Bedeutung zugeordnet, um seine Wertigkeit im Verhältnis zu anderen Metriken anzugeben. Sie können beliebige Kombinationen von Metriken konfigurieren: Metriken für Verbindungsdaten, für Advisor-Funktionen der Anwendung und für Metric Server. Die proportionalen Gewichtungen müssen in der Summe stets 100 ergeben.

    Wenn Sie einen Service konfigurieren, werden die Standardmetriken activeconn und connrate definiert. Falls Sie zusätzliche oder gänzlich andere Metriken verwenden möchten, geben Sie Folgendes ein:

    service metrics ID_de_Switch-Consultants:Service-ID Metrikname 50 
    Metrikname2 50
    

    Schritt 6. Consultant starten

    Geben Sie zum Starten des Consultant Folgendes ein:

    consultant start ID_des_Switch-Consultants
    

    Mit diesem Befehl werden die Metrik-Collector gestartet, und die Berechnung von Wertigkeiten beginnt.

    Schritt 7. Hohe Verfügbarkeit konfigurieren (optional)

    Geben Sie Folgendes ein, um die hohe Verfügbarkeit zu konfigurieren:

    highavailability add address IP-Adresse partneraddress IP-Adresse port 80 
    role primary
    

    Ausführliche Informationen zur Verwendung und Konfiguration der hohen Verfügbarkeit für den Controller finden Sie im Abschnitt Erweiterte Features für Cisco CSS Controller und Nortel Alteon Controller.

    Schritt 8. Metric Server starten (optional)

    Wenn Sie in Schritt 5 Systemmetriken definiert haben, muss auf den Servicemaschinen Metric Server gestartet werden. Informationen zur Verwendung von Metric Server finden Sie im Abschnitt Metric Server.

    Schritt 9. Konfiguration von Nortel Alteon Controller aktualisieren

    Wenn Sie die Konfiguration auf dem Nortel Alteon Web Switch ändern, können Sie die Controllerkonfiguration aktualisieren. Geben Sie Folgendes ein:

    service refresh
    

    Beenden Sie den Consultant vor dem Aktualisieren der Konfiguration. Starten Sie den Consultant neu, wenn der Befehl "refresh" die Konfiguration aktualisiert hat.


    Konfiguration testen

    Testen Sie wie folgt, ob die Konfiguration korrekt ist:

    1. Setzen Sie die Protokollstufe des Consultant auf 4.
    2. Trennen Sie einen Server für eine Minute vom Nortel Alteon Web Switch, oder fahren Sie den Anwendungsserver für eine Minute herunter.
    3. Stellen Sie die Verbindung des Servers zum Switch wieder her, oder führen Sie einen Neustart für den Anwendungsserver aus.
    4. Setzen Sie die Protokollstufe des Consultant auf den gewünschten Wert (1) zurück.
    5. Rufen Sie die Datei "consultant.log" in den folgenden Verzeichnissen auf, und suchen Sie nach dem Eintrag setServerWeights setting service. Dieser Eintrag weist darauf hin, dass versucht wurde, Wertigkeiten an den Switch zu senden.
    6. Sehen Sie sich die Serverwertigkeiten auf dem Switch an und prüfen Sie, ob diese mit den im Controllerbericht angezeigten Wertigkeiten übereinstimmen.

    Funktionen und erweiterte Features von Load Balancer

    Dieser Teil enthält Informationen zu den Funktionen und erweiterten Konfigurationsfeatures, die für Load Balancer verfügbar sind. Zu diesem Teil gehören die folgenden Kapitel:


    Manager, Advisor-Funktionen und Metric Server für Dispatcher, CBR und Site Selector

    In diesem Kapitel wird erklärt, wie die Lastausgleichparameter, die Manager, die Advisor-Funktionen und die Funktion Metric Server von Load Balancer konfiguriert werden.

    Anmerkung:
    Falls Sie die Komponente Dispatcher nicht verwenden, ersetzen Sie beim Lesen dieses Kapitels dscontrol durch Folgendes:

    Tabelle 15. Erweiterte Konfigurations-Tasks für Load Balancer

    TaskBeschreibungReferenzinformationen
    Ändern der Einstellungen für den Lastausgleich (optional)

    Sie können die folgenden Einstellungen für den Lastausgleich ändern:

    • Die proportionale Gewichtung der Statusinformationen.

      Das Standardverhältnis ist 50-50-0-0. Wenn Sie den Standardwert verwenden, werden die Informationen von den Advisor-Funktionen, von Metric Server und von WLM nicht benutzt.

    • Wertigkeiten
    • Feste Wertigkeiten vom Manager
    • Managerintervalle
    • Sensitivitätsschwelle
    • Glättungsfaktor

    Lastausgleich mit Load Balancer optimieren
    Verwendung von Scripts, um einen Alert zu generieren oder Serverausfälle zu protokollieren, wenn der Manager Server als inaktiv oder aktiv markiertLoad Balancer stellt Benutzer-Exits bereit, die Scripts aktivieren, wenn der Manager Server als inaktiv oder aktiv markiert. Scripts zum Generieren eines Alerts oder Protokollieren eines Serverausfalls verwenden
    Advisor-Funktionen verwendenBeschreibt die Advisor-Funktionen, die Berichte zu spezifischen Status Ihrer Server ausgeben. Advisor-Funktionen
    Option "Anforderung/Antwort (URL)" der HTTP- oder HTTPS-Advisor-Funktion verwendenDefinieren Sie eine eindeutige HTTP-URL-Zeichenfolge für einen spezifischen Dienst, der auf der Maschine abgefragt werden soll. Option "Anforderung/Antwort (URL)" der HTTP- oder HTTPS-Advisor-Funktion konfigurieren
    Advisor-Funktion self verwendenStellt den Auslastungsstatus von Back-End-Servern für Load Balancer in einer Client/Server-WAN-Konfiguration bereit. Advisor-Funktion "self" in einer Client/Server-WAN-Konfiguration
    Angepasste Advisor-Funktionen erstellenErklärt das Schreiben eigener angepasster Advisor-Funktionen. Angepasste (anpassbare) Advisor-Funktion erstellen
    Verwendung des Agenten Metric ServerMetric Server stellt Informationen zur Systembelastung für Load Balancer bereit.Metric Server
    Verwendung der WLM-Advisor-Funktion (Workload Manager)Die WLM-Advisor-Funktion stellt Informationen zur Systembelastung für Load Balancer bereit. WLM-Advisor-Funktion

    Lastausgleich mit Load Balancer optimieren

    Die Managerfunktion von Load Balancer führt den Lastausgleich ausgehend von den folgenden Einstellungen durch:

    Zur Optimierung des Lastausgleichs für Ihr Netz können Sie diese Einstellungen ändern.

    Proportionale Bedeutung von Statusinformationen

    Der Manager kann in seine Gewichtungsentscheidung alle oder einige der nachfolgend genannten externen Faktoren einfließen lassen:

    Der Manager erhält die beiden ersten Werte (aktive und neue Verbindungen) neben der aktuellen Wertigkeit jedes Servers und anderen für die Berechnungen erforderlichen Informationen vom Executor. Diese Werte basieren auf Informationen, die intern vom Executor generiert und gespeichert werden.

    Anmerkung:
    Für Site Selector erhält der Manager die beiden ersten Werte (CPU und Speicher) von Metric Server.

    Sie können die relative Bedeutung der vier Werte pro Cluster (oder Sitename) ändern. Die Proportionen sind vergleichbar mit Prozentsätzen. Die Summe der relativen Proportionen muss 100 % ergeben. Das Standardverhältnis ist 50/50/0/0, wobei die Advisor- und Systeminformationen ignoriert werden. In Ihrer Umgebung sollten Sie andere Proportionen ausprobieren, um die Kombination mit der besten Leistung zu finden.

    Anmerkung:
    Wenn Sie eine Advisor-Funktion (mit Ausnahme von WLM) hinzufügen und die Portproportion null ist, erhöht der Manager diesen Wert auf 1. Da die Summe der relativen Proportionen immer 100 ist, muss der höchste Wert um 1 vermindert werden.

    Wenn Sie die Advisor-Funktion WLM hinzufügen und die Proportion der Systemmetriken null ist, erhöht der Manager diesen Wert auf 1. Da die Summe der relativen Proportionen immer 100 ist, muss der höchste Wert um 1 vermindert werden.

    Die Anzahl aktiver Verbindungen hängt sowohl von der Anzahl der Clients als auch von der Zeit ab, die für die Nutzung der von den am Lastausgleich beteiligten Servermaschinen bereitgestellten Dienste erforderlich ist. Sind die Clientverbindungen schnell (wie bei kleinen Webseiten, die mit HTTP GET bedient werden), ist die Anzahl aktiver Verbindungen ziemlich klein. Wenn die Clientverbindungen langsamer sind (z. B. bei einer Datenbankabfrage), wird die Anzahl aktiver Verbindungen höher sein.

    Sie sollten eine zu niedrige Proportionseinstellung für aktive und neue Verbindungen vermeiden. Wenn Sie diese beiden ersten Werte nicht jeweils auf mindestens 20 gesetzt haben, werden der Lastausgleich und die Glättungsfunktion inaktiviert.

    Verwenden Sie zum Festlegen der proportionalen Bedeutung den Befehl dscontrol cluster set Cluster proportions . Weitere Informationen finden Sie im Abschnitt dscontrol cluster -- Cluster konfigurieren.

    Wertigkeiten

    Die Managerfunktion legt Wertigkeiten ausgehend von internen Zählern des Executors, vom Feedback der Advisor-Funktionen und vom Feedback eines Systemüberwachungsprogramms wie Metric Server fest. Falls Sie Wertigkeiten bei Ausführung des Managers manuell festlegen möchten, geben Sie den Befehl "dscontrol server" mit der Option "fixedweight" an. Eine Beschreibung der Option "fixedweight" finden Sie im Abschnitt Feste Wertigkeiten des Managers.

    Wertigkeiten gelten für alle Server an einem Port. An einem bestimmten Port werden die Anfragen ausgehend von einem Vergleich der Wertigkeiten der einzelnen Server verteilt. Hat beispielsweise ein Server die Wertigkeit 10 und der andere Server die Wertigkeit 5, erhält der Server mit der Wertigkeit 10 doppelt so viele Anforderungen wie der Server mit der Wertigkeit 5.

    Für die Wertigkeit, die ein Server haben kann, können Sie einen oberen Grenzwert angeben. Verwenden Sie dazu den Befehl dscontrol port set Port weightbound Wertigkeit. Mit diesem Befehl wird die Differenz festgelegt, die für die einzelnen Server hinsichtlich der Anzahl der Anforderungen gelten soll. Wird die Wertigkeitsobergrenze auf 1 gesetzt, können alle Server die Wertigkeit 1 haben. Stillgelegte Server haben die Wertigkeit 0 und inaktive Server die Wertigkeit -1. Wenn Sie diese Zahl erhöhen, vergrößern sich die Unterschiede bei der Gewichtung von Servern. Bei einer Wertigkeitsobergrenze von 2 kann ein Server doppelt so viele Anforderungen wie ein anderer Server erhalten. Bei einer Wertigkeitsobergrenze von 10 kann ein Server zehn Mal so viele Anforderungen wie ein anderer Server erhalten. Die maximale Standardgewichtungsgrenze ist 20.

    Stellt eine Advisor-Funktion fest, dass ein Server inaktiviert wurde, informiert er den Manager, der die Wertigkeit für den Server auf null setzt. Der Executor sendet in diesem Fall keine weiteren Verbindungen an diesen Server, solange die Wertigkeit bei null liegt. Falls es vor Änderung der Wertigkeit aktive Verbindungen zum Server gab, können diese normal beendet werden.

    Wenn alle Server inaktiv sind, setzt der Manager die Wertigkeit auf die Hälfte der Gewichtungsgrenze.

    Feste Wertigkeiten des Managers

    Ohne den Manager können Advisor-Funktionen nicht ausgeführt werden und nicht erkennen, ob ein Server inaktiv ist. Wenn Sie die Advisor-Funktionen ausführen möchten, der Manager jedoch nicht die von Ihnen für einen bestimmten Server festgelegte Wertigkeit aktualisieren soll, verwenden Sie den Befehl "dscontrol server" mit der Option fixedweight. Beispiel:

    dscontrol server set Cluster:Port:Server fixedweight yes
    

    Nachdem Sie fixedweight auf yes gesetzt haben, können Sie die Wertigkeit mit dem Befehl dscontrol server set weight auf den gewünschten Wert setzen. Der Wert für die Serverwertigkeit bleibt während der Ausführung des Managers unverändert erhalten, bis Sie einen weiteren Befehl "dscontrol server" absetzen, bei dem "fixedweight" auf "no" gesetzt ist. Weitere Informationen hierzu finden Sie im Abschnitt dscontrol server -- Server konfigurieren.

    TCP-Rücksetzanforderung an einen inaktiven Server senden (nur Komponente Dispatcher)

    Wenn TCP-Rücksetzanforderungen (reset) aktiviert sind, sendet der Dispatcher eine TCP-Rücksetzanforderung an den Client, sofern dieser eine Verbindung zu einem Server mit der Wertigkeit 0 hat. Die Wertigkeit eines Servers kann 0 sein, weil sie mit dem Wert 0 konfiguriert wurde oder weil der Server von einer Advisor-Funktion als inaktiv markiert wurde. Eine TCP-Rücksetzanforderung bewirkt eine sofortige Beendigung der Verbindung. Dieses Feature ist hilfreich für lang andauernde Verbindungen, denn sie gibt dem Client die Möglichkeit, eine unterbrochene Verbindung schnell neu auszuhandeln. Verwenden Sie zum Aktivieren von TCP-Rücksetzanforderungen den Befehl dscontrol port add|set Port reset yes. Der Standardwert für "reset" ist "no".

    Anmerkung:
    Die TCP-Rücksetzanforderung kann auf alle Dispatcher-Weiterleitungsmethoden angewendet werden. Voraussetzung für die Verwendung des Feature für TCP-Rücksetzanforderungen ist jedoch, dass der Parameter clientgateway des Befehls dscontrol executor auf eine Router-Adresse gesetzt ist.

    In Verbindung mit TCP-Rücksetzanforderungen kann es sinnvoll sein, das Feature advisor retry zu konfigurieren. Dieses Feature gibt einer Advisor-Funktion die Möglichkeit, einen erneuten Verbindungsversuch zu starten, bevor ein Server als inaktiv markiert wird. Auf diese Weise wird verhindert, dass die Advisor-Funktion den Server vorschnell als inaktiv markiert, was zu Problemen beim Zurücksetzen der Verbindung führen könnte. Ein erster gescheiterter Verbindungsversuch der Advisor-Funktion muss nicht zwingend bedeuten, dass die vorhandenen Verbindungen ebenfalls unterbrochen sind. Weitere Informationen finden Sie im Abschnitt Wiederholungsversuche der Advisor-Funktion.

    Managerintervalle

    Um den Gesamtdurchsatz zu optimieren, wird die Interaktion von Manager und Executor in ihrer Häufigkeit eingeschränkt. Sie können dieses Intervall mit den Befehlen dscontrol manager interval und dscontrol manager refresh ändern.

    Mit dem Managerintervall wird angegeben, wie oft der Manager die Serverwertigkeiten aktualisiert, die der Executor für die Weiterleitung von Verbindungen benutzt. Ein zu niedriges Managerintervall kann sich negativ auf die Leistung auswirken, da der Manager den Executor permanent unterbricht. Ein zu hohes Managerintervall kann bedeuten, dass die Weiterleitung von Anforderungen durch den Executor nicht auf genauen, auf dem neuesten Stand befindlichen Informationen basiert.

    Wollen Sie beispielsweise das Managerintervall auf 1 Sekunde setzen, geben Sie den folgenden Befehl ein:

     dscontrol manager interval 1

    Der Manageraktualisierungszyklus (Refresh) gibt an, wie oft der Manager Statusinformationen vom Executor anfordert. Der Aktualisierungszyklus basiert auf der Intervallzeit.

    Wollen Sie beispielsweise den Manageraktualisierungszyklus auf 3 setzen, geben Sie den folgenden Befehl ein:

      dscontrol manager refresh 3
    

    In diesem Fall wartet der Manager 3 Intervalle ab, bevor er Statusinformationen vom Executor anfordert.

    Sensitivitätsschwelle

    Zur Optimierung des Lastausgleichs für Ihre Server stehen weitere Methoden zur Verfügung. Im Interesse einer hohen Übertragungsgeschwindigkeit werden die Wertigkeiten der Server nur aktualisiert, wenn sich signifikante Änderungen der Wertigkeit ergeben. Das permanente Aktualisieren der Wertigkeiten bei geringfügigen oder nicht vorhandenen Änderungen des Serverstatus würde zu einem unnötigen Systemaufwand führen. Wenn die prozentuale Änderung der Wertigkeit innerhalb der summierten Wertigkeit für alle Server an einem Port über der Sensitivitätsschwelle liegt, aktualisiert der Manager die vom Executor für die Verteilung der Verbindungen verwendeten Wertigkeiten. Nehmen wir beispielsweise an, die Gesamtwertigkeit ändert sich von 100 % auf 105 %. Die Änderung beträgt also 5 %. Beim standardmäßigen Sensitivitätsschwellenwert von 5 aktualisiert der Manager nicht die vom Executor verwendeten Wertigkeiten, da die prozentuale Änderung nicht über dem Schwellenwert liegt. Ändert sich die Gesamtwertigkeit jedoch von 100 % auf 106 %, aktualisiert der Manager die Wertigkeiten. Wollen Sie beispielsweise die Sensitivitätsschwelle des Managers auf einen anderen Wert als den Standardwert setzen (zum Beispiel 6), geben Sie den folgenden Befehl ein:

      dscontrol manager sensitivity 6 

    In den meisten Fällen müssen Sie diesen Wert nicht ändern.

    Glättungsfaktor

    Der Manager berechnet die Serverwertigkeiten dynamisch. Daher kann eine aktualisierte Wertigkeit erheblich von der vorherigen Wertigkeit abweichen. In den meisten Fällen stellt dies kein Problem dar. Gelegentlich kann dies jedoch zu erheblichen Schwankungen bei der Verteilung von Anforderungen führen. So kann beispielsweise ein Server aufgrund seiner hohen Wertigkeit den größten Teil der Anforderungen erhalten. Der Manager stellt fest, dass der Server über eine hohe Anzahl von aktiven Verbindungen verfügt und sehr langsam antwortet. Der Manager verschiebt die Wertigkeit dann auf die freien Server, so dass dort derselbe Effekt auftritt und Ressourcen folglich ineffizient genutzt werden.

    Um die Auswirkungen dieses Problems zu verringern, benutzt der Manager einen Glättungsfaktor. Der Glättungsfaktor begrenzt das Maß, in dem sich die Wertigkeit eines Servers ändern kann, und dämpft so die Änderung bei der Verteilung von Anforderungen. Ein höherer Glättungsfaktor führt zu einer weniger drastischen Änderung der Serverwertigkeiten. Ein geringerer Glättungsfaktor führt zu einer drastischeren Änderung der Serverwertigkeiten. Der Standardwert für den Glättungsfaktor ist 1,5. Bei einem Wert von 1,5 können Serverwertigkeiten sehr dynamisch sein. Bei einem Faktor von 4 oder 5 sind die Wertigkeiten stabiler. Wenn Sie den Glättungsfaktor beispielsweise auf 4 setzen möchten, geben Sie den folgenden Befehl ein:

      dscontrol manager smoothing 4

    In den meisten Fällen müssen Sie diesen Wert nicht ändern.

    Scripts zum Generieren eines Alerts oder Protokollieren eines Serverausfalls verwenden

    Load Balancer stellt Benutzer-Exits bereit, die Scripts aktivieren, die von Ihnen angepasst werden können. Sie können Scripts für die Ausführung automatisierter Aktionen erstellen. Eine solche Aktion wäre beispielsweise das Informieren eines Administrators über inaktive Server per Alert oder das Registrieren eines Ausfalls. Scripts, die Sie anpassen können, finden Sie im Installationsverzeichnis ...ibm/edge/lb/servers/samples. Zum Ausführen der Dateien müssen Sie sie in das Verzeichnis ...ibm/edge/lb/servers/bin verschieben und die Erweiterung "sample" löschen. Es stehen die folgenden Beispielscripts bereit:

    Wenn alle Server eines Clusters (vom Benutzer oder von den Advisor-Funktionen) als inaktiv markiert wurden, wird managerAlert gestartet (sofern konfiguriert), und Load Balancer versucht, den Datenverkehr mit einer Round-Robin-Technik an die Server weiterzuleiten. Das Script serverDown wird nicht gestartet, wenn festgestellt wird, dass der letzte Server des Clusters offline ist.

    Load Balancer ist so konzipiert, dass die Weiterleitungsversuche fortgesetzt werden, falls ein Server wieder online geht und auf die Anforderung reagiert. Würde Load Balancer dagegen den gesamten Datenverkehr übergehen, würde der Client keine Antwort empfangen.

    Stellt Load Balancer fest, dass der erste Server eines Clusters wieder online ist, wird das Script managerClear gestartet (sofern konfiguriert). Das Script serverUp (sofern konfiguriert) wird erst ausgeführt, wenn ein weiterer Server wieder online ist.

    Hinweise zur Verwendung der Scripts serverUp und serverDown:


    Advisor-Funktionen

    Advisor-Funktionen sind Agenten in Load Balancer. Ihr Zweck ist es, den Zustand und die Belastung der Servermaschinen zu beurteilen. Dies erfolgt durch einen proaktiven Austausch mit den Servern, der dem von Clients vergleichbar ist. Advisor können als transportable Clients der Anwendungsserver betrachtet werden.

    Das Produkt stellt mehrere protokollspezifische Advisor-Funktionen für die am häufigsten verwendeten Protokolle zur Verfügung. Es ist jedoch nicht sinnvoll, alle verfügbaren Advisor-Funktionen mit jeder Komponente von Load Balancer zu verwenden. (Die Telnet-Advisor-Funktion wird beispielsweise nicht mit der Komponente CBR verwendet.) Load Balancer unterstützt auch das Konzept angepasster Advisor-Funktionen, so dass Benutzer eigene Advisor-Funktionen schreiben können.

    Einschränkung bei der Verwendung bindungsspezifischer Serveranwendungen: Wenn Sie Advisor-Funktionen für einen bindungsspezifischen Server verwenden möchten, müssen Sie zwei Instanzen des Servers starten, eine Instanz, die an den Cluster:Port gebunden wird, und eine, die an den Server:Port gebunden wird. Mit dem Befehl netstat -an können Sie feststellen, ob der Server bindungsspezifisch ist. Achten Sie auf den Server:Port. Wenn der Server nicht bindungsspezifisch ist, gibt der Befehl 0.0.0.0:80 zurück. Andernfalls sehen Sie eine Adresse wie 192.168.15.103:80.

    Einschränkung bei der Verwendung bindungsspezifischer Serveranwendungen auf HP-UX- und Solaris-Systemen: Wenn an Stelle des Befehls "ifconfig alias" der Befehl "arp publish" verwendet wird, unterstützt Load Balancer die Verwendung von Advisor-Funktionen beim Lastausgleich für Server mit bindungsspezifischen Serveranwendungen (einschließlich anderer Komponenten von Load Balancer wie CBR oder Site Selector), wenn die Bindung an die Cluster-IP-Adresse erfolgt. Bei Verwendung von Advisor-Funktionen für eine bindungsspezifische Anwendung sollten Sie Load Balancer jedoch nicht mit der Serveranwendung auf derselben Maschine verknüpfen.

    Anmerkung:
    Wenn Load Balancer auf einem Computer mit mehreren Netzwerkadaptern ausgeführt wird und der Advisor-Datenverkehr über einen bestimmten Adapter fließen soll, können Sie für die Pakete eine bestimmte Quellen-IP-Adresse erzwingen. Falls Sie für die Advisor-Pakete eine bestimmte Quellenadresse erzwingen möchten, fügen Sie zur Zeile java...SRV_XXXConfigServer... des entsprechenden Startscripts für Load Balancer (dsserver, cbrserver oder ssserver) Folgendes hinzu:
    -DLB_ADV_SRC_ADDR=IP-Adresse
    

    Arbeitsweise der Advisor-Funktionen

    Advisor-Funktionen öffnen regelmäßig eine TCP-Verbindung zu jedem Server und senden eine Anforderungsnachricht an den Server. Der Inhalt der Nachricht ist spezifisch für das Protokoll, das auf dem Server ausgeführt wird. Die HTTP-Advisor-Funktion sendet beispielsweise eine HTTP-Anfrage HEAD an den Server.

    Die Advisor-Funktionen warten dann auf den Empfang einer Antwort vom Server. Nach Empfang der Antwort beurteilt die Advisor-Funktion den Server. Um diesen Lastwert zu ermitteln, messen die meisten Advisor-Funktionen die Zeit, bis der Server antwortet, und verwenden dann diesen Wert (in Millisekunden) als Lastwert.

    Die Advisor-Funktionen übergeben dann den Lastwert an die Managerfunktion, die ihn im Managerbericht in der Spalte "Port" angibt. Der Manager addiert anschließend die Wertigkeiten für alle Quellen entsprechend ihren Proportionen und übergibt diese Werte an die Executor-Funktion. Der Executor benutzt diese Wertigkeiten dann für den Lastausgleich neuer ankommender Clientverbindungen.

    Stellt die Advisor-Funktion fest, dass ein Server aktiv ist und ordnungsgemäß arbeitet, meldet er einen positiven Lastwert ungleich null an den Manager. Stellt die Advisor-Funktion fest, dass ein Server inaktiv ist, gibt er den speziellen Lastwert -1 zurück. Der Manager und der Executor leiten daraufhin keine Verbindungen an diesen Server weiter, solange dieser inaktiv ist.

    Anmerkung:
    Vor dem Senden der ersten Anforderungsnachricht sendet die Advisor-Funktion ein ping an den Server. Auf diese Weise steht schnell ein Status zur Verfügung, mit dem festgestellt werden kann, ob die Maschine online ist. Antwortet der Server auf das ping, werden keine weiteren ping-Signale gesendet. Wenn Sie die ping-Signale inaktivieren möchten, fügen Sie zur Startscriptdatei von Load Balancer -DLB_ADV_NB_PING hinzu.

    Advisor-Funktion starten und stoppen

    Sie können eine Advisor-Funktion clusterübergreifend für einen bestimmten Port starten (Gruppen-Advisor-Funktion). Sie können aber auch an einem Port verschiedene Advisor-Funktionen für verschiedene Cluster ausführen (cluster-/sitespezifische Advisor-Funktion). Wenn Sie Load Balancer beispielsweise mit drei Clustern (ClusterA, ClusterB, ClusterC), jeweils mit Port 80, konfiguriert haben, können Sie folgende Schritte ausführen:

    Wenn Sie das vorherige Konfigurationsbeispiel für die Gruppen-Advisor-Funktion verwenden, können Sie bei Bedarf die angepasste Advisor-Funktion angepasster_Advisor am Port 80 für einen oder beide Cluster (ClusterB und ClusterC) stoppen.

    Advisor-Intervalle

    Anmerkung:
    Die Advisor-Standardwerte funktionieren in den meisten Fällen effizient. Gehen Sie mit Vorsicht vor, wenn Sie andere Werte als die Standardwerte verwenden.

    Das Advisor-Intervall legt fest, wie oft eine Advisor-Funktion den Status der Server an dem von ihr überwachten Port abfragt und die Ergebnisse dann an den Manager übergibt. Ein zu niedriges Advisor-Intervall kann sich negativ auf die Leistung auswirken, da die Advisor-Funktion die Server permanent unterbricht. Ist das Advisor-Intervall zu hoch, basieren die Entscheidungen des Managers hinsichtlich der Gewichtung unter Umständen nicht auf exakten aktuellen Informationen.

    Wenn Sie das Intervall der HTTP-Advisor-Funktion am Port 80 beispielsweise auf 3 Sekunden setzen möchten, geben Sie den folgenden Befehl ein:

      dscontrol advisor interval http 80 3
    

    Es ist nicht sinnvoll, ein Advisor-Intervall anzugeben, das kleiner als das Managerintervall ist. Das Standard-Advisor-Intervall liegt bei sieben Sekunden.

    Berichtszeitlimit für Advisor-Funktion

    Der Manager verwendet keine Informationen einer Advisor-Funktion, deren Zeitmarke älter als die für das Berichtszeitlimit der Advisor-Funktion festgelegte Zeit ist, um sicherzustellen, dass keine veralteten Informationen verwendet werden. Das Berichtszeitlimit der Advisor-Funktion muss größer als das Sendeaufrufintervall der Advisor-Funktion sein. Ist das Zeitlimit kleiner, ignoriert der Manager Berichte, die logisch betrachtet verwendet werden müssten. Für Berichte der Advisor-Funktion gilt standardmäßig kein Zeitlimit, so dass der Standardwert unlimited ist.

    Wenn Sie das Berichtszeitlimit für die HTTP-Advisor-Funktion am Port 80 beispielsweise auf 30 Sekunden setzen möchten, geben Sie den folgenden Befehl ein:

    dscontrol advisor timeout http 80 30 
    

    Weitere Informationen zum Festlegen des Berichtszeitlimits für die Advisor-Funktion finden Sie im Abschnitt dscontrol advisor -- Advisor-Funktion steuern.

    Serververbindungs- und -empfangszeitlimit der Advisor-Funktion

    Für Load Balancer können Sie die Zeitlimits der Advisor-Funktion festlegen, innerhalb derer der Ausfall eines bestimmten Server- oder Serviceports festgestellt werden soll. Die Zeitlimits für ausgefallene Server (connecttimeout und receivetimeout) bestimmen, wie lange eine Advisor-Funktion wartet, bis sie einen gescheiterten Sende- oder Empfangsvorgang meldet.

    Für eine schnellstmögliche Erkennung ausgefallener Server müssen Sie das Verbindungs- und Empfangszeitlimit der Advisor-Funktion auf den kleinsten Wert (eine Sekunde) sowie die das Intervall Advisor-Funktion und Manager auf den kleinsten Wert (eine Sekunde) setzen.

    Anmerkung:
    Falls es in Ihrer Umgebung ein mittleres bis hohes Datenverkehrsaufkommen gibt, so dass sich die Serverantwortzeit erhöht, sollten Sie die Werte connecttimeout und receivetimeout nicht zu niedrig festlegen. Andernfalls könnte die Advisor-Funktion einen ausgelasteten Server vorschnell als ausgefallenen Server markieren.

    Wenn Sie connecttimeout und receivetimeout für die HTTP-Advisor-Funktion am Port 80 beispielsweise auf 9 Sekunden setzen möchten, geben Sie den folgenden Befehl ein:

    dscontrol advisor connecttimeout http 80 9
    dscontrol advisor receivetimeout http 80 9 
    

    Der Standardwert für das Verbindungs- und Empfangszeitlimit liegt beim Dreifachen des Wertes, der für das Intervall der Advisor-Funktion angegeben wurde.

    Wiederholungsversuche der Advisor-Funktion

    Advisor-Funktionen können wiederholt versuchen, eine Verbindung herzustellen, bevor sie einen Server als inaktiv markieren. Die Advisor-Funktion markiert einen Server erst als inaktiv, wenn die Abfrage nach der festgelegten Anzahl Wiederholungen und einem weiteren Versuch nicht beantwortet wird. Der Wert für retry sollte nicht über 3 liegen. Mit dem folgenden Befehl wird "retry" für die LDAP-Advisor-Funktion am Port 389 auf "2" gesetzt:

    dscontrol advisor retry ldap 389 2
    

    Liste der Advisor-Funktionen

    Option "Anforderung/Antwort (URL)" der HTTP- oder HTTPS-Advisor-Funktion konfigurieren

    Die URL-Option der HTTP- oder HTTPS-Advisor-Funktion ist für die Komponenten Dispatcher und CBR verfügbar.

    Nach dem Starten einer HTTP- oder HTTPS-Advisor-Funktion können Sie für den Dienst, den Sie vom Server anfordern möchten, eine eindeutige Client-HTTP-URL-Zeichenfolge definieren. Mit dieser Zeichenfolge kann die Advisor-Funktion den Status einzelner Dienste auf einem Server bewerten. Dies können Sie erreichen, indem Sie logische Server, die dieselbe physische IP-Adresse haben, mit eindeutigen Servernamen definieren. Weitere Informationen finden Sie im Abschnitt Serverpartitionierung - Konfigurieren logischer Server für einen physischen Server (IP-Adresse).

    Für jeden unter dem HTTP-Port definierten logischen Server können Sie eine für den Dienst, den Sie vom Server anfordern möchten, eine eindeutige Client-HTTP-URL-Zeichenfolge angeben. Die HTTP- oder HTTPS-Advisor-Funktion verwendet die Zeichenfolge advisorrequest, um den Status der Server abzufragen. Der Standardwert ist HEAD / HTTP/1.0. Die advisorresponse-Zeichenfolge ist die Antwort, nach der die Advisor-Funktion die HTTP-Antwort durchsucht. Die Advisor-Funktion vergleicht die advisorresponse-Zeichenfolge mit der tatsächlich vom Server empfangenen Antwort. Der Standardwert ist null.

    Wichtiger Hinweis: Wenn die HTTP-URL-Zeichenfolge ein Leerzeichen enthält, gilt Folgendes:

    Wenn Sie die Anforderung erstellen, die die HTTP- oder HTTPS-Advisor-Funktion an Back-End-Server sendet, um deren Funktionstüchtigkeit zu überprüfen, geben Sie nur den Anfang der HTTP-Anforderung ein. Load Balancer vervollständigt die Anforderung mit folgenden Angaben:

    \r\nAccept:
    */*\r\nUser-Agent:IBM_Network_Dispatcher_HTTP_Advisor\r\n\r\n 
    

    Falls Sie weitere HTTP-Header-Felder hinzufügen möchten, bevor Load Balancer diese Zeichenfolge an das Ende der Anforderung anfügt, können Sie eine eigene \r\n-Zeichenfolge in die Anforderung aufnehmen. Nachfolgend sehen Sie eine Beispieleingabe für das Hinzufügen des HTTP-Header-Feldes "Host" zur Anforderung:

    GET /pub/WWW/TheProject.html HTTP/1.0 \r\nHost: www.w3.org
    
    Anmerkung:
    Nach dem Start einer HTTP- oder HTTPS-Advisor-Funktion für eine angegebene HTTP-Portnummer, wird für Server an diesem HTTP-Port der Abfrage-/Antwortwert der Advisor-Funktion aktiviert.

    Weitere Informationen finden Sie im Abschnitt dscontrol server -- Server konfigurieren.

    Advisor-Funktion "self" in einer Client/Server-WAN-Konfiguration

    Die Advisor-Funktion self ist für die Komponente Dispatcher verfügbar.

    Wenn Load Balancer in einer Client/Server-WAN-Konfiguration (Weitverkehrsnetz) installiert ist, stellt der Dispatcher eine Advisor-Funktion self bereit, die Informationen zum Auslastungsstatus von Back-End-Servern sammelt.

    Abbildung 34. Beispiel für eine Client/Server-WAN-Konfiguration mit Advisor-Funktion self

    Client/Server-WAN-Konfiguration mit der Advisor-Funktion self

    In diesem Beispiel befinden sich die Advisor-Funktion "self" und Metric Server auf den beiden Dispatcher-Maschinen, deren Lastausgleich vom übergeordneten Load Balancer durchgeführt wird. Die Advisor-Funktion self misst insbesondere die Verbindungen pro Sekunde für die Back-End-Server des Dispatchers auf Executor-Ebene.

    Der Selbst-Advisor schreibt die Ergebnisse in die dsloadstat-Datei. Load Balancer stellt außerdem die externe Metrik "dsload" bereit. Der Metric-Server-Agent auf jeder Dispatcher-Maschine führt sein Konfigurationsprogramm aus, das die externe Metrik "dsload" aufruft. Das dsload-Script extrahiert eine Zeichenfolge aus der Datei "dsloadstat" und gibt sie an den Agenten Metric Server zurück. Anschließend geben die Metric-Server-Agenten (von den einzelnen Dispatcher-Maschinen) den Wert für den Auslastungsstatus an den übergeordneten Load Balancer zurück, damit dieser bestimmen kann, welcher Dispatcher Clientanforderungen weiterleiten soll.

    Die ausführbare dsload-Datei befindet sich im Load-Balancer-Verzeichnis ...ibm/edge/lb/ms/script.

    Weitere Informationen zur Verwendung von Dispatcher in WAN-Konfigurationen finden Sie im Abschnitt Dispatcher-WAN-Unterstützung konfigurieren. Weitere Informationen zu Metric Server können Sie dem Abschnitt Metric Server entnehmen.


    Angepasste (anpassbare) Advisor-Funktion erstellen

    Die angepasste (anpassbare) Advisor-Funktion ist ein kurzer Java-Code, den Sie als Klassendatei bereitstellen, die vom Basiscode aufgerufen wird. Der Basiscode gewährleistet alle Verwaltungsdienste wie das Starten und Stoppen einer Instanz der angepassten Advisor-Funktion, das Bereitstellen von Status und Berichten sowie das Aufzeichnen von Protokolldaten in einer Protokolldatei. Er übergibt auch die Ergebnisse an die Managerfunktion. Der Basiscode führt regelmäßig einen Advisor-Zyklus aus, wobei alle Server in der Konfiguration individuell ausgewertet werden. Dieser beginnt mit dem Öffnen einer Verbindung zu einer Servermaschine. Wenn das Socket geöffnet wird, ruft der Basiscode die Methode (Funktion) getLoad der angepassten Advisor-Funktion auf. Die angepasste Advisor-Funktion führt dann alle für die Auswertung des Serverstatus erforderlichen Schritte aus. Normalerweise sendet er eine benutzerdefinierte Nachricht an den Server und wartet dann auf eine Antwort. (Die angepasste Advisor-Funktion erhält Zugriff auf den geöffneten Socket.) Der Basiscode schließt dann den Socket zu dem Server und übergibt die Lastinformationen an den Manager.

    Der Basiscode und die angepasste Advisor-Funktion können im normalen Modus oder im Ersetzungsmodus arbeiten. Die Auswahl der Betriebsart wird in der Datei der angepassten Advisor-Funktion als Parameter der Methode "constructor" angegeben.

    Im normalen Modus tauscht die angepasste Advisor-Funktion Daten mit dem Server aus. Der Basiscode der Advisor-Funktion misst die Zeit für den Austausch und berechnet den Lastwert. Der Basiscode übergibt dann diesen Lastwert an den Manager. Die angepasste Advisor-Funktion muss nur null (bei Erfolg) oder -1 (bei einem Fehler) zurückgeben. Zur Angabe des normalen Modus wird das Flag "replace" der Methode "constructor" auf "false" gesetzt.

    Im Ersetzungsmodus führt der Basiscode keine Zeitmessungen aus. Der Code der angepassten Advisor-Funktion führt alle für die funktionsspezifischen Anforderungen erforderlichen Operationen aus und gibt dann einen tatsächlichen Lastwert zurück. Der Basiscode akzeptiert diesen Wert und übergibt ihn an den Manager. Um bestmögliche Ergebnisse zu erzielen, sollten Sie den Lastwert zwischen 10 und 1000 normalisieren, wobei 10 einen schnellen Server und 1000 einen langsamen Server angibt. Zur Angabe des Ersetzungsmodus muss das Flag "replace" der Methode "constructor" auf "true" gesetzt werden.

    Auf diese Weise können Sie eigene Advisor-Funktionen schreiben, die die benötigten präzisen Informationen über Server zur Verfügung stellen. Zu Load Balancer wird ein Beispiel für eine angepasste Advisor-Funktion, ADV_sample.java, geliefert. Nach der Installation von Load Balancer finden Sie den Beispielcode im folgenden Installationsverzeichnis:
    ...<Installationsverzeichnis>/servers/samples/CustomAdvisors
    .

    Die Standardwerte für Installationsverzeichnis sind im Folgenden aufgelistet:

    Anmerkung:
    Wenn Sie eine angepasste Advisor-Funktion zum Dispatcher oder einer anderen Komponente von Load Balancer hinzufügen, müssen Sie dsserver (bzw. auf Windows-Systemen den Dienst) stoppen und dann erneut starten, um den Java-Prozess zu veranlassen, die neuen angepassten Advisor-Klassendateien zu lesen. Die angepassten Advisor-Klassendateien werden nur beim Systemstart geladen. Es ist nicht nötig, den Executor zu stoppen. Der Executor wird weiter ausgeführt, auch wenn dsserver oder der entsprechende Dienst gestoppt wurde.

    Wenn die angepasste Advisor-Funktion auf zusätzliche Java-Klassen verweist, muss der Klassenpfad (classpath) in der Startscriptdatei von Load Balancer (dsserver, cbrserver, ssserver) mit dem Verzeichnis dieser Klassen aktualisiert werden.

    WAS-Advisor-Funktion

    Das Installationsverzeichnis von Load Balancer enthält Beispieldateien für angepasste Advisor-Funktionen, insbesondere für die WAS-Advisor-Funktion (WebSphere Application Server).

    Die Beispieldateien für die WAS-Advisor-Funktion befinden sich in demselben Verzeichnis wie die Datei "ADV_sample.java".

    Namenskonvention

    Der Dateiname für Ihre angepasste Advisor-Funktion muss das Format "ADV_eigenerAdvisor.java" haben. Er muss mit dem Präfix "ADV_" in Großbuchstaben beginnen. Alle nachfolgenden Zeichen müssen Kleinbuchstaben sein.

    Aufgrund von Java-Konventionen muss der Name der in der Datei definierten Klasse mit dem Namen der Datei übereinstimmen. Wenn Sie den Beispielcode kopieren, stellen Sie sicher, dass alle Exemplare von "ADV_sample" in der Datei in den neuen Klassennamen geändert werden.

    Kompilierung

    Angepasste Advisor-Funktionen werden in der Sprache Java geschrieben. Verwenden Sie den Java-Compiler, der zusammen mit Load Balancer installiert wird. Während der Kompilierung wird auf die folgenden Dateien Bezug genommen:

    Der Klassenpfad muss während der Kompilierung auf die Datei der angepassten Advisor-Funktion und die Datei mit den Basisklassen zeigen.

    Beispielkompilierungsbefehl für Windows-Systeme:

    Installationsverzeichnis/java/bin/javac -classpath 
        Installationsverzeichnis\lb\servers\lib\ibmlb.jar ADV_fred.java
     
    

    Für diese Angaben gilt Folgendes:

    Die Ausgabe der Kompilierung ist eine Klassendatei, zum Beispiel

    ADV_fred.class

    Kopieren Sie vor dem Starten der Advisor-Funktion die Klassendatei in das Installationsverzeichnis ...ibm/edge/lb/servers/lib/CustomAdvisors.

    Anmerkung:
    Bei Bedarf können angepasste Advisor-Funktionen unter einem Betriebssystem kompiliert und unter einem anderen Betriebssystem ausgeführt werden. Sie können beispielsweise Ihre Advisor-Funktion auf Windows-Systemen kompilieren, die Klassendatei (im Binärformat) auf eine AIX-Maschine kopieren und die Advisor-Funktion dort ausführen.

    Für AIX-, HP-UX-, Linux- und Solaris-Systeme ist die Syntax ähnlich.

    Ausführung

    Bevor Sie die angepasste Advisor-Funktion ausführen, müssen Sie die Klassendatei in das richtige Unterverzeichnis des Installationsverzeichnisses kopieren:

    ...ibm/edge/lb/servers/lib/CustomAdvisors/ADV_fred.class
    

    Konfigurieren Sie die Komponente, starten Sie die zugehörige Managerfunktion und setzen Sie wie folgt den Befehl zum Starten der angepassten Advisor-Funktion ab:

    dscontrol advisor start fred 123
     
    

    Für diese Angaben gilt Folgendes:

    Wenn die angepasste Advisor-Funktion auf zusätzliche Java-Klassen verweist, muss der Klassenpfad (classpath) in der Startscriptdatei von Load Balancer (dsserver, cbrserver, ssserver) mit dem Verzeichnis dieser Klassen aktualisiert werden.

    Erforderliche Routinen

    Eine angepasste Advisor-Funktion erweitert wie alle anderen Advisor-Funktionen den Advisor-Basiscode ADV_Base. Es ist der Advisor-Basiscode, der die meisten Funktionen ausführt. Dazu gehört das Zurückmelden von Belastungen an den Manager, die für den Wertigkeitsalgorithmus des Managers verwendet werden. Darüber hinaus stellt der Advisor-Basiscode Socket-Verbindungen her, schließt Sockets und stellt Sende- und Empfangsmethoden für die Advisor-Funktion bereit. Die Advisor-Funktion selbst wird nur zum Senden von Daten an den Port bzw. Empfangen von Daten vom Port des empfohlenen Servers verwendet. Die TCP-Methoden innerhalb des Advisor-Basiscodes sind zeitlich gesteuert, um die Last zu berechnen. Mit einem Flag der Methode "constructor" in "ADV_base" kann bei Bedarf die vorhandene Last mit der neuen, von der Advisor-Funktion zurückgegebenen Last überschrieben werden.

    Anmerkung:
    Der Advisor-Basiscode stellt in angegebenen Intervallen die Last ausgehend von einem in der Methode "constructor" gesetzten Wert für den Wertigkeitsalgorithmus bereit. Wenn die eigentliche Advisor-Funktion noch keine gültige Last zurückgeben kann, verwendet der Advisor-Basiscode die vorherige Last.

    Basisklassenmethoden sind:

    Suchreihenfolge

    Load Balancer durchsucht zunächst die Liste der eigenen Advisor-Funktionen. Wenn eine bestimmte Advisor-Funktion dort nicht aufgeführt ist, durchsucht Load Balancer die Kundenliste der angepassten Advisor-Funktionen.

    Benennung und Pfad

    Beispiel-Advisor-Funktion

    Die Programmliste für eine Beispiel-Advisor-Funktion finden Sie im Abschnitt Beispiel-Advisor-Funktion. Nach der Installation befindet sich diese Beispiel-Advisor-Funktion im Verzeichnis ...ibm/edge/lb/servers/samples/CustomAdvisors.


    Metric Server

    Diese Funktion ist für alle Komponenten von Load Balancer verfügbar.

    Metric Server stellt Load Balancer Informationen zur Serverauslastung bereit. Diese Informationen werden in Form systemspezifischer Metriken für den Serverzustand bereitgestellt. Der Load-Balancer-Manager richtet Anfragen an den Metric-Server-Agenten, der sich auf jedem der Server befindet, und legt anhand der Metriken, die er von den Agenten erhalten hat, Wertigkeiten für den Lastausgleich fest. Die Ergebnisse werden auch in den Managerbericht gestellt.

    Anmerkung:
    Wenn für jeden Server zwei oder mehr Metriken ermittelt und in einen Systemauslastungswert normalisiert werden, kann es zu Rundungsfehlern kommen.

    Informationen zur Verwendung (zum Starten und Stoppen) von Metric Server und zur Verwendung von Metric-Server-Protokollen finden Sie im Abschnitt Komponente Metric Server verwenden.

    Ein Konfigurationsbeispiel sehen Sie in Abbildung 5.

    WLM-Einschränkung

    Wie die Advisor-Funktion WLM gibt Metric-Server-Berichte zu kompletten Serversystemen aus und nicht zu einzelnen protokollspezifischen Serverdämonen. WLM und Metric Server stellen ihre Ergebnisse in die Spalte "System" des Managerberichts. Deshalb wird die gleichzeitige Ausführung der Advisor-Funktionen WLM und Metric Server nicht unterstützt.

    Voraussetzungen

    Der Metric-Server-Agent muss auf allen Servern installiert und ausgeführt werden, die am Lastausgleich teilnehmen.

    Verwendung von Metric Server

    Nachfolgend sind die Schritte aufgeführt, mit denen Sie Metric Server für den Dispatcher konfigurieren. Wenn Sie Metric Server für andere Komponenten von Load Balancer konfigurieren möchten, sind ähnliche Schritte auszuführen.

    Wenn Metric Server für eine vom lokalen Host abweichende Adresse ausgeführt werden soll, müssen Sie die Datei metricserver auf der am Lastausgleich beteiligten Servermaschine editieren. Fügen Sie in der Datei metricserver nach dem Eintrag "java" Folgendes ein:

    -Djava.rmi.server.hostname=andere_Adresse
    

    Fügen Sie außerdem vor den Anweisungen if die folgende Zeile zur Datei metricserver hinzu: hostname andere_Adresse.

    Auf der Windows-Plattform müssen Sie außerdem in Microsoft Stack auf der Metric-Server-Maschine den Aliasnamen für andere_Adresse angeben. Beispiel:

    call netsh interface ip add address "LAN-Verbindung" 
      addr=9.37.51.28 mask=255.255.240.0

    Wenn Sie Metriken domänenübergreifend erfassen, müssen Sie java.rmi.server.hostname im Serverscript (dsserver, cbrserver usw.) auf den vollständig qualifizierten Domänennamen (FQDN) der Maschine setzen, die die Metriken anfordert. Dies ist notwendig, weil InetAddress.getLocalHost.getHostName() nicht für jede Konfiguration und unter jedem Betriebssystem den FQDN zurückgibt.


    WLM-Advisor-Funktion

    WLM ist Code, der auf MVS-Großrechnern ausgeführt wird. Er kann abgefragt werden, um die Belastung auf der MVS-Maschine zu bestimmen.

    Wurde MVS Workload Management auf Ihrem OS/390-System konfiguriert, kann der Dispatcher Kapazitätsinformationen von WLM akzeptieren und die Informationen für den Lastausgleich verwenden.Mit der Advisor-Funktion WLM öffnet der Dispatcher regelmäßig Verbindungen über den WLM-Port der einzelnen Server in der Dispatcher-Hosttabelle und akzeptiert die zurückgegebenen ganzzahligen Kapazitätswerte. Da diese ganzen Zahlen die noch verfügbare Kapazität darstellen und Dispatcher Werte erwarten, die die Belastung auf jeder Maschine angeben, werden die ganzzahligen Kapazitätswerte vom Advisor in Lastwerte umgekehrt und normalisiert. (Ein hoher ganzzahliger Kapazitätswert und ein niedriger Lastwert geben beide einen akzeptablen Zustand eines Servers an). Die daraus resultierenden Belastungen werden in die Spalte "System" des Managerberichts gestellt.

    Es gibt mehrere wichtige Unterschiede zwischen dem WLM-Advisor und anderen Advisor-Funktionen des Dispatchers:

    1. Andere Advisor-Funktionen öffnen Verbindungen zu den Servern unter Verwendung des Ports, über den der normale Clientdatenverkehr fließt. Die WLM-Advisor-Funktion benutzt für das Öffnen von Verbindungen zu den Servern nicht den für normalen Datenverkehr verwendeten Port. Der WLM-Agent muss auf den einzelnen Servermaschinen so konfiguriert werden, dass er an dem Port empfangsbereit ist, an dem die WLM-Advisor-Funktion des Dispatchers gestartet wurde. Der Standard-WLM-Port ist 10007.
    2. Andere Advisor-Funktionen bewerten nur die in der Konfiguration Cluster:Port:Server des Dispatchers definierten Server, deren Serverport mit dem Port der Advisor-Funktion übereinstimmt. Die WLM-Advisor-Funktion wird (unabhängig von der Angabe Cluster:Port) für alle Server in der Dispatcher-Konfiguration ausgeführt. Daher dürfen Sie bei Verwendung der WLM-Advisor-Funktion nur WLM-Server definieren.
    3. Andere Advisor-Funktionen stellen ihre Lastinformationen in die Spalte "Port" des Managerberichts. Die Advisor-Funktion WLM stellt ihre Lastinformationen in die Spalte "System" des Managerberichts.
    4. Es ist möglich, protokollspezifische Advisor-Funktionen zusammen mit der Advisor-Funktion WLM zu verwenden. Die protokollspezifischen Advisor-Funktionen fragen die Server an den regulären Ports für Datenverkehr ab. Die WLM-Advisor-Funktion fragt die Systembelastung dagegen am WLM-Port ab.

    Einschränkung für Metric Server

    Der WLM-Agent gibt wie der Metric-Server-Agent Berichte zu kompletten Serversystemen aus und nicht zu einzelnen protokollspezifischen Serverdämonen. Metric Server und WLM stellen ihre Ergebnisse in die Spalte "System" des Managerberichts. Deshalb wird die gleichzeitige Ausführung der Advisor-Funktionen WLM und Metric Server nicht unterstützt.


    Erweiterte Funktionen für Dispatcher, CBR und Site Selector

    In diesem Kapitel wird erklärt, wie die Lastausgleichparameter konfiguriert werden und Load Balancer für die Verwendung der erweiterten Funktionen eingerichtet wird.

    Anmerkung:
    Falls Sie die Komponente Dispatcher nicht verwenden, ersetzen Sie beim Lesen dieses Kapitels dscontrol durch Folgendes:

    Tabelle 16. Erweiterte Konfigurations-Tasks für Load Balancer

    TaskBeschreibungReferenzinformationen
    Verknüpfung von Load Balancer mit einer am Lastausgleich beteiligten MaschineVerknüpfte Load-Balancer-Maschine konfigurierenVerknüpfte Server verwenden
    Konfigurieren der hohen Verfügbarkeit oder der gegenseitigen hohen VerfügbarkeitKonfigurieren Sie eine zweite Dispatcher-Maschine, um eine Ausweichmaschine zu haben. Hohe Verfügbarkeit
    Konfigurieren des regelbasierten Lastausgleichs Definieren Sie Bedingungen, unter denen eine Untergruppe Ihrer Server verwendet wird. Regelbasierten Lastausgleich konfigurieren
    Außerkraftsetzung der Portaffinität für ServerErmöglicht einem Server, die Einstellung für stickytime an seinem Port zu überschreiben. Portaffinität außer Kraft setzen
    Verwendung der Affinitätsfunktion zum Konfigurieren einer Haltezeit für einen ClusterportClientanforderungen werden immer an denselben Server gerichtet. Funktionsweise der Affinität für Load Balancer
    Verwendung der Crossport-Affinität, um die Affinität an allen Ports zu nutzenVon verschiedenen Ports empfangene Clientanforderungen werden an einen Server gerichtet. Crossport-Affinität
    Verwendung der Affinitätsadressmaske zum Festlegen einer gemeinsamen IP-TeilnetzadresseAus einem Teilnetz empfangene Clientanforderungen werden an denselben Server gerichtet. Affinitätsadressmaske (stickymask)
    Verwendung der aktiven Cookie-Affinität für den Serverlastausgleich mit CBRDiese Regeloption ermöglicht die Bindung einer Sitzung an einen bestimmten Server.Aktive Cookie-Affinität
    Verwendung der passiven Cookie-Affinität für den Serverlastausgleich mit der inhaltsabhängige Weiterleitung des Dispatchers und mit CBR Mit dieser Regeloption kann eine Sitzung ausgehend vom Cookie-Namen/Wert an einen bestimmten Server gebunden werden. Passive Cookie-Affinität
    Verwendung der URI-Affinität für den Lastausgleich bei Caching-Proxy-Servern mit Zwischenspeicherung spezifischer Inhalte auf jedem einzelnen ServerMit dieser Regeloption kann eine Sitzung ausgehend vom URI an einen bestimmten Server gebunden werden. URI-Affinität
    Konfigurieren der Weitverkehrsunterstützung von DispatcherKonfigurieren Sie einen fernen Dispatcher für den Lastausgleich in einem WAN. Der Lastausgleich in einem WAN kann auch (ohne fernen Dispatcher) mit einer Serverplattform durchgeführt werden, die GRE unterstützt. Dispatcher-WAN-Unterstützung konfigurieren
    Verwendung expliziter VerbindungenVermeiden Sie es, den Dispatcher in Verbindungen zu umgehen. Explizite Verbindungen benutzen
    Verwendung eines privaten NetzesKonfigurieren Sie den Dispatcher für den Lastausgleich bei Servern in einem privaten Netz.Konfiguration für ein privates Netz verwenden
    Zusammenfassung allgemeiner Serverkonfigurationen durch einen PlatzhalterclusterAdressen, die nicht explizit konfiguriert sind, verwenden den Platzhaltercluster für die Verteilung des Datenverkehrs.Platzhaltercluster zum Zusammenfassen von Serverkonfigurationen verwenden
    Verwendung eines Platzhalterclusters für den Lastausgleich bei Firewalls Der gesamte Datenverkehr für Firewalls wird verteilt. Platzhaltercluster für den Lastausgleich von Firewalls verwenden
    Platzhaltercluster mit Caching Proxy für transparente Weiterleitung verwenden Der Dispatcher kann zum Aktivieren einer transparenten Weiterleitung verwendet werden. Platzhaltercluster mit Caching Proxy für transparente Weiterleitung verwenden
    Verwendung eines Platzhalterports für die Übertragung von Datenverkehr mit nicht konfiguriertem Port Ermöglicht die Bearbeitung von Datenverkehr, der für keinen bestimmten Port konfiguriert ist.Platzhalterport für die Übertragung von Datenverkehr mit nicht konfiguriertem Port verwenden
    Verwendung der DoS-Erkennung für die Benachrichtigung von Administratoren über potenzielle Attacken (per Alert)Der Dispatcher analysiert eingehende Anforderungen auf eine verdächtige Anzahl halboffener TCP-Verbindungen auf Servern. Erkennung von DoS-Attacken
    Binäre Protokollierung zur Analyse der Serverstatistik Ermöglicht das Speichern von Serverinformationen in Binärdateien und das Abrufen dieser Informationen aus Binärdateien.Binäre Protokolle für die Analyse von Serverstatistiken verwenden
    Verwendung einer verknüpften ClientkonfigurationLoad Balancer kann sich auf derselben Maschine wie ein Client befinden. Verknüpften Client verwenden

    Verknüpfte Server verwenden

    Load Balancer kann sich auf derselben Maschine befinden wie ein Server, für dessen Anforderungen er einen Lastausgleich durchführt. Dies wird als das Verknüpfen eines Servers bezeichnet. Die Verknüpfung gilt für die Komponenten Dispatcher und Site Selector. Für CBR wird die Verknüpfung auch unterstützt. Dies gilt jedoch nur bei Verwendung bindungsspezifischer Webserver und Caching-Proxy-Server.

    Anmerkung:
    In Zeiten hohen Datenverkehrs konkurriert ein verknüpfter Server mit Load Balancer um Ressourcen. Sind jedoch keine überlasteten Maschinen vorhanden, kann mit einem verknüpften Server die Gesamtzahl der Maschinen reduziert werden, die für das Einrichten eines Standortes mit Lastausgleich erforderlich sind.

    Für die Komponente Dispatcher

    Linux-Systeme: Wenn Sie bei Ausführung der Komponente Dispatcher mit der Weiterleitungsmethode "mac" sowohl die Verknüpfung als auch die hohe Verfügbarkeit konfigurieren möchten, lesen Sie die Informationen im Abschnitt Alternativen für die Festlegung eines Loopback-Aliasnamens unter Linux bei Verwendung der Load-Balancer-Weiterleitungsmethode "mac".

    Windows-Systeme: Wenn Sie bei Ausführung der Komponente Dispatcher mit der Weiterleitungsmethode "mac" sowohl die Verknüpfung als auch die hohe Verfügbarkeit konfigurieren möchten, lesen Sie die Informationen im Abschnitt Verknüpfung und hohe Verfügbarkeit konfigurieren (Windows-Systeme).

    Solaris-Systeme: Sie können keine WAN-Advisor-Funktionen konfigurieren, wenn der Eingangspunkt-Dispatcher verknüpft ist. Weitere Informationen finden Sie im Abschnitt Ferne Advisor-Funktionen mit der Dispatcher-WAN-Unterstützung verwenden.

    In früheren Releases mussten die Adresse des verknüpften Servers und die NFA (Non-Forwarding Address) in der Konfiguration übereinstimmen. Diese Einschränkung wurde aufgehoben.

    Für das Konfigurieren eines verknüpften Servers bietet der Befehl dscontrol server eine Option mit dem Namen collocated an, die auf yes oder no gesetzt werden kann. Die Standardeinstellung ist no. Die Adresse des Servers muss eine gültige IP-Adresse einer Netzschnittstellenkarte in der Maschine sein. Der Parameter "collocated" sollte nicht für Server gesetzt werden, die mittels der Dispatcher-Weiterleitungsmethode "nat" oder "cbr" verknüpft wurden.

    Einen verknüpften Server können Sie auf eine der folgenden Arten konfigurieren:

    Bei der Dispatcher-Weiterleitungsmethode "nat" oder "cbr" müssen Sie für die NFA eine nicht verwendete Adapteradresse konfigurieren (bzw. einen Aliasnamen festlegen). Der Server sollte so konfiguriert werden, dass er an dieser Adresse empfangsbereit ist. Konfigurieren Sie den Server mit der folgenden Befehlssyntax:

    dscontrol server add Cluster:Port:neuer_Alias address neuer_Alias router Router-IP 
    returnaddress Rückkehradresse
    

    Wird der Server nicht wie angegeben konfiguriert, können Systemfehler auftreten und/oder Antworten vom Server ausbleiben.

    Serververknüpfung mit Dispatcher-Weiterleitungsmethode "nat" konfigurieren

    Wenn Sie einen verknüpften Server mit der Weiterleitungsmethode "nat" von Dispatcher konfigurieren, müssen Sie im Befehl dscontrol server add für den Router eine reale Router-Adresse und nicht die Server-IP-Adresse angeben.

    Beim Konfigurieren der Dispatcher-Weiterleitungsmethode "nat" kann jetzt unter allen Betriebssystemen Unterstützung für die Verknüpfung konfiguriert werden. Dazu müssen auf der Dispatcher-Maschine die folgenden Schritte ausgeführt werden:

    Für die Komponente CBR

    CBR unterstützt die Verknüpfung auf allen Plattformen, ohne zusätzliche Konfigurationsschritte zu erfordern. Die verwendeten Webserver und der verwendete Caching Proxy müssen jedoch bindungsspezifisch sein.

    Für die Komponente Site Selector

    Site Selector unterstützt die Verknüpfung auf allen Plattformen, ohne zusätzliche Konfigurationsschritte zu erfordern.


    Hohe Verfügbarkeit

    Die hohe Verfügbarkeit (die mit dem Befehl dscontrol highavailability konfiguriert wird) ist für die Komponente Dispatcher verfügbar (jedoch nicht für die Komponenten CBR und Site Selector).

    Um die Verfügbarkeit des Dispatchers zu verbessern, benutzt die Dispatcher-Funktion für hohe Verfügbarkeit die folgenden Mechanismen:

    Anmerkung:
    Eine Abbildung und Beschreibung einer Konfiguration mit wechselseitiger hoher Verfügbarkeit, in der sich zwei Dispatcher-Maschinen, die zwei Clustergruppen gemeinsam benutzen, gegenseitig als Ausweichmaschine verwenden, finden Sie im Abschnitt Wechselseitige hohe Verfügbarkeit. Die wechselseitige hohe Verfügbarkeit ähnelt der einfachen hohen Verfügbarkeit, basiert jedoch speziell auf einer Clusteradresse und nicht auf einer Dispatcher-Maschine als Ganzes. Auf beiden Maschinen müssen die gemeinsam benutzten Clustergruppen identisch konfiguriert werden.

    Hohe Verfügbarkeit konfigurieren

    Die vollständige Syntax des Befehls dscontrol highavailability können Sie dem Abschnitt dscontrol highavailability -- Hohe Verfügbarkeit steuern entnehmen.

    Im Abschnitt Dispatcher-Maschine konfigurieren sind die meisten der nachfolgend aufgeführten Tasks genauer beschrieben.

    1. Erstellen Sie auf beiden Dispatcher-Maschinen Aliasscriptdateien. Weitere Informationen finden Sie im Abschnitt Scripts verwenden.
    2. Starten Sie den Server auf beiden Dispatcher-Servermaschinen.
    3. Starten Sie den Executor auf beiden Maschinen.
    4. Vergewissern Sie sich, dass die NFA jeder Dispatcher-Maschine konfiguriert und eine für das Teilnetz der Dispatcher-Maschinen gültige IP-Adresse ist.
    5. Fügen Sie auf beiden Maschinen Überwachungssignalinformationen hinzu:
      dscontrol highavailability heartbeat add Quellenadresse Zieladresse
      
      Anmerkung:
      Quellenadresse und Zieladresse sind die IP-Adressen (entweder DNS-Namen oder IP-Adressen) der Dispatcher-Maschinen. Die Werte auf den beiden Maschinen werden umgekehrt. Beispiel:
      Primäre Maschine - highavailability heartbeat add 9.67.111.3 9.67.186.8         
      Partnermaschine - highavailability heartbeat add 9.67.186.8 9.67.111.3
      Für mindestens ein Überwachungssignale austauschendes Paar müssen die NFAs als Quellen- und Zieladresse definiert sein.

      Nach Möglichkeit sollte mindestens eines der Paare die Überwachungssignale über ein anderes als das für den regulären Clusterdatenverkehr vorgesehene Teilnetz austauschen. Durch Abgrenzung des durch die Überwachungssignale verursachten Datenverkehrs können in Spitzenbelastungszeiten Fehler bei der Übernahme vermieden werden. Außerdem kann so die Zeit verkürzt werden, die nach einer Überbrückung für eine vollständige Wiederherstellung benötigt wird.

      Legt die Zeit in Sekunden fest, die der Executor als Zeitlimit für die Überwachungssignale für hohe Verfügbarkeit verwendet. Beispiel:

      dscontrol executor set hatimeout 3

      Der Standardwert sind 2 Sekunden.

    6. Konfigurieren Sie auf beiden Maschinen über den Befehl reach add die Liste der IP-Adressen, die der Dispatcher erreichen muss, um einen vollständigen Service zu gewährleisten. Beispiel:
      dscontrol highavailability reach add 9.67.125.18
      
      Erreichbarkeitsziele werden empfohlen, sind aber nicht erforderlich. Weitere Informationen finden Sie im Abschnitt Fehlererkennung mit Hilfe von Überwachungssignal und Erreichbarkeitsziel.
    7. Fügen Sie zu jeder Maschine die Sicherungsdaten hinzu:
      Anmerkung:
      Wählen Sie als Port einen nicht verwendeten Port Ihrer Maschinen aus. Die eingegebene Portnummer wird als ein Schlüssel verwendet, um sicherzustellen, dass das Paket vom richtigen Host empfangen wird.
    8. Überprüfen Sie den Status der hohen Verfügbarkeit auf den beiden Maschinen:
      dscontrol highavailability status
      
      Die Maschinen sollten jeweils die korrekte Rolle (Partnermaschine und/oder primäre Maschine), die korrekten Status und die korrekten untergeordneten Status aufweisen. Die primäre Maschine sollte aktiv und synchronisiert sein. Die Ausweichmaschine sollte sich im Bereitschaftsmodus befinden und innerhalb kurzer Zeit synchronisiert werden. Die Strategien müssen identisch sein.
    9. Konfigurieren Sie auf beiden Maschinen die Cluster-, Port- und Serverinformationen.
      Anmerkung:
      Konfigurieren Sie für die wechselseitige hohe Verfügbarkeit (Abbildung 14), beispielsweise die Clustergruppen, die von den beiden Dispatchern gemeinsam genutzt werden, wie folgt:
      • Setzen Sie für Dispatcher 1 den folgenden Befehl ab:
        dscontrol cluster set ClusterA primaryhost NFA-Dispatcher1
        dscontrol cluster set ClusterB primaryhost NFA-Dispatcher2
        
      • Setzen Sie für Dispatcher 2 den folgenden Befehl ab:
        dscontrol cluster set ClusterB primaryhost NFA-Dispatcher2
        dscontrol cluster set ClusterA primaryhost NFA-Dispatcher1
        
    10. Starten Sie auf beiden Maschinen den Manager und die Advisor-Funktionen.

    Anmerkungen:

    1. Wollen Sie für die Paketweiterleitung eine Dispatcher-Maschine ohne Ausweichmaschine konfigurieren, setzen Sie beim Start keine Befehle für hohe Verfügbarkeit ab.

    2. Wollen Sie eine für die hohe Verfügbarkeit erstellte Konfiguration mit zwei Dispatcher-Maschinen in eine Konfiguration mit nur einer Maschine ändern, beenden Sie den Executor auf einer der Maschinen, und löschen Sie dann die Funktionen für hohe Verfügbarkeit (Überwachungssignale, Erreichbarkeit und Partnermaschine) auf der anderen Maschine.

    3. In beiden oben geschilderten Fällen müssen Sie ggf. auf der Netzschnittstellenkarte Aliasnamen für Clusteradressen angeben.

    4. Wenn zwei Dispatcher-Maschinen in einer Konfiguration mit hoher Verfügbarkeit synchronisiert werden, führen Sie zunächst alle dscontrol-Befehle (zum Aktualisieren der Konfiguration) auf der Bereitschaftsmaschine und dann auf der aktiven Maschine aus.

    5. Wenn Sie zwei Dispatcher-Maschinen in einer Umgebung mit hoher Verfügbarkeit verwenden, können unerwartete Ergebnisse auftreten, wenn einer der Parameter für Executor, Cluster, Port oder Server (z. B. port stickytime) auf beiden Maschinen auf verschiedene Werte gesetzt ist.

    6. Berücksichtigen Sie bei der wechselseitigen hohen Verfügbarkeit den Fall, bei dem einer der Dispatcher aktiv Pakete für seinen primären Cluster weiterleiten muss und außerdem das Weiterleiten von Paketen für den Partnercluster übernehmen muss. Stellen Sie sicher, dass damit die Kapazität für den Durchsatz auf dieser Maschine nicht überschritten wird.

    7. Wenn Sie auf Linux-Systemen bei Verwendung der MAC-Portweiterleitungsmethode von Dispatcher gleichzeitig hohe Verfügbarkeit und Verknüpfung konfigurieren, lesen Sie die Informationen im Abschnitt Alternativen für die Festlegung eines Loopback-Aliasnamens unter Linux bei Verwendung der Load-Balancer-Weiterleitungsmethode "mac".

    8. Wenn Sie auf Windows-Systemen gleichzeitig hohe Verfügbarkeit und Verknüpfung konfigurieren, lesen Sie die Informationen im Abschnitt Verknüpfung und hohe Verfügbarkeit konfigurieren (Windows-Systeme).

    9. Die Konfiguration der hohen Verfügbarkeit kann Probleme wie die folgenden auslösen: Weitere Informationen finden Sie im Abschnitt Problem: Konfigurationstipps für hohe Verfügbarkeit.

    Fehlererkennung mit Hilfe von Überwachungssignal und Erreichbarkeitsziel

    Neben den Basiskriterien der Fehlererkennung (durch Überwachungssignale erkannter Verlust der Konnektivität zwischen aktivem Dispatcher und Bereitschafts-Dispatcher) gibt es einen weiteren Fehlererkennungsmechanismus, der als Erreichbarkeitskriterien bezeichnet wird. Wenn Sie den Dispatcher konfigurieren, können Sie eine Liste von Hosts angeben, die für jeden der Dispatcher erreichbar sein sollten, damit die Dispatcher fehlerfrei arbeiten können. Die beiden Partner für hohe Verfügbarkeit tauschen ständig Überwachungssignale und Informationen darüber aus, wie viele Erreichbarkeitsziele jeder von ihnen mit einem ping-Signal erreichen kann. Wenn der Bereitschafts-Dispatcher mehr Erreichbarkeitsziele mit einem ping-Signal erreichen kann, übernimmt er die Aufgaben des primären Dispatchers.

    Der aktive Dispatcher sendet jede halbe Sekunde ein Überwachungssignal, das normalerweise vom Bereitschafts-Dispatcher empfangen wird. Sollte der Bereitschafts-Dispatcher zwei Sekunden kein Überwachungssignal empfangen, beginnt er mit der Funktionsübernahme. Die Funktionsübernahme durch den Bereitschafts-Dispatcher findet jedoch nur statt, wenn alle Überwachungssignale ausfallen. Wenn zwei Überwachungssignalpaare konfiguriert sind, müssen demnach beide ausfallen. Konfigurieren Sie zur Stabilisierung einer Umgebung mit hoher Verfügbarkeit mehr als ein Überwachungssignalpaar, damit ständige Funktionsübernahmen vermieden werden.

    Als Erreichbarkeitsziele sollten Sie mindestens einen Host für jedes Teilnetz auswählen, das die Dispatcher-Maschine verwendet. Die Hosts können Router, IP-Server oder andere Arten von Hosts sein. Die Erreichbarkeit von Hosts wird über Ping-Aufrufe der Advisor-Funktion reach abgefragt. Es findet eine Funktionsübernahme statt, wenn keine Überwachungssignalnachrichten durchkommen oder die Erreichbarkeitskriterien vom Bereitschafts-Dispatcher eher erfüllt werden als vom primären Dispatcher. Damit die Entscheidung anhand aller verfügbaren Informationen getroffen wird, sendet der aktive Dispatcher regelmäßig Informationen über seine Erreichbarkeit an den Dispatcher in Bereitschaft. Der Dispatcher in Bereitschaft vergleicht dann diese Informationen mit seinen eigenen Erreichbarkeitsinformationen und entscheidet, ob eine Übernahme vorgenommen werden soll oder nicht.

    Anmerkung:
    Wenn Sie das Erreichbarkeitsziel konfigurieren, müssen Sie die Advisor-Funktion reach starten. Die Advisor-Funktion "reach" wird automatisch gestartet, wenn Sie die Managerfunktion starten. Weitere Informationen zur Advisor-Funktion "reach" finden Sie unter (REACHADV).

    Wiederherstellungsstrategie

    Es werden zwei Dispatcher-Maschinen konfiguriert, die primäre Maschine und eine zweite Maschine, die so genannte Partnermaschine. Wird die primäre Maschine gestartet, leitet sie die gesamten Verbindungsdaten so lange an die Partnermaschine weiter, bis die beiden Maschinen synchronisiert sind. Die primäre Maschine wird aktiv, d. h., sie beginnt mit dem Lastausgleich. Die Partnermaschine überwacht in der Zwischenzeit den Status der primären Maschine und befindet sich in Bereitschaft.

    Stellt die Partnermaschine an einem beliebigen Punkt fest, dass die primäre Maschine ausgefallen ist, übernimmt sie die Lastausgleichsfunktionen der primären Maschine und wird zur aktiven Maschine. Ist die primäre Maschine wieder betriebsbereit, gehen die Maschinen anhand der vom Benutzer konfigurierten Wiederherstellungsstrategie vor. Es gibt zwei Strategiearten:

    Automatisch
    Die primäre Maschine nimmt das Weiterleiten von Paketen automatisch wieder auf, sobald sie wieder betriebsbereit ist.

    Manuell
    Die Partnermaschine setzt das Weiterleiten von Paketen fort, auch wenn die primäre Maschine wieder betriebsbereit ist. Soll die primäre Maschine wieder in den Status der aktiven Maschine und die Partnermaschine wieder in den Bereitschaftsstatus zurückgesetzt werden, ist ein manueller Eingriff erforderlich.

    Der Parameter für die Strategie muss für beide Maschinen auf denselben Wert gesetzt werden.

    Bei der Strategie der manuellen Wiederherstellung können Sie über den Befehl "takeover" das Weiterleiten von Paketen durch eine bestimmte Maschine erzwingen. Die manuelle Wiederherstellung ist nützlich, wenn die andere Maschine gewartet wird. Die automatische Wiederherstellung ist für den normalen, nicht überwachten Betrieb konzipiert.

    In einer Konfiguration mit wechselseitiger hoher Verfügbarkeit gibt es keinen Fehler auf Clusterbasis. Tritt ein Fehler bei einer Maschine auf, übernimmt die andere Maschine die Rolle für beide Cluster, auch wenn der Fehler nur einen Cluster betrifft.

    Anmerkung:
    In einer Übernahmesituation können einige Verbindungsaktualisierungen verloren gehen. Vorhandene Verbindungen, die längere Zeit bestehen (z. B. telnet-Verbindungen), auf die zum Zeitpunkt der Übernahme zugegriffen wird, können dadurch beendet werden.

    Scripts verwenden

    Damit der Dispatcher Pakete weiterleiten kann, muss ein Aliasname für jede Clusteradresse auf einer Netzschnittstelleneinheit angegeben werden.

    Informationen zur Festlegung eines Aliasnamens auf der Netzschnittstellenkarte finden Sie im Abschnitt Schritt 5. Aliasnamen auf der Netzschnittstellenkarte erstellen.

    Da die Dispatcher-Maschinen bei einem erkannten Fehler ihren Status tauschen, müssen die oben angegebenen Befehle automatisch abgesetzt werden. Dazu führt der Dispatcher vom Benutzer erstellte Scripts aus. Beispielscripts finden Sie im Verzeichnis ...ibm/edge/lb/servers/samples. Zum Ausführen müssen Sie diese in das Verzeichnis ...ibm/edge/lb/servers/bin verschieben. Die Scripts werden automatisch nur ausgeführt, wenn dsserver aktiv ist.

    Anmerkungen:

    1. In einer Konfiguration mit wechselseitiger hoher Verfügbarkeit wird jedes "go"-Script vom Dispatcher mit einem Parameter aufgerufen, der die Adresse des primären Dispatchers angibt. Das Script muss diesen Parameter abfragen und die Befehle executor configure für die Clusteradressen ausführen, die diesem primären Dispatcher zugeordnet sind.

    2. Wenn Sie für die Dispatcher-Weiterleitungsmethode "nat" die hohe Verfügbarkeit konfigurieren möchten, müssen Sie die Rückkehradressen zu den Scriptdateien hinzufügen.

    Sie können die folgenden Beispielscripts verwenden:

    goActive
    Das Script goActive wird ausgeführt, wenn ein Dispatcher in den aktiven Status wechselt und mit dem Weiterleiten von Paketen beginnt.

    goStandby
    Das Script goStandby wird ausgeführt, wenn ein Dispatcher in den Bereitschaftsstatus wechselt, in dem der Status der aktiven Maschine überwacht wird, jedoch keine Pakete weitergeleitet werden.

    goInOp
    Das Script goInOp wird beim Stoppen eines Dispatcher-Executors ausgeführt.

    goIdle
    Das Script goIdle wird ausgeführt, wenn ein Dispatcher in den Freizustand und mit dem Weiterleiten von Paketen beginnt. Dieser Fall tritt ein, wenn die hohe Verfügbarkeit nicht hinzugefügt wurde, wie es in einer eigenständigen Konfiguration der Fall ist. In einer Konfiguration mit hoher Verfügbarkeit geschieht dies auch vor dem Hinzufügen bzw. nach dem Entfernen der Features für hohe Verfügbarkeit.

    highavailChange
    Das Script highavailChange wird ausgeführt, wenn sich der Status der hohen Verfügbarkeit auf einer Dispatcher-Maschine so ändert, dass eines der go-Scripts aufgerufen wird. Der einzige an dieses Script übergebene Parameter ist der Name des gerade vom Dispatcher ausgeführten go-Scripts. Sie können dieses Script beispielsweise so schreiben, dass Informationen zu Statusänderungen verwendet werden, um Alerts an einen Administrator zu senden, oder derartige Ereignisse einfach erfasst werden.

    Auf Windows-Systemen: Wenn Sie Ihre Konfiguration so eingerichtet haben, dass Site Selector den Lastausgleich für zwei Dispatcher-Maschinen in einer Umgebung mit hoher Verfügbarkeit durchführt, müssen Sie im Microsoft Stack einen Aliasnamen für die Metric Server hinzufügen. Dieser Aliasname sollte auch zum Script goActive hinzugefügt werden. Beispiel:

    call netsh interface ip add address "LAN-Verbindung"
      addr=9.37.51.28 mask=255.255.240.0

    In den Scripts goStandby und goInOp muss der Aliasname entfernt werden. Beispiel:

    call netsh interface ip delete address "LAN-Verbindung"
      addr=9.37.51.28

    Wenn die Maschine mehrere NICs enthält, überprüfen Sie zunächst, welche Schnittstelle verwendet werden sollte. Setzen Sie dazu an der Eingabeaufforderung den Befehl netsh interface ip show address ab. Dieser Befehl gibt eine Liste der zur Zeit konfigurierten Schnittstellen zurück und versieht die Angabe "LAN-Verbindung" mit einer Nummer (z. B. "LAN-Verbindung 2"), so dass Sie bestimmen, welche Schnittstelle Sie verwenden sollten.

    Unter Linux für S/390: Der Dispatcher setzt unaufgefordert ein ARP ab (gratuitous ARP), um IP-Adressen von einem Dispatcher auf einen anderen Dispatcher zu versetzen. Dieser Mechanismus ist somit an den Typ des zugrundeliegenden Netzes gebunden. Wenn Sie Linux für S/390 verwenden, kann der Dispatcher seine native Funktion für eine vollständig Funktionsübernahme für hohe Verfügbarkeit (mit Verschiebung der IP-Adressen) nur für Schnittstellen ausführen, die unaufgefordert ein ARP absetzen und die Adresse auf der lokalen Schnittstelle konfigurieren können. Auf Punkt-zu-Punkt-Schnittstellen wie IUCV und CTC sowie in bestimmten Konfigurationen von qeth/QDIO kann dieser Mechanismus nicht ordnungsgemäß funktionieren.

    Für Schnittstellen und Konfigurationen, bei denen die native Dispatcher-Funktion der IP-Übernahme nicht ordnungsgemäß ausgeführt werden kann, kann der Kunde entsprechende Befehle in die go-Scripts aufnehmen, um die Adressen manuell zu versetzen. Auf diese Weise wird sichergestellt, dass auch diese Netztopologien von der hohen Verfügbarkeit profitieren können.

    Verknüpfung und hohe Verfügbarkeit konfigurieren (Windows-Systeme)

    Auf Windows-Servern können Sie die Load-Balancer-Features "Hohe Verfügbarkeit" und "Verknüpfung" zusammen konfigurieren. Hierfür sind allerdings einige zusätzliche Schritte erforderlich.

    Wenn Sie auf Windows-Systemen die Verknüpfung zusammen mit der hohen Verfügbarkeit nutzen möchten, benötigen Sie eine zusätzliche IP-Adresse. Dies ist eine Art Pseudoadresse, die zum Loopback-Adapter des Windows-Systems hinzugefügt werden kann. Der Loopback-Adapter muss auf der primären Maschine und der Ausweichmaschine installiert sein. Die Schritte für die Installation der Loopback-Einheit auf Windows-Systemen sind im Abschnitt Servermaschinen für Lastausgleich konfigurieren aufgelistet.

    Wenn Sie in diesen Schritten aufgefordert werden, die Cluster-IP-Adresse zur Loopback-Einheit hinzuzufügen, müssen Sie an Stelle der Clusteradresse eine Pseudo-IP-Adresse hinzufügen. Dies liegt daran, dass die go*-Scripts für hohe Verfügbarkeit für Windows die Clusteradresse für die Loopback-Einheit löschen oder zur Loopback-Einheit hinzufügen müssen, je nachdem, ob die Load-Balancer-Maschine aktiv oder in Bereitschaft ist.

    Die letzte konfigurierte IP-Adresse für die Loopback-Einheit kann auf Windows-Systemen nicht entfernt werden, weil die Loopback-Einheit nicht im DHCP-Modus funktioniert. Durch die Pseudoadresse kann Load Balancer seine Clusteradresse jederzeit entfernen. Die Pseudo-IP-Adresse wird für keine Art von Datenverkehr verwendet und kann sowohl auf der aktiven Maschine als auch auf der Ausweichmaschine verwendet werden.

    Aktualisieren Sie die go*-Scripts von Load Balancer und verschieben Sie sie auf die aktive Maschine und die Ausweichmaschine. Starten Sie dann Dispatcher. Die Clusteradresse wird zu den entsprechenden Zeiten zur Netzschnittstelle und zur Loopback-Einheit hinzugefügt oder von der Netzschnittstelle und der Loopback-Einheit entfernt.


    Regelbasierten Lastausgleich konfigurieren

    Mit einem auf Regeln basierenden Lastausgleich kann genau abgestimmt werden, wann und warum Pakete an welche Server gesendet werden. Load Balancer überprüft alle hinzugefügten Regeln von der ersten Priorität bis zur letzten Priorität, stoppt bei der ersten Regel, die wahr ist, und verteilt dann die Last auf alle Server, die der Regel zugeordnet sind. Load Balancer verteilt die Last bereits ausgehend von Ziel und Port. Mit der Anwendung von Regeln haben Sie jedoch erweiterte Möglichkeiten für die Verteilung von Verbindungen.

    In den meisten Fällen sollten Sie beim Konfigurieren von Regeln eine immer gültige Standardregel konfigurieren, um auch Anforderungen zu registrieren, die von den anderen Regeln höherer Priorität nicht erfasst werden. Diese Standardregel könnte beispielsweise die Antwort "Die Site ist derzeit leider nicht verfügbar, versuchen Sie es später erneut" sein, wenn alle anderen Server nicht für die Clientanforderung verwendet werden können.

    Sie sollten den regelbasierten Lastausgleich für Dispatcher und Site Selector verwenden, wenn Sie aus bestimmten Gründen nur einen Teil Ihrer Server nutzen möchten. Für die Komponente CBR müssen Sie in jedem Fall Regeln verwenden.

    Es sind folgende Arten von Regeln verfügbar:

    Erstellen Sie einen Plan der Logik, die von den Regeln befolgt werden soll, bevor der Konfiguration Regeln hinzugefügt werden.

    Wie werden Regeln ausgewertet?

    Jede Regel hat einen Namen, einen Typ und eine Priorität und kann neben einer Servergruppe auch einen Bereichsanfang und ein Bereichsende haben. Dem Regeltyp content für die Komponente CBR ist ein regulärer Ausdruck (pattern) für den Abgleich zugeordnet. (Beispiele und Szenarien für die Verwendung der Inhaltsregel sowie eine gültige pattern-Syntax für die Inhaltsregel finden Sie in Anhang B. Syntax für Inhaltsregeln (Muster).)

    Regeln werden in der Reihenfolge ihrer Priorität ausgewertet. Eine Regel mit der Priorität 1 (kleinere Nummer) wird vor einer Regel mit der Priorität 2 (größere Nummer) ausgewertet. Die erste Regel, die erfüllt ist, wird verwendet. Sobald eine Regel erfüllt ist, werden keine weiteren Regeln ausgewertet.

    Eine Regel ist erfüllt, wenn die beiden folgenden Bedingungen zutreffen:

    1. Das Prädikat der Regel muss wahr sein. Das heißt, dass der Wert, der ausgewertet wird, zwischen Bereichsanfang und -ende liegen muss, oder der Inhalt mit dem regulären Ausdruck übereinstimmen muss, der für pattern in der Inhaltsregel angegeben wurde. Für Regeln des Typs "true" stimmt das Prädikat unabhängig vom Bereichsanfang und -ende immer überein.
    2. Sind der Regel Server zugeordnet, muss mindestens ein Server eine Wertigkeit von mehr 0 haben, damit Pakete an ihn weitergeleitet werden.

    Sind einer Regel keine Server zugeordnet, muss für die Regel nur die erste Bedingung zutreffen, um erfüllt zu sein. In diesem Fall löscht der Dispatcher die Verbindungsanforderung. Site Selector gibt die Namensserveranforderung mit einem Fehler zurück und CBR veranlasst Caching Proxy, eine Fehlerseite auszugeben.

    Wird keine der Regeln erfüllt, wählt Dispatcher aus allen für den Port verfügbaren Servern einen Server aus. Site Selector wählt aus allen für den Sitenamen verfügbaren Servern einen Server aus, und CBR veranlasst Caching Proxy, eine Fehlerseite auszugeben.

    Auf der Client-IP-Adresse basierende Regeln verwenden

    Dieser Regeltyp ist für die Komponenten Dispatcher, CBR und Site Selector verfügbar.

    Sie können Regeln auf der Basis der Client-IP-Adresse verwenden, wenn die Herkunft das Kriterium für die Auswahl von Kunden und die Ressourcenzuordnung sein soll.

    Stellen Sie sich vor, dass in Ihrem Netz in großem Umfang ein unbezahlter und deshalb unerwünschter Datenaustausch von Clients mit bestimmten IP-Adressen stattfindet. In diesem Fall könnten Sie mit dem Befehl dscontrol rule eine Regel erstellen. Beispiel:

    dscontrol rule add 9.67.131.153:80:ni type ip 
      beginrange 9.0.0.0 endrange 9.255.255.255

    Diese ni-Regel blendet alle Verbindungen für unerwünschte Clients aus. Anschließend fügen Sie die Server zur Regel hinzu, die zugänglich sein sollen. Werden keine Server zur Regel hinzugefügt, werden Anforderungen von den Adressen 9.x.x.x von keinem Ihrer Server bedient.

    Auf dem Clientport basierende Regeln verwenden

    Dieser Regeltyp ist nur für die Komponente Dispatcher verfügbar.

    Wenn Ihre Clients eine Software verwenden, die für Anforderungen von TCP/IP einen bestimmten Port anfordert, möchten Sie vielleicht Regeln auf der Basis des Clientports verwenden.

    Sie könnten beispielsweise eine Regel erstellen, die angibt, dass für alle Anforderungen mit einem Clientport von 10002 eine Gruppe besonders schneller Server bereitgestellt wird, da bekannt ist, dass alle Clientanforderungen mit diesem Port von einer besonders wichtigen Kundengruppe stammen.

    Auf der Uhrzeit basierende Regeln verwenden

    Dieser Regeltyp ist für die Komponenten Dispatcher, CBR und Site Selector verfügbar.

    Möglicherweise sollen aus Gründen der Kapazitätsplanung Regeln verwendet werden, die auf der Uhrzeit basieren. Ist beispielsweise Ihre Website täglich zu bestimmten Zeiten besonders stark frequentiert, können Sie während der Spitzenzeit fünf zusätzliche Server hinzufügen.

    Ein anderer Grund für die Verwendung einer Regel, die auf der Uhrzeit basiert, kann vorliegen, wenn Sie jede Nacht um Mitternacht einige der Server zur Wartung herunterfahren möchten. In diesem Fall können Sie eine Regel erstellen, mit der die Server während der benötigten Wartungszeit ausgeschlossen werden.

    Auf der Serviceart basierende Regeln verwenden

    Dieser Regeltyp ist nur für die Komponente Dispatcher verfügbar.

    Möglicherweise sollen Regeln verwendet werden, die auf dem Inhalt des Felds "Type of Service (TOS)" im IP-Header basieren. Wird beispielsweise eine Clientanforderung mit einem TOS-Wert empfangen, der einen normalen Service angibt, kann die Anforderung an eine Servergruppe weitergeleitet werden. Wird eine andere Clientanforderung mit einem anderen TOS-Wert empfangen, der einen Service mit höherer Priorität angibt, kann die Anforderung an eine andere Servergruppe weitergeleitet werden.

    Die TOS-Regel ermöglicht die vollständige Konfiguration jedes Bits im TOS-Byte unter Verwendung des Befehls dscontrol rule. Für signifikante Bits, die im TOS-Byte abgeglichen werden sollen, verwenden Sie 0 oder 1. Andernfalls wird der Wert x verwendet. Das folgende Beispiel zeigt das Hinzufügen einer TOS-Regel:

    dscontrol rule add 9.67.131.153:80:tsr type service tos 0xx1010x
    

    Regeln auf der Basis der Verbindungen pro Sekunde verwenden

    Dieser Regeltyp ist für die Komponenten Dispatcher und CBR verfügbar.

    Anmerkung:
    Der Manager muss aktiv sein, damit die folgenden Regeln angewendet werden können.

    Vielleicht möchten Sie Regeln verwenden, die auf den Verbindungen pro Sekunde basieren, wenn einige Ihrer Server auch von anderen Anwendungen benutzt werden sollen. Sie können beispielsweise zwei Regeln erstellen:

    1. Wenn Verbindungen pro Sekunde am Port 80 zwischen 0 und 2000, diese 2 Server verwenden
    2. Wenn Verbindungen pro Sekunde am Port 80 über 2000, diese 10 Server verwenden

    Möglicherweise verwenden Sie Telnet und möchten zwei Ihrer fünf Server für Telnet reservieren, es sei denn, die Verbindungen pro Sekunde überschreiten eine bestimmte Zahl. In diesem Fall würde der Dispatcher zu Spitzenzeiten die Last auf alle fünf Server verteilen.

    Regelauswertungsoption "upserversonrule" in Verbindung mit Regeln des Typs connection setzen: Wenn Sie Regeln des Typs connection verwenden und die Option upserversonrule setzen, können Sie sicherstellen, dass die übrigen Server nicht überlastet werden, falls einige Server der Gruppe heruntergefahren sind. Weitere Informationen finden Sie im Abschnitt Regeloption für Serverauswertung.

    Regeln auf der Basis der Summe aktiver Verbindungen verwenden

    Dieser Regeltyp ist für die Komponenten Dispatcher und CBR verfügbar.

    Anmerkung:
    Der Manager muss aktiv sein, damit die folgenden Regeln angewendet werden können.

    Wenn Ihre Server überlastet sind und beginnen, Pakete zu verwerfen, möchten Sie vielleicht Regeln anwenden, die auf der Gesamtanzahl der an einem Port aktiven Verbindungen basieren. Von bestimmten Webservern werden weiterhin Verbindungen akzeptiert, auch wenn sie nicht über genügend Threads verfügen, um auf die Anforderung zu antworten. Von dem Client wird daraufhin eine Zeitlimitüberschreitung angefordert, und der Kunde, der Ihre Website aufruft, erhält keinen Service. Sie können Regeln verwenden, die auf den aktiven Verbindungen basieren, um die Kapazität innerhalb eines Pools mit Servern auszugleichen.

    Sie wissen beispielsweise aus Erfahrung, dass Ihre Server den Service einstellen, nachdem sie 250 Verbindungen akzeptiert haben. Sie können eine Regel mit dem Befehl dscontrol rule oder mit dem Befehl cbrcontrol rule erstellen. Beispiel:

    dscontrol rule add 130.40.52.153:80:pool2 type active 
    beginrange 250 endrange 500
     
    oder
     
    cbrcontrol rule add 130.40.52.153:80:pool2 type active
    beginrange 250 endrange 500
     
    

    Sie würden dann der Regel Ihre aktuellen Server plus einige zusätzliche Server hinzufügen, die andernfalls für eine andere Verarbeitung verwendet werden.

    Regeln auf der Basis der reservierten und gemeinsam benutzten Bandbreite verwenden

    Regeln für reservierte und gemeinsam genutzte Bandbreite sind nur für die Komponente Dispatcher verfügbar.

    Für die Bandbreitenregeln errechnet der Dispatcher die Bandbreite als Geschwindigkeit, mit der die Daten von einer bestimmten Servergruppe an Clients geliefert werden. Der Dispatcher protokolliert die Kapazität auf Server-, Regel-, Port-, Cluster- und Executor-Ebene. Für jede dieser Ebenen gibt es ein Feld "Bytezähler", das übertragene Kilobytes pro Sekunde angibt. Der Dispatcher berechnet diese Geschwindigkeiten über einen Zeitraum von 60 Sekunden. Sie können diese Geschwindigkeitswerte auf der grafischen Benutzerschnittstelle (GUI) oder in der Ausgabe eines Befehlszeilenberichts anzeigen.

    Regel "Reservierte Bandbreite"

    Mit der Regel "Reservierte Bandbreite" können Sie die von einer Servergruppe gelieferte Datenmenge in Kilobytes pro Sekunde steuern. Durch Festlegen eines Schwellenwertes (Zuordnen eines bestimmten Bandbreitenbereichs) für jede Gruppe von Servern in der Konfiguration können Sie die von jeder Cluster-Port-Kombination genutzte Bandbreite steuern und gewährleisten.

    Nachfolgend sehen Sie ein Beispiel für das Hinzufügen einer reservedbandwidth-Regel:

    dscontrol rule add 9.67.131.153:80:rbw type reservedbandwidth 
      beginrange 0 endrange 300

    Bereichsanfang und -ende werden in Kilobytes pro Sekunde angegeben.

    Regel "Gemeinsame Bandbreite"

    Vor dem Konfigurieren der Regel "Gemeinsame Bandbreite" müssen Sie die maximale Bandbreite (Kilobytes pro Sekunde) angeben, die auf Executor- oder Clusterebene gemeinsam genutzt werden kann, indem Sie den Befehl dscontrol executor oder dscontrol cluster mit der Option "sharedbandwidth" verwenden. Der Wert für sharebandwidth sollte die insgesamt verfügbare Bandbreite (gesamte Netzkapazität) nicht überschreiten. Das Setzen der gemeinsam genutzten Bandbreite mit dem Befehl dscontrol gibt nur eine Obergrenze für die Regel an.

    Nachfolgend sind Beispiele für die Befehlssyntax aufgeführt:

    dscontrol executor set sharedbandwidth Größe
    dscontrol cluster [add | set] 9.12.32.9 sharedbandwidth Größe
    

    Größe ist für sharedbandwidth ein ganzzahliger Wert (in Kilobytes pro Sekunde). Der Standardwert ist null. Ist der Wert gleich null, kann die Bandbreite nicht gemeinsam benutzt werden.

    Bei gemeinsamer Nutzung von Bandbreite auf Clusterebene steht dem Cluster eine angegebene maximale Bandbreite zur Nutzung zur Verfügung. Solange die vom Cluster genutzte Bandbreite unter dem angegebenen Wert liegt, ist das Ergebnis der Auswertung für diese Regel true. Liegt die insgesamt genutzte Bandbreite über dem angegebenen Wert, ist das Ergebnis der Regelauswertung false.

    Bei gemeinsamer Nutzung der Bandbreite auf Executor-Ebene kann die gesamte Dispatcher-Konfiguration eine maximale Bandbreite nutzen. Solange die auf Executor-Ebene genutzte Bandbreite unter dem angegebenen Wert liegt, ist das Ergebnis der Auswertung für diese Regel true. Liegt die insgesamt genutzte Bandbreite über der definierten Bandbreite, ist das Ergebnis der Regelauswertung false.

    Nachfolgend einige Beispiele für das Hinzufügen oder Definieren einer sharedbandwidth-Regel:

    dscontrol rule add 9.20.30.4:80:shbw type sharedbandwidth sharelevel Wert
    dscontrol rule set 9.20.34.11:80:shrule sharelevel Wert
    

    Der Wert für sharelevel ist executor oder cluster. Der Parameter "sharelevel" ist für die Regel "sharebandwidth" erforderlich.

    Regeln für reservierte und gemeinsam genutzte Bandbreite verwenden

    Dispatcher gibt Ihnen die Möglichkeit, mit der Regel Reservierte Bandbreite Gruppen von Servern in Ihrer Konfiguration eine angegebene Bandbreite zuzuordnen. Durch Angabe von Bereichsanfang und -ende können Sie steuern, wie viele Kilobytes eine Servergruppe an Clients senden kann. Wenn die Regelauswertung nicht mehr das Ergebnis true ergibt (das Bereichsende überschritten wird), wird die Regel mit der nächst niedrigeren Priorität ausgewertet. Falls die Regel mit der nächst niedrigeren Priorität eine immer gültige Regel (always true) ist, könnte ein Server ausgewählt werden, der Clients eine Antwort vom Typ "Site ausgelastet" sendet.

    Beispiel: Gehen wir von einer Gruppe mit drei Servern am Port 2222 aus. Wenn die reservierte Bandbreite auf 300 gesetzt ist, werden über einen Zeitraum von 60 Sekunden maximal 300 Kilobytes pro Sekunden übertragen. Wird diese Geschwindigkeit überschritten, ist das Ergebnis der Regelauswertung nicht mehr true. Falls dies die einzige Regel ist, würde der Dispatcher einen der drei Server zur Bearbeitung der Anfrage auswählen. Wenn es eine Regel mit niedrigerer Priorität ("always true") gibt, könnte die Anfrage an einen anderen Server umgeleitet und mit "Site ausgelastet" beantwortet werden.

    Die Regel für gemeinsam genutzte Bandbreite erweitert den Serverzugriff für Clients. Wenn diese Regel als Regel niedrigerer Priorität nach einer Regel für reservierte Bandbreite verwendet wird, kann ein Client auch dann noch auf einen Server zugreifen, wenn die reservierte Bandbreite überschritten wurde.

    Beispiel: Durch Verwendung einer Regel für gemeinsam genutzte Bandbreite nach einer Regel für reservierte Bandbreite können Sie Clients kontrolliert den Zugriff auf die drei Server gewähren. Solange gemeinsam genutzte Bandbreite verfügbar ist, wird die Regel mit dem Ergebnis true ausgewertet und der Zugriff gewährleistet. Ist die gemeinsam genutzte Bandbreite erschöpft, ist die Regel nicht true und es wird die nächste Regel ausgewertet. Folgt eine immer gültige Regel ("always true"), kann die Anfrage bei Bedarf umgeleitet werden.

    Wenn Sie die reservierte und die gemeinsam genutzte Bandbreite wie im obigen Beispiel beschrieben verwenden, können Sie den Zugriff auf die Server geregelter und flexibler gewähren (oder verweigern). Für Server an einem spezifischen Port können Sie die nutzbare Bandbreite einschränken, während andere Server zusätzliche Bandbreite (im Rahmen der Verfügbarkeit) nutzen können.

    Anmerkung:
    Der Dispatcher verfolgt die Bandbreite, indem er den zu einem Server fließenden Clientdatenverkehr (z. B. Bestätigungspakete) misst. Falls der Dispatcher diesen Datenverkehr aus irgend einem Grund nicht "sehen" kann, kommt es bei der Anwendung der Bandbreitenregeln zu unvorhersehbaren Ergebnissen.

    Regel "Metrik gesamt"

    Dieser Regeltyp ist nur für die Komponente Site Selector verfügbar.

    Für die Regel "Metrik gesamt" wählen Sie eine Systemmetrik (cpuload, memload oder ein eigenes angepasstes Systemmetricscript) aus. Site Selector vergleicht die Systemmetrik (die vom Metric-Server-Agenten auf jedem Server mit Lastausgleich zurückgegeben wird) mit dem von Ihnen für die Regel festgelegten Bereichsanfang und -ende. Die Regel wird erst angewendet, wenn die aktuelle Metrik für alle Server der Gruppe innerhalb des für die Regel festgelegten Bereichs liegt.

    Anmerkung:
    Das von Ihnen ausgewählte Systemmetrikscript muss sich auf jedem der Server mit Lastausgleich befinden.

    Nachfolgend sehen Sie ein Beispiel für das Hinzufügen einer Regel "Metrik gesamt" zu Ihrer Konfiguration:

    sscontrol rule add dnsload.com:allrule1 type metricall 
      metricname cpuload beginrange 0 endrange 100
     
    

    Regel "Metrik Durchschnitt"

    Dieser Regeltyp ist nur für die Komponente Site Selector verfügbar.

    Für die Regel "Metrik Durchschnitt" wählen Sie eine Systemmetrik (cpuload, memload oder ein eigenes angepasstes Systemmetrikscript) aus. Site Selector vergleicht die Systemmetrik die vom Metric-Server-Agenten auf jedem Server mit Lastausgleich zurückgegeben wird) mit dem von Ihnen für die Regel festgelegten Bereichsanfang und -ende. Die Regel wird erst angewendet, wenn der Durchschnitt der aktuellen Metriken auf allen Servern der Gruppe innerhalb des für die Regel festgelegten Bereichs liegt.

    Anmerkung:
    Das von Ihnen ausgewählte Systemmetrikscript muss sich auf jedem der Server mit Lastausgleich befinden.

    Nachfolgend sehen Sie ein Beispiel für das Hinzufügen einer Regel "Metrikdurchschnitt" zu Ihrer Konfiguration:

    sscontrol rule add dnsload.com:avgrule1 type metricavg 
      metricname cpuload beginrange 0 endrange 100
     
    

    Immer gültige Regeln verwenden

    Dieser Regeltyp ist für die Komponenten Dispatcher, CBR und Site Selector verfügbar.

    Es kann eine Regel erstellt werden, die immer wahr ist. Eine solche Regel wird immer ausgewählt, es sei denn, alle ihr zugeordneten Server sind inaktiv. Aus diesem Grund sollte sie eine niedrigere Priorität als andere Regeln haben.

    Sie können sogar mehrere Regeln haben, die immer wahr sind. Jeder Regel kann eine Gruppe mit Servern zugeordnet sein. Die erste wahre Regel mit einem verfügbaren Server wird ausgewählt. Angenommen, Sie haben sechs Server. Zwei dieser Server sollen unter allen Umständen den Datenaustausch steuern, es sei denn, beide Server sind inaktiv. Sind die ersten beiden Server inaktiv, soll eine zweite Gruppe mit Servern den Datenaustausch steuern. Sind diese vier Server inaktiv, sollen die letzten zwei Server den Datenaustausch steuern. Sie könnten drei Regeln erstellen, die immer wahr sind. Die erste Gruppe mit Servern wird dann immer ausgewählt, wenn mindestens ein Server aktiv ist. Sind beide inaktiv, wird ein Server aus der zweiten Gruppe ausgewählt, usw.

    Als weiteres Beispiel können Sie mit einer Regel, die immer wahr ist, sicherstellen, dass eingehende Clients keinen Service erhalten, wenn sie nicht den festgelegten Regeln entsprechen. Mit Hilfe des Befehls dscontrol rule würden Sie die folgende Regel erstellen:

    dscontrol rule add 130.40.52.153:80:jamais type true priority 100
    

    Wenn Sie anschließend keine Server zur Regel hinzufügen, werden die Clientpakete ohne Antwort gelöscht.

    Anmerkung:
    Beim Erstellen einer immer gültigen Regel müssen Sie keinen Bereichsanfang und kein Bereichsende festlegen.

    Sie können mehrere Regeln definieren, die immer wahr sind, und dann durch Ändern der Prioritätsebene festlegen, welche Regel angewendet werden soll.

    Auf dem Inhalt der Anforderung basierende Regeln verwenden

    Dieser Regeltyp ist in den Komponenten CBR und Dispatcher (bei Verwendung der Dispatcher-Weiterleitungsmethode "cbr") verfügbar.

    Dieser Regeltyp wird verwendet, wenn Anforderungen an Gruppen von Servern gesendet werden sollen, die speziell für die Bearbeitung eines bestimmten Teils des Sitedatenverkehrs konfiguriert wurden. Beispielsweise wollen Sie eine Gruppe von Servern für die Bearbeitung aller cgi-bin-Anforderungen, eine andere Gruppe für die Bearbeitung aller Audiodatenstromanforderungen und eine dritte Gruppe für die Bearbeitung aller anderen Anforderungen verwenden. Sie würden eine Regel mit einem pattern-Wert hinzufügen, der mit dem Pfad zu Ihrem cgi-bin-Verzeichnis übereinstimmt, eine zweite Regel, die mit dem Dateityp Ihrer Audio-Streaming-Dateien übereinstimmt, und eine dritte Regel, die immer wahr ist, um den restlichen Datenverkehr zu bearbeiten. Sie würden dann jeder Regel die entsprechenden Server hinzufügen.

    Wichtiger Hinweis: Beispiele und Szenarien für die Verwendung der Inhaltsregel sowie eine gültige pattern-Syntax für die Inhaltsregel finden Sie in Anhang B. Syntax für Inhaltsregeln (Muster).

    Portaffinität außer Kraft setzen

    Mit der Außerkraftsetzung der Portaffinität können Sie die Affinität eines Ports für einen bestimmten Server außer Kraft setzen. Angenommen, Sie verwenden eine Regel, um die Anzahl der Verbindungen mit jedem Anwendungsserver zu begrenzen, und haben einen Überlaufserver mit einer Regel "immer wahr", die "Bitte später erneut versuchen" für diese Anwendung angibt. Der Port hat einen stickytime-Wert von 25 Minuten. Sie möchten also nicht, dass der Client an diesen Server gebunden wird. Durch Außerkraftsetzung der Portaffinität können Sie bewirken, dass der Überlaufserver die diesem Port normalerweise zugeordnete Affinität außer Kraft setzt. Fordert der Client das nächste Mal den Cluster an, erfolgt ein Lastausgleich auf der Basis des besten verfügbaren Anwendungsservers und nicht des Überlaufservers.

    Ausführliche Informationen zur Befehlssyntax für die Außerkraftsetzung der Portaffinität mit der Option sticky finden Sie im Abschnitt dscontrol server -- Server konfigurieren.

    Regeln zur Konfiguration hinzufügen

    Zum Hinzufügen von Regeln können Sie den Befehl dscontrol rule add verwenden, die Beispielkonfigurationsdatei editieren oder die grafische Benutzerschnittstelle (GUI) benutzen. Sie können für jeden definierten Port eine oder mehrere Regel(n) hinzufügen.

    Der Prozess besteht aus zwei Schritten: Hinzufügen der Regel und Definieren der Server, die verwendet werden sollen, wenn die Regel wahr ist. Beispielsweise möchte der Systemadministrator die Auslastung der Proxy-Server durch die einzelnen Unternehmensbereiche verfolgen. Er ordnet jedem Unternehmensbereich IP-Adressen zu. Er erstellt die erste Gruppe mit Regeln auf der Basis der Client-IP-Adressen, um zwischen den Lasten der einzelnen Unternehmensbereiche unterscheiden zu können.

    dscontrol rule add 130.40.52.153:80:div1 type ip b 9.1.0.0 e 9.1.255.255
    dscontrol rule add 130.40.52.153:80:div2 type ip b 9.2.0.0 e 9.2.255.255
    dscontrol rule add 130.40.52.153:80:div3 type ip b 9.3.0.0 e 9.3.255.255

    Anschließend fügt der Systemadministrator zu jeder Regel einen anderen Server hinzu und misst dann die Last auf jedem der Server, um dem Unternehmensbereich die verwendeten Services korrekt in Rechnung zu stellen. Beispiel:

    dscontrol rule useserver 130.40.52.153:80:div1 207.72.33.45
    dscontrol rule useserver 130.40.52.153:80:div2 207.72.33.63
    dscontrol rule useserver 130.40.52.153:80:div3 207.72.33.47

    Regeloption für Serverauswertung

    Die Option für Serverauswertung ist nur für die Komponente Dispatcher verfügbar.

    Der Befehl dscontrol rule bietet eine Serverauswertungsoption für Regeln an. Mit der Option evaluate können Sie die Regelbedingungen für alle Server an einem Port oder für die in der Regel angegebenen Server auswerten. (In früheren Versionen von Load Balancer konnten nur die Regelbedingungen für alle Server an einem Port erfasst werden.)

    Anmerkungen:

    1. Die Option für Serverauswertung ist nur für Regeln gültig, die ihre Entscheidungen ausgehend von den Kenndaten der Server treffen. Dazu gehören die Regel "Summe Verbindungen (pro Sekunde)", die Regel "Aktive Verbindungen" und die Regel "Reservierte Bandbreite".

    2. Regeln des Typs connection bieten die zusätzliche Auswertungsoption upserversonrule zur Auswahl an. Weitere Informationen finden Sie im Abschnitt Regeln auf der Basis der Verbindungen pro Sekunde verwenden.

    Nachfolgend einige Beispiele für das Hinzufügen oder Definieren der Auswertungsoption für eine Regel "Reservierte Bandbreite":

    dscontrol rule add 9.22.21.3:80:rbweval type reservedbandwidth evaluate Ebene 
    dscontrol rule set 9.22.21.3:80:rbweval evaluate Ebene
    

    Die Ebene für die Option Ebene kann auf port, rule oder upserversonrule gesetzt werden. Der Standardwert ist port.

    In der Regel angegebene Server auswerten

    Mit der Option zum Erfassen der Regelbedingungen für die in der Regel definierten Server können Sie zwei Regeln mit den folgenden Kenndaten konfigurieren:

    Wenn der Datenverkehr den Schwellenwert für die in der ersten Regel angegebenen Server überschreitet, wird er an den in der zweiten Regel definierten Server ("Site ausgelastet") gesendet. Sinkt die Zahl der Datenübertragungen unter den Schwellenwert, der für die Server in der ersten Regel definiert ist, werden die nachfolgenden Datenübertragungen erneut an die Server in der ersten Regel gesendet.

    Server am Port auswerten

    Wenn Sie bei den für das vorherige Beispiel beschriebenen Regeln den Wert der Option "evaluate" für die erste Regel auf port setzen (damit die Regelbedingungen für alle Server am Port ausgewertet werden) und der Datenverkehr den Schwellenwert für diese Regel überschreitet, wird er an den der zweiten Regel zugeordneten Server ("Site ausgelastet") gesendet.

    Die erste Regel misst den Datenverkehr aller Server (einschließlich des Verkehrs für den Server "Site ausgelastet") am Port, um festzustellen, ob der Schwellenwert überschritten wird. Geht die Überlastung der der ersten Regel zugeordneten Server zurück, kann der Datenverkehr entgegen der Absicht weiterhin an den Server "Site ausgelastet" gesendet werden, sofern der Datenverkehr am Port weiterhin den Schwellenwert für die erste Regel überschreitet.


    Funktionsweise der Affinität für Load Balancer

    Für die Komponenten Dispatcher und CBR: Wenn Sie den Port eines Clusters als sticky konfigurieren, aktivieren Sie die Affinitätsfunktion. Wird der Port eines Clusters als sticky konfiguriert, können nachfolgende Clientanforderungen an denselben Server übertragen werden. Dies geschieht, indem für die Option stickytime auf Executor-, Cluster- oder Portebene eine Haltezeit von einigen Sekunden angegeben wird. Sie können die Funktion inaktivieren, indem Sie stickytime auf null setzen.

    Wird die Crossport-Affinität aktiviert, müssen die Werte für "stickytime" der gemeinsam benutzten Ports identisch (und ungleich null) sein. Weitere Informationen finden Sie im Abschnitt Crossport-Affinität.

    Für die Komponente Site Selector: Wenn Sie einen Sitenamen als "sticky" konfigurieren, aktivieren Sie die Affinitätsfunktion. Bei einem als sticky konfigurierten Sitenamen kann der Client für mehrere Namensserviceanforderungen denselben Server verwenden. Geben Sie dazu als stickytime für den Sitenamen eine Haltezeit von einigen Sekunden an. Sie können die Funktion inaktivieren, indem Sie stickytime auf null setzen.

    Die Haltezeit (stickytime) für einen Server ist das Intervall zwischen dem Schließen einer Verbindung und dem Öffnen einer neuen Verbindung. Innerhalb dieses Intervalls wird der Client an denselben Server wie bei der ersten Verbindung vermittelt. Nach Ablauf der Haltezeit kann der Client an einen anderen Server vermittelt werden. Die Haltezeit für einen Server wird mit den Befehlen "dscontrol" "executor", "port" oder "cluster" konfiguriert.

    Verhalten bei inaktivierter Affinität

    Wird bei inaktivierter Affinität eine neue TCP-Verbindung von einem Client empfangen, verwendet Load Balancer den zu diesem Zeitpunkt richtigen Server und leitet die Pakete an diesen Server weiter. Wird eine weitere Verbindung von demselben Client empfangen, behandelt Load Balancer diese Verbindung als eine neue Verbindung und wählt wieder den zu diesem Zeitpunkt richtigen Server aus.

    Verhalten bei aktivierter Affinität

    Bei Aktivierung der Affinität wird eine nachfolgende Anforderung von demselben Client an denselben Server gerichtet.

    Nach einer gewissen Zeit hört der Client auf, Transaktionen zu senden, so dass der Affinitätseintrag entfernt wird. Jeder Affinitätseintrag bleibt nur für die für stickytime festlegte Zeit in Sekunden erhalten. Werden innerhalb der Haltezeit (stickytime) weitere Verbindungen empfangen, ist der Affinitätseintrag noch gültig, so dass die Anforderung an denselben Server weitergeleitet wird. Wenn eine Verbindung nicht innerhalb der Haltezeit empfangen wird, wird der Eintrag gelöscht. Für eine nach Ablauf der Haltezeit empfangene Verbindung wird ein neuer Server ausgewählt.

    Ein Server wird mit dem Befehl "server down" (dscontrol server down) offline gesetzt, allerdings erst heruntergefahren, wenn das stickytime-Intervall abgelaufen ist.

    Crossport-Affinität

    Die Crossport-Affinität gilt nur für die Dispatcher-Weiterleitungsmethoden MAC und NAT/NATP.

    Die Crossport-Affinität ist die Ausdehnung der Haltefunktion auf mehrere Ports. Wird beispielsweise eine Clientanforderung zuerst an einem Port und die nächste Anforderung an einem anderen Port empfangen, kann der Dispatcher die Clientanforderungen bei Crossport-Affinität an denselben Server senden. Die Ports müssen die folgenden Bedingungen erfüllen, um diese Funktion verwenden zu können:

    Mehrere Ports können eine Verbindung zu demselben Crossport herstellen. Wenn vom selben Client weitere Verbindungen an demselben Port oder einem gemeinsam benutzten Port ankommen, wird auf denselben Server zugegriffen. Nachfolgend sehen Sie eine Beispielkonfiguration für mehrere Ports mit einer Crossport-Affinität für Port 10:

    dscontrol port set Cluster:20 crossport 10
    dscontrol port set Cluster:30 crossport 10
    dscontrol port set Cluster:40 crossport 10
    

    Nachdem Sie die Crossport-Affinität konfiguriert haben, können Sie den Wert für die Haltezeit des Ports flexibel ändern. Sie sollten stickytime jedoch für alle gemeinsam benutzten Ports auf denselben Wert setzen, da andernfalls unerwartete Ergebnisse auftreten können.

    Wenn Sie die Crossport-Affinität aufheben möchten, setzen Sie den Wert für "crossport" auf seine eigene Portnummer zurück. Ausführliche Informationen zur Befehlssyntax für die Option crossport finden Sie im Abschnitt dscontrol port -- Ports konfigurieren.

    Affinitätsadressmaske (stickymask)

    Die Affinitätsadressmaske gilt nur für die Komponente Dispatcher.

    Die Affinitätsadressmaske ist eine Erweiterung der Sticky-Funktion, mit der Clients auf der Basis gemeinsamer Teilnetzadressen zusammengefasst werden. Wenn Sie stickymask mit dem Befehl dscontrol port angeben, können Sie die gemeinsamen höherwertigen Bits der 32-Bit-IP-Adresse maskieren. Wenn diese Funktion konfiguriert ist und eine Clientanforderung zum ersten Mal eine Verbindung zu dem Port herstellt, werden alle nachfolgenden Anforderungen von Clients mit derselben Teilnetzadresse (repräsentiert vom maskierten Abschnitt der Adresse) an denselben Server übertragen.

    Anmerkung:
    Wenn Sie stickymask aktivieren möchten, muss stickytime für den Port einen Wert ungleich null haben.

    Wenn Sie beispielsweise alle eingehenden Clientanforderungen mit derselben Netzadresse der Klasse A an einen Server übergeben möchten, setzen Sie den stickymask-Wert für den Port auf 8 (Bits). Sollen Clientanforderungen mit derselben Netzadresse der Klasse B zusammengefasst werden, setzen Sie den Wert für stickymask auf 16 (Bits). Sollen Clientanforderungen mit derselben Netzadresse der Klasse C zusammengefasst werden, setzen Sie den Wert für stickymask auf 24 (Bits).

    Die besten Ergebnisse werden erzielt, wenn Sie den Wert für stickymask beim erstmaligen Starten von Load Balancer definieren. Wird der Wert für stickymask dynamisch geändert, können unvorhersehbare Ergebnisse auftreten.

    Interaktion mit Crossport-Affinität: Wenn Sie die Crossport-Affinität aktivieren, müssen die stickymask-Werte der gemeinsam genutzten Ports identisch sein. Weitere Informationen finden Sie im Abschnitt Crossport-Affinität.

    Um die Affinitätsadressmaske zu aktivieren, setzen Sie einen ähnlichen Befehl dscontrol port wie den folgenden ab:

    dscontrol port set Cluster:Port stickytime 10 stickymask 8
    

    Gültige Werte für stickymask sind 8, 16, 24 und 32. Der Wert 8 gibt an, dass die ersten 8 höherwertigen Bits der IP-Adresse (Netzadresse der Klasse A) maskiert werden. Der Wert 16 gibt an, dass die ersten 16 höherwertigen Bits der IP-Adresse (Netzadresse der Klasse B) maskiert werden. Der Wert 24 gibt an, dass die ersten 24 höherwertigen Bits der IP-Adresse (Netzadresse der Klasse C) maskiert werden. Wird der Wert 32 angegeben, wird die gesamte IP-Adresse maskiert, wodurch die Affinitätsadressmaskenfunktion inaktiviert wird. Der Standardwert für stickymask ist 32.

    Ausführliche Informationen zur Befehlssyntax von stickymask (Feature für Affinitätsadressmaske) finden Sie im Abschnitt dscontrol port -- Ports konfigurieren.

    Bearbeitung von Serververbindungen stilllegen

    Die Stilllegung gilt für die Komponenten Dispatcher und CBR.

    Wenn Sie aus bestimmten Gründen (Aktualisierungen, Upgrades, Wartung usw.) einen Server aus der Load-Balancer-Konfiguration entfernen müssen, können Sie den Befehl dscontrol manager quiesce verwenden. Mit dem Unterbefehl "quiesce" können vorhandene Verbindungen beendet werden (ohne weiter bedient zu werden). Nachfolgende neue Verbindungen vom Client zum stillgelegten Server werden nur weitergeleitet, wenn die Verbindung als gehaltene Verbindung (sticky) bezeichnet ist und die Haltezeit (stickytime) nicht abgelaufen ist. Alle anderen neuen Verbindungen zum Server werden vom Unterbefehl "quiesce" unterbunden.

    Stilllegung gehaltener Verbindungen

    Verwenden Sie die Option "quiesce now", wenn Sie die Haltezeit definiert haben und vor Ablauf der Haltezeit neue Verbindungen an einen anderen als den stillgelegten Server gesendet werden sollen. Im folgenden Beispiel wird die Option "now" für die Stilllegung des Servers 9.40.25.67 verwendet:

    dscontrol manager quiesce 9.40.25.67 now

    Die Option "now" bestimmt wie folgt, was mit gehaltenen Verbindungen geschehen soll:


    Affinitätsoption der Regel ausgehend vom Inhalt der Clientanforderung

    Mit dem Befehl dscontrol rule können Sie die folgenden Arten der Affinität angeben:

    Der Standardwert für die Option "affinity" ist "none". Die Option stickytime für den Portbefehl (port) muss auf null gesetzt (inaktiviert) sein, damit die Option affinity des Regelbefehls (rule) auf die aktive oder passive Cookie-Affinität bzw. auf die URI-Affinität gesetzt werden kann. Ist für die Regel eine Affinität definiert, kann keine Haltezeit für den Port aktiviert werden.

    Aktive Cookie-Affinität

    Die aktive Cookie-Affinität gilt nur für die Komponente CBR.

    Sie bietet eine Möglichkeit, Clients an einen bestimmten Server zu binden. Diese Funktion wird aktiviert, indem der Wert stickytime einer Regel auf eine positive Zahl und die Affinität auf "activecookie" gesetzt wird. Dies kann beim Hinzufügen der Regel oder mit dem Befehl "rule set" geschehen. Ausführliche Informationen zur Befehlssyntax finden Sie im Abschnitt dscontrol rule -- Regeln konfigurieren.

    Wenn eine Regel für aktive Cookie-Affinität aktiviert wurde, wird der Lastausgleich für neue Clientanforderungen mit Standrad-CBR-Algorithmen durchgeführt. Aufeinanderfolgende Anforderungen eines Clients werden dabei an den zu Beginn ausgewählten Server gesendet. Der ausgewählte Server ist als Cookie in der Antwort an den Client gespeichert. Solange die zukünftigen Anforderungen des Clients das Cookie enthalten und jede Anforderung innerhalb der Haltezeit empfangen wird, bleibt der Client an den anfänglichen Server gebunden.

    Mit der aktiven Cookie-Affinität wird sichergestellt, dass die Arbeitslast eines Clients über einen bestimmten Zeitraum hinweg an denselben Server weitergeleitet wird. Dies wird erreicht, indem ein Cookie gesendet wird, das von dem Clientbrowser gespeichert wird. Das Cookie enthält die für die Entscheidungsfindung verwendete Angabe Cluster:Port:Regel, den Server, an den die Arbeitslast weitergeleitet wurde, und eine Zeitmarke für das Zeitlimit, bei dessen Erreichung die Affinität ungültig wird. Das Cookie hat das folgende Format: IBMCBR=Cluster:Port:Regel+Server-Zeit!. Die Angaben Cluster:Port:Regel und Server sind codiert, so das die CBR-Konfiguration nicht erkennbar ist.

    Funktionsweise der aktiven Cookie-Affinität

    Bei Erfüllung einer Regel mit gesetzter aktiver Cookie-Affinität wird das vom Client gesendete Cookie überprüft.

    Dieses neue Cookie wird dann in die Kopfzeilen eingefügt, die an den Client gesendet werden. Ist der Browser des Clients so konfiguriert, dass er Cookies akzeptiert, sendet er nachfolgende Anforderungen an diese Adresse zurück.

    Jede Affinitätsinstanz im Cookie ist 65 Bytes lang und endet mit dem Ausrufezeichen. Ein 4096-Byte-Cookie kann demzufolge ungefähr 60 individuelle aktive Cookie-Regeln pro Domäne enthalten. Wenn das Cookie komplett gefüllt ist, werden alle abgelaufenen Affinitätsinstanzen gelöscht. Sollten noch alle Instanzen gültig sein, wird die älteste gelöscht und dafür die neue Instanz für die aktuelle Regel hinzugefügt.

    Anmerkung:
    CBR ersetzt alle IBMCBR-Cookies im alten Format auf dem Proxy.

    Die Option für aktive Cookie-Affinität für den Regelbefehl (rule) kann nur auf "activecookie"gesetzt werden, wenn die Haltezeit (stickytime) für den Port gleich null (inaktiviert) ist. Ist die aktive Cookie-Affinität für eine Regel aktiviert, kann keine Haltezeit für den Port aktiviert werden.

    Aktive Cookie-Affinität aktivieren

    Verwenden Sie zum Aktivieren der aktiven Cookie-Affinität für eine bestimmte Regel wie folgt den Befehl "rule set":

    rule set Cluster:Port:Regel stickytime 60
    rule set Cluster:Port:Regel affinity activecookie

    Grund für die Verwendung der aktiven Cookie-Affinität

    Die Haltezeit wird in der Regel für CGIs oder Servlets verwendet, die den Clientstatus auf dem Server speichern. Der Status wird durch eine Cookie-ID identifiziert (dies sind Server-Cookies). Der Clientstatus ist nur auf dem ausgewählten Server gespeichert. Der Client benötigt also das Cookie von diesem Server, um diesen Status zwischen Anforderungen zu wahren.

    Außerkraftsetzung der Verfallszeit für Cookie-Affinität

    Die aktive Cookie-Affinität verfällt standardmäßig nach der Zeit, die sich aus der Summe der aktuellen Serverzeit, der Haltezeit (stickytime) und 24 Stunden ergibt. Wenn Ihre Clients (die Anfragen an Ihre CBR-Maschine senden) auf ihren Systemen eine falsche Zeit eingestellt haben (so dass sie z. B. der Serverzeit mehr als einen Tag voraus sind), ignorieren die Systeme dieser Clients die Cookies von CBR, weil sie davon ausgehen, dass die Cookies schon verfallen sind. Zum Einstellen einer längeren Verfallszeit müssen Sie das Script cbrserver modifizieren. Editieren Sie die Zeile javaw in der Scriptdatei. Fügen Sie nach LB_SERVER_KEYS den folgenden Parameter ein: -DCOOKIEEXPIREINTERVAL=X. X steht hier für die Anzahl der Tage, die zur Verfallszeit addiert werden sollen.

    Auf AIX-, Solaris- und Linux-Systemen finden Sie die Datei "cbrserver" im Verzeichnis /usr/bin.

    Auf Windows-Systemen finden Sie die Datei "cbrserver" im Verzeichnis \winnt\system32.

    Passive Cookie-Affinität

    Die passive Cookie-Affinität gilt für die inhaltsabhängige Weiterleitung (cbr) durch die Komponente Dispatcher und die Komponente CBR. Informationen zum Konfigurieren der Dispatcher-Weiterleitungsmethode "cbr" finden Sie im Abschnitt Dispatcher-Weiterleitungsmethode "cbr".

    Die passive Cookie-Affinität bietet eine Möglichkeit, Clients an einen bestimmten Server zu binden. Wenn Sie für eine Regel die Affinität auf passivecookie setzen, können Sie den Webdatenverkehr mit Affinität zu einem Server verteilen. Die Affinität basiert auf den von den Servern generierten Identifizierungs-Cookies. Die passive Cookie-Affinität wird auf Regelebene konfiguriert.

    Wird eine Regel mit aktivierter passiver Cookie-Affinität erfüllt, wählt Load Balancer den Server ausgehend von dem im HTTP-Header der Clientanforderung enthaltenen Cookie-Namen aus. Load Balancer vergleicht den Cookie-Namen aus dem HTTP-Header des Clients mit den für die einzelnen Server konfigurierten Cookie-Werten.

    Findet Load Balancer einen Server, in dessen Cookie-Wert der Cookie-Name des Clients enthalten ist, wählt Load Balancer diesen Server für die Anforderung aus.

    Anmerkung:
    Load Balancer bietet diese Flexibilität für den Fall, dass der Server einen Cookie-Wert generiert, der aus einem statischen Teil besteht, an den ein variabler Teil angehängt wird. Der Cookie-Wert des Servers könnte beispielsweise der Servername (statischer Wert) sein, an den eine Zeitmarke (variabler Wert) angehängt wird.

    Wenn in der Clientanforderung kein Cookie-Name gefunden wird oder dieser in keinem der Server-Cookie-Werte enthalten ist, wird der Server mit Hilfe der vorhandenen Serverauswahlmethoden oder der gewichteten Round-Robin-Methode ausgewählt.

    Gehen Sie zum Konfigurieren der passiven Cookie-Affinität wie folgt vor:

    Die Option für passive Cookie-Affinität für den Regelbefehl (rule) kann nur auf "passivecookie" gesetzt werden, wenn die Haltezeit (stickytime) für den Port gleich null (inaktiviert) ist. Ist die passive Cookie-Affinität für eine Regel aktiviert, kann keine Haltezeit für den Port aktiviert werden.

    URI-Affinität

    Die URI-Affinität gilt für die Weiterleitungsmethode "cbr" von Dispatcher und die Komponente CBR. Informationen zum Konfigurieren der Weiterleitungsmethode "cbr" finden Sie im Abschnitt Dispatcher-Weiterleitungsmethode "cbr".

    Bei Verwendung der URI-Affinität kann die Arbeitslast des Webdatenverkehrs so auf Caching-Proxy-Server verteilt werden, dass auf den einzelnen Servern unterschiedlicher Inhalt im Cache gespeichert werden kann. Auf diese Weise vergrößern Sie effektiv die Cachekapazität Ihrer Site, da eine redundante Zwischenspeicherung von Inhalten auf mehreren Maschinen vermieden wird. Konfigurieren Sie die URI-Affinität auf Regelebene. Wenn eine Regel mit aktivierter URI-Affinität erfüllt ist und die entsprechende Gruppe von Servern verfügbar und aktiv ist, leitet Load Balancer neue eingehende Clientanforderungen mit demselben URI an einen Server weiter.

    Normalerweise verteilt Load Balancer Anforderungen auf mehrere Server, die identische Inhalte bereitstellen. Wenn Sie Load Balancer mit einer Gruppe von Caching-Servern verwenden, wird häufig abgerufener Inhalt unter Umständen auf allen Servern zwischengespeichert. Daraus ergibt sich eine sehr hohe Clientbelastung, wenn auf mehreren Maschinen zwischengespeicherte identische Inhalte repliziert werden. Diese Vorgehensweise ist besonders für Websites mit großem Datenvolumen sinnvoll.

    Wenn Ihre Website jedoch nur ein mittleres Clientdatenvolumen mit den verschiedensten Inhalten unterstützt und Sie einen großen, auf mehrere Server verteilten Cache bevorzugen, ist der Durchsatz Ihrer Site besser, wenn jeder Caching Server eindeutige Inhalte enthält und Load Balancer die Anforderungen nur an den Caching Server mit den entsprechenden Inhalten weiterleitet.

    Bei Verwendung der URI-Affinität können Sie mit Load Balancer den zwischengespeicherten Inhalt auf einzelne Server verteilen und so eine redundante Zwischenspeicherung von Inhalten auf mehreren Maschinen vermeiden. Durch diese Erweiterung kann der Durchsatz von Serversites mit vielfältigen Inhalten, die Caching-Proxy-Server verwenden, verbessert werden. Identische Anforderungen werden an einen Server gesendet, so dass der Inhalt nur auf einem Server zwischengespeichert wird. Mit jeder zum Pool hinzugefügten Servermaschine vergrößert sich der effektive Cache.

    Gehen Sie zum Konfigurieren der URI-Affinität wie folgt vor:


    Dispatcher-WAN-Unterstützung konfigurieren

    Diese Funktion ist nur für die Komponente Dispatcher verfügbar.

    Wenn Sie die WAN-Unterstützung und die Weiterleitungsmethode "nat" von Dispatcher nicht verwenden, erfordert die Dispatcher-Konfiguration, dass die Dispatcher-Maschine und die zugehörigen Server demselben LAN-Segment zugeordnet sind (siehe Abbildung 35). Eine Clientanforderung wird auf der Dispatcher-Maschine empfangen und an den Server gesendet. Der Server sendet die Antwort direkt zurück an den Client.

    Abbildung 35. Beispiel einer Konfiguration mit einem LAN-Segment

    Einzelnes LAN-Segment

    Durch das WAN-Feature von Dispatcher werden Server an anderen Standorten, die als ferne Server bezeichnet werden, unterstützt (siehe Abbildung 36). Wenn GRE am fernen Standort nicht unterstützt wird und Sie nicht die Dispatcher-Weiterleitungsmethode "nat" verwenden, muss der ferne Standort aus einer Dispatcher-Maschine (Dispatcher 2) und den lokal angeschlossenen Servern (ServerG, ServerH und ServerI) bestehen. Ein Clientpaket wird vom Internet an die erste Dispatcher-Maschine und anschließend von dieser Maschine an eine Dispatcher-Maschine an einem anderen geografischen Standort sowie an einen der dort lokal angeschlossenen Server gesendet.

    Für WAN-Konfigurationen müssen alle Dispatcher-Maschinen (lokale und ferne) ein Betriebssystem desselben Typs ausführen und eine gemeinsame Plattform haben.

    Abbildung 36. Beispiel einer Konfiguration mit lokalen und fernen Servern

    Lokale und ferne Server

    Damit kann eine Clusteradresse weltweit alle Clientanforderungen unterstützen und die Last auf Server auf der ganzen Welt verteilen.

    An die Dispatcher-Maschine, die das Paket zunächst empfängt, können weiterhin lokale Server angeschlossen sein, und die Dispatcher-Maschine kann die Last auf ihre lokalen Server und auf die fernen Server verteilen.

    Befehlssyntax

    Führen Sie folgende Schritte aus, um die Weitverkehrsunterstützung zu konfigurieren:

    1. Fügen Sie die Server hinzu. Wird einem Dispatcher ein Server hinzugefügt, müssen Sie definieren, ob es sich bei dem Server um einen lokalen Server oder einen fernen Server handelt (siehe oben). Soll ein Server hinzugefügt und der Server als lokaler Server definiert werden, geben Sie den Befehl dscontrol server add ohne Angabe eines Routers ein. Dieser Wert ist der Standardwert. Soll der Server als ferner Server definiert werden, müssen Sie den Router angeben, über den der Dispatcher das Paket senden muss, um den fernen Server zu erreichen. Der Server muss ein anderer Dispatcher sein, und die Adresse des Servers muss die NFA des Dispatchers sein. Wenn Sie in Abbildung 37 beispielsweise LB 2 als fernen Server unter LB 1 hinzufügen, müssen Sie Router 1 als Router-Adresse definieren. Allgemeine Syntax:
      dscontrol server add Cluster:Port:Server router Adresse
      

      Weitere Informationen zum Schlüsselwort "router" finden Sie im Abschnitt dscontrol server -- Server konfigurieren.

    2. Konfigurieren Sie Aliasnamen. Auf der ersten Dispatcher-Maschine (auf der die Clientanforderung aus dem Internet empfangen wird) muss für die Clusteradresse mit dem Befehl executor configure ein Aliasname definiert werden. (Für Linux- oder UNIX-Systeme können Sie den Befehl executor configure oder ifconfig verwenden.) Auf den fernen Dispatcher-Maschinen wird die Clusteradresse jedoch nicht als Aliasname auf einer Netzschnittstellenkarte definiert.

    Ferne Advisor-Funktionen mit der Dispatcher-WAN-Unterstützung verwenden

    Eingangspunkt-Dispatcher:

    Eingangspunkt-Dispatcher, die auf der Plattform AIX, LINUX (mit GRE) oder Solaris ausgeführt werden, zeigen die Advisor-Last korrekt an. Andere Plattformen sind in Ermangelung eines Weitverkehrsnetzes auf einen Round-Robin-Lastausgleich bzw. auf die Dispatcher-Weiterleitungsmethode "nat" oder "cbr" angewiesen.

    AIX-Systeme

    HP-UX-Systeme

    Linux-Systeme

    Solaris-Systeme

    Windows-Systeme

    Ferne Dispatcher: Führen Sie für jede ferne Clusteradresse die folgenden Konfigurationsschritte aus. Für eine Konfiguration mit hoher Verfügbarkeit am fernen Dispatcher-Standort müssen Sie diese Schritte auf beiden Maschinen ausführen.

    AIX-Systeme

    HP-UX-, Linux-, Solaris- und Windows-Systeme

    Konfigurationsbeispiel

    Abbildung 37. WAN-Beispielkonfiguration mit fernen Load-Balancer-Maschinen

    WAN-Beispielkonfiguration mit fernen Load-Balancer-Maschinen

    Dieses Beispiel bezieht sich auf die in Abbildung 37 gezeigte Konfiguration.

    Nachfolgend wird beschrieben, wie die Dispatcher-Maschinen für die Unterstützung der Clusteradresse xebec am Port 80 konfiguriert werden. LB1 ist als Eingangspunkt-Load-Balancer definiert. Es wird eine Ethernet-Verbindung vorausgesetzt. Für LB1 sind fünf Server definiert, drei lokale (ServerA, ServerB, ServerC) und zwei ferne (LB2 und LB3). Für die fernen Load Balancer LB2 und LB3 sind jeweils drei lokale Server definiert.

    Führen Sie an der Konsole des ersten Dispatchers (LB1) die folgenden Schritte aus:

    1. Starten Sie den Executor.

      dscontrol executor start

    2. Definieren Sie die NFA der Dispatcher-Maschine.

      dscontrol executor set nfa LB1

    3. Definieren Sie den Cluster.

      dscontrol cluster add xebec

    4. Definieren Sie den Port.

      dscontrol port add xebec:80

    5. Definieren Sie die Server.
      1. dscontrol server add xebec:80:ServerA
      2. dscontrol server add xebec:80:ServerB
      3. dscontrol server add xebec:80:ServerC
      4. dscontrol server add xebec:80:LB2 router Router1
      5. dscontrol server add xebec:80:LB3 router Router1
    6. Konfigurieren Sie die Clusteradresse.

      dscontrol executor configure xebec

    An der Konsole des zweiten Dispatchers (LB2):

    1. Starten Sie den Executor.

      dscontrol executor start

    2. Definieren Sie die NFA der Dispatcher-Maschine.

      dscontrol executor set nfa LB2

    3. Definieren Sie den Cluster.

      dscontrol cluster add xebec

    4. Definieren Sie den Port.

      dscontrol port add xebec:80

    5. Definieren Sie die Server.
      1. dscontrol server add xebec:80:ServerD
      2. dscontrol server add xebec:80:ServerE
      3. dscontrol server add xebec:80:ServerF

    An der Konsole des dritten Dispatchers (LB3):

    1. Starten Sie den Executor.

      dscontrol executor start

    2. Definieren Sie die NFA der Dispatcher-Maschine.

      dscontrol executor set nfa LB3

    3. Definieren Sie den Cluster.

      dscontrol cluster add xebec

    4. Definieren Sie den Port.

      dscontrol port add xebec:80

    5. Definieren Sie die Server.
      1. dscontrol server add xebec:80:ServerG
      2. dscontrol server add xebec:80:ServerH
      3. dscontrol server add xebec:80:ServerI

    Anmerkungen

    1. Geben Sie auf den Loopback-Einheiten aller Servern (A-I) einen Aliasnamen für die Clusteradresse an.
    2. Cluster und Ports werden mit dscontrol auf allen beteiligten Dispatcher-Maschinen hinzugefügt. Dies gilt für den Dispatcher, der als Eingangspunkt definiert ist, und für alle fernen Dispatcher.
    3. Der Abschnitt Ferne Advisor-Funktionen mit der Dispatcher-WAN-Unterstützung verwenden enthält Informationen zur Verwendung ferner Advisor-Funktionen mit Weitverkehrsunterstützung.
    4. Die Weitverkehrsunterstützung verbietet unendliche Routenschleifen. (Wenn eine Dispatcher-Maschine ein Paket von einem anderen Dispatcher empfängt, wird das Paket nicht an einen dritten Dispatcher weitergeleitet.) Mit der Weitverkehrsunterstützung wird nur eine Ebene von fernen Dispatchern unterstützt.
    5. Die Weitverkehrsunterstützung impliziert Unterstützung für UDP und TCP.
    6. Die Weitverkehrsunterstützung kann zusammen mit der Funktion für hohe Verfügbarkeit verwendet werden. Jedem Dispatcher kann eine benachbarte Bereitschaftsmaschine (im selben LAN-Segment) zugeordnet werden.
    7. Der Manager und die Advisor-Funktionen können zusammen mit der Weitverkehrsunterstützung verwendet werden. In diesem Fall sollten sie auf allen beteiligten Dispatcher-Maschinen gestartet werden.
    8. Load Balancer unterstützt WAN nur bei vergleichbaren Betriebssystemen.

    Unterstützung für GRE (Generic Routing Encapsulation)

    Generic Routing Encapsulation (GRE) ist ein Internetprotokoll, das in RFC 1701 und RFC 1702 spezifiziert ist. Bei Verwendung von GRE kann Load Balancer Client-IP-Pakete in IP/GRE-Pakete integrieren und an Serverplattformen mit GRE-Unterstützung wie OS/390 weiterleiten. Mit der GRE-Unterstützung kann die Komponente Dispatcher die Arbeitslast von Paketen auf mehrere Serveradressen verteilen, die einer MAC-Adresse zugeordnet sind.

    Load Balancer implementiert GRE im Rahmen der WAN-Funktion. Auf diese Weise stellt Load Balancer WAN-Lastausgleich direkt für alle Serversysteme zur Verfügung, die GRE-Pakete entpacken können. Load Balancer muss nicht auf einem fernen System installiert sein, wenn die fernen Server eingebundene GRE-Pakete unterstützen. Load Balancer integriert WAN-Pakete, deren GRE-Feld auf den Dezimalwert 3735928559 gesetzt ist.

    Abbildung 38. WAN-Beispielkonfiguration mit einer Serverplattform, die GRE unterstützt

    WAN-Konfiguration mit einer Serverplattform, die GRE unterstützt

    Wenn Sie für dieses Beispiel (Abbildung 38) einen fernen ServerD mit GRE-Unterstützung hinzufügen möchten, müssen Sie ihn in Ihrer Load-Balancer-Konfiguration definieren, wie Sie einen WAN-Server in der Hierarchie Cluster:Port:Server definieren würden:

    dscontrol server add Cluster:Port:ServerD router Router1

    GRE für WAN auf Linux-Systemen konfigurieren

    Linux-Systeme haben native GRE-Fähigkeiten, so dass Load Balancer für Serverimages von Linux für S/390 einen Lastausgleich durchführen kann, wenn mehrere Serverimages eine MAC-Adresse gemeinsam benutzen. Der Eingangspunkt-Load-Balancer kann somit die Last direkt auf Linux-WAN-Server verteilen und ist nicht auf einen Load Balancer am fernen Standort angewiesen. Die Advisor-Funktionen des Eingangspunkt-Load-Balancer können ebenfalls direkt mit jedem der fernen Server zusammenarbeiten.

    Erstellen Sie auf dem Eingangspunkt-Load-Balancer wie beschrieben eine Konfiguration für WAN.

    Zum Konfigurieren der einzelnen Linux-Back-End-Server müssen Sie als Root die folgenden Befehle absetzen. (Diese Befehle können zum Tool für Systemstart hinzugefügt werden, so dass die Änderungen für alle folgenden Bootvorgänge erhalten bleiben.)

    # modprobe ip_gre
    # ip tunnel add gre-nd mode gre ikey 3735928559 
    # ip link set gre-nd up
    # ip addr add Clusteradresse dev gre-nd
     
    
    Anmerkung:
    Der mit diesen Anweisungen konfigurierte Linux-Server darf sich nicht in demselben physischen Segment wie der Eingangspunkt-Load-Balancer befinden. Dies liegt daran, dass der Linux-Server auf Anfragen nach der Clusteradresse ("ARP who-has") antwortet, was zu einer Konkurrenzbedingung und damit zu einem möglichen "Kurzschluss" führt, so dass der gesamte an die Clusteradresse gerichtete Verkehr nur zum Gewinner der ARP-Konkurrenz übertragen wird.

    Explizite Verbindungen benutzen

    Normalerweise sind die Lastausgleichsfunktionen des Dispatchers unabhängig vom Inhalt der Sites, auf denen das Produkt benutzt wird. In einem bestimmten Bereich kann der Inhalt der Site jedoch von Bedeutung sein und können Entscheidungen über den Inhalt erhebliche Auswirkungen auf die Effektivität des Dispatchers haben. Dies ist der Bereich der Verbindungsadressierung.

    Wenn Ihre Seiten Links enthalten, die auf einzelne Server für Ihre Site zeigen, zwingen Sie einen Client, auf eine bestimmte Maschine zuzugreifen und so die sonst wirksame Lastausgleichsfunktion zu umgehen. Benutzen Sie aus diesem Grund für alle Links Ihrer Seiten immer die Adresse des Dispatchers. Berücksichtigen Sie, dass die Art der verwendeten Adressierung nicht immer offensichtlich ist, wenn Ihre Site eine automatisierte Programmierung benutzt, bei der HTML dynamisch erstellt wird. Um den Lastausgleich zu optimieren, sollten Sie auf alle expliziten Adressierungen achten und sie, falls möglich, vermeiden.


    Konfiguration für ein privates Netz verwenden

    Sie können den Dispatcher und die TCP-Servermaschinen für ein privates Netz konfigurieren. Durch diese Konfiguration können Konkurrenzsituationen im öffentlichen oder externen Netz, die sich auf die Leistung auswirken, verringert werden.

    Auf AIX-Systemen hat diese Konfiguration auch den Vorteil, dass der schnelle SP High Performance Switch genutzt werden kann, wenn der Dispatcher und die TCP-Servermaschinen auf Knoten in einem SP Frame ausgeführt werden.

    Zum Einrichten eines privaten Netzes muss jede Maschine mindestens zwei LAN-Karten enthalten, von denen eine mit dem privaten Netz verbunden ist. Die zweite LAN-Karte muss für ein anderes Teilnetz konfiguriert werden, damit die Dispatcher-Maschine die Clientanforderungen über das private Netz an die TCP-Servermaschinen sendet.

    Windows-Systeme: Konfigurieren Sie die NFA (nicht für Weiterleitung bestimmte Adresse) mit dem Befehl "executor configure".

    Die über den Befehl dscontrol server add hinzugefügten Server müssen mit den Adressen des privaten Netzes hinzugefügt werden. Für das Beispiel in Abbildung 39 müsste der Befehl für den Server "Apple" wie folgt codiert sein:

    dscontrol server add Clusteradresse:80:10.0.0.1

    Er darf nicht wie folgt aussehen:

    dscontrol server add Clusteradresse:80:9.67.131.18

    Wenn Sie mit Site Selector Lastinformationen für den Dispatcher bereitstellen, muss Site Selector so konfiguriert werden, dass die Last an den privaten Adressen gemeldet wird.

    Abbildung 39. Beispiel für ein privates Netz mit dem Dispatcher

    Privates Netz

    Die Verwendung der Konfiguration für ein privates Netz gilt nur für die Komponente Dispatcher.


    Platzhaltercluster zum Zusammenfassen von Serverkonfigurationen verwenden

    Die Verwendung eines Platzhalterclusters für die Zusammenfassung von Serverkonfigurationen gilt nur für die Komponente Dispatcher.

    Das Wort "Platzhalter" bezieht sich auf die Fähigkeit des Clusters, mit mehreren IP-Adressen übereinzustimmen. Die Clusteradresse 0.0.0.0 wird verwendet, um einen Platzhaltercluster anzugeben.

    Wenn Sie für viele Clusteradressen einen Lastausgleich durchführen müssen und die Port/Server-Konfigurationen für alle Cluster identisch sind, können Sie die Cluster in einer Platzhalterclusterkonfiguration zusammenfassen.

    Sie müssen dennoch jede Clusteradresse explizit für einen der Netzwerkadapter Ihrer Dispatcher-Workstation konfigurieren. Sie sollten jedoch keine der Clusteradressen mit dem Befehl "dscontrol cluster add" der Dispatcher-Konfiguration hinzufügen.

    Fügen Sie nur den Platzhaltercluster (Adresse 0.0.0.0) hinzu, und konfigurieren Sie die Ports und Server wie für den Lastausgleich erforderlich. Für den Datenverkehr an jede der auf dem Adapter konfigurierten Adressen erfolgt ein Lastausgleich unter Verwendung der Platzhalterclusterkonfiguration.

    Ein Vorteil dieser Methode besteht darin, dass der Datenverkehr an alle Clusteradressen bei der Bestimmung des besten Servers berücksichtigt wird. Ist der Datenverkehr bei einem Cluster besonders hoch und hat der Cluster viele aktive Verbindungen auf einem der Server erstellt, findet für den Datenverkehr an andere Clusteradressen ein Lastausgleich unter Verwendung dieser Informationen statt.

    Sie können den Platzhaltercluster mit tatsächlichen Clustern kombinieren, wenn Sie einige Clusteradressen mit eindeutiger Port/Server-Konfiguration und einige Clusteradressen mit gemeinsamer Konfigurationen haben. Die eindeutigen Konfigurationen müssen jeweils einer tatsächlichen Clusteradresse zugeordnet werden. Alle gemeinsamen Konfigurationen können dem Platzhaltercluster zugeordnet werden.


    Platzhaltercluster für den Lastausgleich von Firewalls verwenden

    Die Verwendung eines Platzhalterclusters für den Lastausgleich von Firewalls gilt nur für die Komponente Dispatcher. Die Clusteradresse 0.0.0.0 wird verwendet, um einen Platzhaltercluster anzugeben.

    Der Platzhaltercluster kann für den Lastausgleich von Datenverkehr an Adressen verwendet werden, die nicht explizit für einen Netzwerkadapter der Dispatcher-Workstation konfiguriert sind. Dazu muss der Dispatcher mindestens den gesamten Datenverkehr sehen können, für den ein Lastausgleich erfolgen soll. Die Dispatcher-Workstation erkennt keinen Datenverkehr an Adressen, die nicht explizit für einen ihrer Netzwerkadapter konfiguriert wurden. Eine Ausnahme hiervon bilden Adressen, die für bestimmten Datenverkehr als Standardroute konfiguriert sind.

    Wurde der Dispatcher als Standardroute konfiguriert, erfolgt der Lastausgleich für den TCP- oder UDP-Datenverkehr, der über die Dispatcher-Maschine transportiert wird, unter Verwendung der Platzhalterclusterkonfiguration.

    Diese Methode kann für den Lastausgleich von Firewalls verwendet werden. Da Firewalls Pakete für jede Zieladresse und jeden Zielport verarbeiten können, müssen Sie den Lastausgleich für den Datenverkehr unabhängig von der Zieladresse und dem Zielport durchführen können.

    Firewalls werden für die Bearbeitung des Datenverkehrs von nicht gesicherten Clients zu gesicherten Servern und die Antworten von den gesicherten Servern sowie den Datenverkehr von Clients auf der gesicherten Seite zu Servern auf der nicht gesicherten Seite mit den entsprechenden Antworten verwendet.

    Sie müssen zwei Dispatcher-Maschinen konfigurieren, eine für die Verteilung des nicht gesicherten Datenverkehrs an die nicht gesicherten Firewall-Adressen und eine für die Verteilung des gesicherten Datenverkehrs an die gesicherten Firewall-Adressen. Da beide Dispatcher den Platzhaltercluster und den Platzhalterport mit verschiedenen Gruppen von Serveradressen verwenden müssen, ist es erforderlich, dass sich die beiden Dispatcher auf zwei separaten Workstations befinden.


    Platzhaltercluster mit Caching Proxy für transparente Weiterleitung verwenden

    Die Verwendung eines Platzhalterclusters mit Caching Proxy für transparente Weiterleitung ist nur für die Komponente Dispatcher. Die Clusteradresse 0.0.0.0 wird verwendet, um einen Platzhaltercluster anzugeben.

    Bei Verwendung der Platzhalterclusterfunktion kann der Dispatcher eine transparente Proxy-Funktion für einen Caching-Proxy-Server aktivieren, der sich auf derselben Maschine wie der Dispatcher befindet. Dies ist nur eine AIX-Funktion, da zwischen der Komponente Dispatcher und der TCP-Komponente des Betriebssystems eine Kommunikation stattfinden muss.

    Zum Aktivieren dieses Features müssen Sie Caching Proxy für den Empfang von Clientanforderungen am Port 80 starten. Anschließend konfigurieren Sie einen Platzhaltercluster (0.0.0.0). Konfigurieren Sie im Platzhaltercluster den Port 80. Für Port 80 konfigurieren Sie die NFA der Dispatcher-Maschine als einzigen Server. Der gesamte Clientdatenverkehr an Adressen des Ports 80 wird nun an den Caching-Proxy-Server auf der Dispatcher-Workstation gesendet. Anschließend wird die Clientanforderung wie üblich weitergeleitet. Die Antwort wird von Caching Proxy an den Client zurückgesendet. In diesem Modus führt die Komponente Dispatcher keinen Lastausgleich durch.


    Platzhalterport für die Übertragung von Datenverkehr mit nicht konfiguriertem Port verwenden

    Der Platzhalterport kann für Datenverkehr verwendet werden, der nicht für einen explizit konfigurierten Port bestimmt ist. Eine solche Verwendung wäre der Lastausgleich für Firewalls. Zum anderen kann mit einem Platzhalterport sichergestellt werden, dass an einen nicht konfigurierten Port gerichteter Datenverkehr entsprechend bearbeitet wird. Durch Definieren eines Platzhalterports ohne Server stellen Sie sicher, dass alle Anforderungen an einen nicht konfigurierten Port gelöscht und nicht an das Betriebssystem zurückgesendet werden. Ein Platzhalterport wird mit der Portnummer 0 (null) angegeben. Beispiel:

    dscontrol port add Cluster:0
    

    Platzhalterport für FTP-Datenverkehr verwenden

    Wenn Sie einen Cluster für passives FTP und den Platzhalterport konfigurieren, verwendet das passive FTP für Datenverbindungen standardmäßig den gesamten Bereich der nicht reservierten TCP-Ports. Für einen Client, der über einen Lastausgleichscluster eine Datenverbindung zu einem FTP-Steuerport aufgebaut hat, bedeutet dies, dass Load Balancer nachfolgende Steuerverbindungen zu diesem Cluster und Verbindungen zu Ports mit höheren Nummern als 1023 in diesem Cluster automatisch an denselben Server weiterleitet wie die FTP-Steuerverbindung.

    Wenn für den Platzhalterport und den FTP-Port in einem Cluster nicht derselbe Server definiert ist, können Anwendungen an Ports mit hohen Nummern (höher als 1023) scheitern, wenn ein Client bereits eine FTP-Steuerverbindung hat. Das Definieren verschiedener Servergruppen für den FTP-Port und den Platzhalterport in einem Cluster wird daher nicht empfohlen. Falls ein solches Szenario gewünscht wird, muss in der Konfiguration von Load Balancer der Bereich passiver Ports für den FTP-Dämon festgelegt werden.


    Erkennung von DoS-Attacken

    Diese Funktion ist nur für die Komponente Dispatcher verfügbar.

    Der Dispatcher ist in der Lage, potenzielle DoS-Attacken zu erkennen und Administratoren durch einen Alert zu benachrichtigen. Dazu analysiert der Dispatcher eingehende Anforderungen auf eine verdächtige Anzahl halboffener TCP-Verbindungen von Servern, die ein allgemeines Kennzeichen einfacher DoS-Attacken sind. Bei einer DoS-Attacke empfängt eine Site eine große Anzahl fabrizierter SYN-Pakete von einer Vielzahl von Quellen-IP-Adressen und Quellenportnummern. Folgepakete für diese TCP-Verbindungen werden jedoch nicht empfangen. Dies führt zu einer großen Anzahl halboffener TCP-Verbindungen auf den Servern, so dass diese mit der Zeit sehr langsam werden und keine neuen ankommenden Verbindungen mehr akzeptieren können.

    Anmerkung:
    Erst wenn über den attackierten Cluster und Port wieder Datenverkehr empfangen wird, kann der Dispatcher feststellen, dass eine DoS-Attacke beendet ist. Solange der Datenverkehr nicht erneut fließt, kann der Dispatcher das Ende der Attacke nicht erkennen.

    Load Balancer stellt Benutzer-Exits bereit, die Scripts aufrufen. Diese Scripts können so angepasst werden, dass der Administrator per Alert von einer möglichen DoS-Attacke informiert wird. Dispatcher stellt im Verzeichnis ...ibm/edge/lb/servers/samples das folgende Beispielscript bereit:

    Zum Ausführen der Dateien müssen Sie sie in das Verzeichnis ...ibm/edge/lb/servers/bin verschieben und die Erweiterung .sample löschen.

    Zum Implementieren der Erkennung von DoS-Attacken müssen Sie wie folgt den Parameter maxhalfopen des Befehls dscontrol port setzen:

    dscontrol port set 127.40.56.1:80 maxhalfopen 1000

    Im obigen Beispiel vergleicht der Dispatcher die aktuelle Gesamtanzahl halboffener Verbindungen (für alle Server des Clusters 127.40.56.1 am Port 80) mit dem Schwellenwert 1000 (der vom Parameter "maxhalfopen" angegeben ist). Übersteigt die Anzahl der aktuellen halboffenen Verbindungen den Schwellenwert, wird ein Alert-Script (halfOpenAlert) aufgerufen. Fällt die Anzahl halboffener Verbindungen unter den Schwellenwert, wird ein anderes Alert-Script aufgerufen, um das Ende der Attacke anzuzeigen.

    Bestimmen Sie wie folgt den Wert, den Sie für maxhalfopen definieren sollten: Wenn auf Ihrer Site ein mäßiger bis starker Datenverkehr zu verzeichnen ist, erstellen Sie in regelmäßigen Abständen (vielleicht alle 10 Minuten) mit dscontrol port halfopenaddressreport Cluster:Port einen Bericht zu halboffenen Verbindungen. Der Bericht gibt die aktuelle Gesamtanzahl der empfangenen halboffenen Verbindungen an. Setzen Sie maxhalfopen auf einen Wert, der 50 bis 200 % über der höchsten Anzahl halboffener Verbindungen liegt, die auf Ihrer Site aufgetreten sind.

    Neben statistischen Daten generiert halfopenaddressreport für alle Clientadressen (maximal 8000 Adresspaare), deren Serverzugriff halboffene Verbindungen zur Folge hatten, Einträge im Protokoll (..ibm/edge/lb/servers/logs/dispatcher/halfOpen.log).

    Anmerkung:
    Es gibt SNMP-Alarmnachrichten, die den Scripts halfOpenAlert und halfOpenAlertDone entsprechen. Wenn der SNMP-Subagent konfiguriert und aktiv ist, werden unter den Bedingungen, die die Scripts aufrufen, die entsprechenden Alarmnachrichten gesendet. Weitere Informationen zum SNMP-Subagenten finden Sie im Abschnitt Simple Network Management Protocol mit Dispatcher verwenden.

    Back-End-Server können Sie zusätzlich vor DoS-Attacken schützen, indem Sie Platzhaltercluster und -ports konfigurieren. Fügen Sie unter jedem konfigurierten Cluster einen Platzhalterport ohne Server hinzu. Fügen Sie außerdem einen Platzhaltercluster mit einem Platzhalterport und ohne Server hinzu. Dies hat zur Folge, dass alle Pakete, die an einen Platzhaltercluster oder -port gesendet werden, gelöscht werden. Informationen zu Platzhalterclustern und -ports finden Sie in den Abschnitten Platzhaltercluster zum Zusammenfassen von Serverkonfigurationen verwenden und Platzhalterport für die Übertragung von Datenverkehr mit nicht konfiguriertem Port verwenden.


    Binäre Protokolle für die Analyse von Serverstatistiken verwenden

    Anmerkung:
    Das Feature für binäre Protokollierung ist für die Komponenten Dispatcher und CBR verfügbar.

    Mit dem Feature für Binärprotokollierung können Serverinformationen in Binärdateien gespeichert werden. Diese Dateien können dann verarbeitet werden, um die Serverinformationen zu analysieren, die über einen bestimmten Zeitraum gesammelt wurden.

    Die folgenden Informationen werden für jeden in der Konfiguration definierten Server in dem binären Protokoll gespeichert:

    Einige dieser Informationen werden im Rahmen des Managerzyklus vom Executor abgerufen. Der Manager muss daher aktiv sein, damit die Informationen in den binären Protokollen aufgezeichnet werden können.

    Verwenden Sie den Befehlssatz dscontrol binlog, um das binäre Protokollieren zu konfigurieren.

    Mit der Option "start" wird die Protokollierung von Serverinformationen in binären Protokollen im Protokollverzeichnis gestartet. Ein Protokoll wird zu Beginn jeder Stunde mit dem Datum und der Uhrzeit als Name der Datei erstellt.

    Mit der Option "stop" wird die Protokollierung von Serverinformationen in binären Protokollen gestoppt. Standardmäßig ist der Protokolldienst gestoppt.

    Mit der Option "set interval" wird gesteuert, wie oft Informationen in die Protokolle geschrieben werden. Der Manager sendet in jedem Managerintervall Serverdaten an den Protokollserver. Die Daten werden nur in die Protokolle geschrieben, wenn seit dem Schreiben des letzten Protokolleintrags die für das Protokollintervall angegebene Zeit in Sekunden verstrichen ist. Standardmäßig wird das Protokollierungsintervall auf 60 Sekunden gesetzt. Zwischen den Einstellungen für das Managerintervall und das Protokollierungsintervall gibt es eine gewisse Interaktion. Da dem Protokollserver Informationen nicht schneller zur Verfügung gestellt werden, als dies im Managerintervall (in Sekunden) angegeben ist, wird durch Angabe eines Protokollierungsintervalls, das kleiner als das Managerintervall ist, das Protokollierungsintervall de facto auf denselben Wert wie das Managerintervall gesetzt. Mit dieser Protokollierungstechnik können Sie Serverinformationen detaillierter erfassen. Sie können alle vom Manager festgestellten Änderungen der Serverinformationen für die Berechnung von Serverwertigkeiten erfassen. Dieser Informationsumfang ist jedoch wahrscheinlich nicht erforderlich, um die Serverauslastung und Trends zu analysieren. Werden Serverinformationen alle 60 Sekunden protokolliert, erhalten Sie Momentaufnahmen von Serverinformationen in Abhängigkeit vom zeitlichen Verlauf. Wird das Protokollierungsintervall auf einen sehr niedrigen Wert gesetzt, kann dies zu großen Datenmengen führen.

    Mit der Option "set retention" wird gesteuert, wie lange Protokolldateien aufbewahrt werden. Protokolldateien, die älter als die angegebene Verweildauer (Stunden) sind, werden von dem Protokollserver gelöscht. Dies geschieht nur, wenn der Protokollserver von dem Manager aufgerufen wird, d. h., wird der Manager gestoppt, werden alte Protokolldateien nicht gelöscht.

    Mit der Option "status" werden die aktuellen Einstellungen des Protokolldienstes zurückgegeben. Diese Einstellungen geben an, ob der Service gestartet ist und welche Werte für das Intervall und die Verweildauer angegeben sind.

    Im Verzeichnis ...ibm/edge/lb/servers/samples/BinaryLog stehen ein Beispiel-Java-Programm und eine Beispielbefehlsdatei zur Verfügung. Dieses Beispiel zeigt, wie alle Informationen aus den Protokolldateien abgerufen und angezeigt werden können. Es kann für jede Art von Datenanalyse angepasst werden. Beispiel unter Verwendung des bereitgestellten Scripts und Programms für Dispatcher:

    dslogreport 2001/05/01 8:00 2001/05/01 17:00
    

    Dieser Befehl liefert einen Bericht mit den Serverdaten der Komponente Dispatcher vom 1. Mai 2001 in der Zeit von 8.00 Uhr bis 17.00 Uhr. (Verwenden Sie für CBR cbrlogreport.)


    Verknüpften Client verwenden

    Konfigurationen mit einem Client auf derselben Maschine wie Load Balancer werden nur auf Linux-Systemen unterstützt.

    Konfigurationen mit verknüpftem Client funktionieren auf anderen Plattformen möglicherweise nicht ordnungsgemäß, weil Load Balancer die ankommenden Pakete unter den vielen unterstützten Betriebssystemen mit verschiedenen Techniken untersucht. In den meisten Fällen empfängt Load Balancer nur unter Linux Pakete von der lokalen Maschine. Unter anderen Betriebssystemen werden nur die Pakete aus dem Netz empfangen. Aus diesem Grund empfängt Load Balancer keine Anforderungen, die von der lokalen Maschine an die Clusteradresse gesendet werden, und kann diese nicht erfüllen.


    Erweiterte Features für Cisco CSS Controller und Nortel Alteon Controller

    Dieses Kapitel enthält die folgenden Abschnitte:

    Anmerkung:
    In diesem Kapitel steht xxxcontrol für ccocontrol für Cisco CSS Controller und nalcontrol für Nortel Alteon Controller.

    Kollokation

    Cisco CSS Controller oder Nortel Alteon Controller kann sich auf derselben Maschine befinden wie ein Server, dessen Anforderungen verteilt werden. Dies wird als das Verknüpfen eines Servers bezeichnet. Es sind keine zusätzlichen Konfigurationsschritte erforderlich.

    Anmerkung:
    In Zeiten hohen Datenverkehrs konkurriert ein verknüpfter Server mit Load Balancer um Ressourcen. Sind jedoch keine überlasteten Maschinen vorhanden, kann mit einem verknüpften Server die Gesamtzahl der Maschinen reduziert werden, die für das Einrichten eines Standortes mit Lastausgleich erforderlich sind.

    Hohe Verfügbarkeit

    Die Funktion der hohen Verfügbarkeit ist jetzt für Cisco CSS Controller und Nortel Alteon Controller verfügbar.

    Zur Verbesserung der Fehlertoleranz des Controllers stellt die Funktion für hohe Verfügbarkeit Folgendes bereit:

    Konfiguration

    Die vollständige Syntax des Befehls xxxcontrol highavailability können Sie den Abschnitten ccocontrol highavailability -- Hohe Verfügbarkeit steuern und nalcontrol highavailability -- Hohe Verfügbarkeit steuern entnehmen.

    Gehen Sie wie folgt vor, um die hohe Verfügbarkeit für den Controller zu konfigurieren:

    1. Starten Sie auf beiden Controllermaschinen den Controllerserver.
    2. Konfigurieren Sie alle Controller identisch.
    3. Konfigurieren Sie für den lokalen Controller wie folgt die Rolle für hohe Verfügbarkeit, die Adresse und die Partneradresse:
      xxxcontrol highavailability add address 10.10.10.10 
      partneraddress 10.10.10.20 Port 143 role primary
      
    4. Konfigurieren Sie für den Partnercontroller wie folgt die Rolle für hohe Verfügbarkeit, die Adresse und die Partneradresse:
      xxxcontrol highavailability add address 10.10.10.20 
      partneraddress 10.10.10.10 port 143 role secondary
      

      Die Parameter "address" und "partneraddress" sind auf der primären und der sekundären Maschine jeweils ausgetauscht.

    5. Konfigurieren Sie optional auf dem lokalen und dem Partnercontroller Parameter für hohe Verfügbarkeit. Beispiel:
      xxxcontrol highavailability set beatinterval 1000
      
    6. Konfigurieren Sie bei Bedarf wie folgt Erreichbarkeitsziele auf dem lokalen und dem Partnercontroller:
      xxxcontrol highavailability usereach 10.20.20.20
      

      Auf dem lokalen und dem Partnercontroller muss dieselbe Anzahl von Erreichbarkeitszielen konfiguriert werden.

    7. Starten Sie die Komponente mit hoher Verfügbarkeit, und definieren Sie auf dem lokalen und dem Partnercontroller wie folgt eine Wiederherstellungsstrategie:
      xxxcontrol highavailability start auto
      
    8. Optional können Sie auf dem lokalen und Partnercontroller wie folgt Informationen zur hohen Verfügbarkeit anzeigen:
      xxxcontrol highavailability report
      
    9. Geben Sie optional auf dem Bereitschaftscontroller wie folgt takeover an, wenn dieser die Aufgaben des aktiven Controllers übernehmen soll:
      xxxcontrol highavailability takeover
      

      Dies ist nur für Wartungszwecke erforderlich.

    Anmerkungen:

    1. Wenn Sie einen Controller ohne hohe Verfügbarkeit konfigurieren möchten, setzen Sie keine Befehle zur hohen Verfügbarkeit ab.

    2. Falls Sie eine Konfiguration mit hoher Verfügbarkeit, die zwei Controller umfasst, in eine Konfiguration mit nur einem Controller ändern möchten, stoppen Sie zunächst auf dem Bereitschaftscontroller die hohe Verfügbarkeit. Bei Bedarf können Sie dann auch auf dem aktiven Controller die hohe Verfügbarkeit stoppen.

    3. In einer Konfiguration mit hoher Verfügbarkeit, die zwei Controller umfasst, kann es zu unerwarteten Ergebnissen kommen, wenn die Controllereigenschaften (z. B. switchconsultantid, switch address usw.) auf den Switches nicht übereinstimmen. Unerwartete Ergebnisse können sich auch einstellen, wenn die Controllereigenschaften für hohe Verfügbarkeit nicht identisch sind, z. B. port, role, reach targets, beatinterval, takeoverinterval und recovery strategy.

    Ausfallerkennung

    Neben dem Verlust der Konnektivität zwischen aktivem Controller und Bereitschaftscontroller, der durch die Überwachungssignale festgestellt wird, kann jetzt auch die Erreichbarkeit erkannt werden.

    Wenn Sie die hohe Verfügbarkeit für Controller konfigurieren, können Sie eine Liste von Hosts angeben, die für jeden der Controller erreichbar sein müssen. Für jedes Teilnetz, das Ihre Controllermaschine benutzt, muss mindestens ein Host angegeben sein. Die Hosts können Router, IP-Server oder andere Arten von Hosts sein.

    Die Erreichbarkeit von Hosts wird über Ping-Aufrufe der Advisor-Funktion reach abgefragt. Es findet eine Übernahme statt, wenn keine Überwachungssignalnachrichten durchkommen oder wenn die Erreichbarkeitskriterien eher vom Bereitschaftscontroller als vom primären Controller erfüllt werden. Damit die Entscheidung anhand aller verfügbaren Informationen getroffen wird, tauschen der aktive Controller und der Bereitschaftscontroller regelmäßig Informationen über ihre Erreichbarkeit aus. Die Controller vergleichen dann ihre Erreichbarkeitsdaten mit denen des Partners und entscheiden, welcher Controller der aktive Controller sein soll.

    Wiederherstellungsstrategie

    Die beiden Controllermaschinen werden nach ihrer Rolle als primärer und sekundärer Controller konfiguriert. Beim Systemstart tauschen die Controller Informationen aus, bis beide Maschinen synchronisiert sind. Anschließend wechselt der primäre Controller in den aktiven Status und beginnt mit der Berechnung von Wertigkeiten und dem Aktualisieren des Switch. Die sekundäre Maschine wechselt in den Bereitschaftsstatus und überwacht die Verfügbarkeit der primären Maschine.

    Stellt die Bereitschaftsmaschine an einem beliebigen Punkt fest, dass die aktive Maschine ausgefallen ist, übernimmt sie die Lastausgleichsfunktionen der (ausgefallenen) aktiven Maschine und wird selbst zur aktiven Maschine. Ist die primäre Maschine wieder betriebsbereit, ermitteln die beiden Maschinen anhand der konfigurierten Wiederherstellungsstrategie, welcher Controller der aktive Controller sein soll.

    Es gibt zwei Arten von Wiederherstellungsstrategien:

    Automatische Wiederherstellung

    Sobald der primäre Controller wieder betriebsbereit ist, wechselt er in den aktiven Status, berechnet und aktualisiert Wertigkeiten etc. Die sekundäre Maschine wechselt in den Bereitschaftsstatus, wenn die primäre Maschine wieder aktiv ist.

    Manuelle Wiederherstellung

    Der aktive sekundäre Controller bleibt aktiv, wenn der primäre Controller wieder betriebsbereit ist.

    Der primäre Controller wechselt in den Bereitschaftsstatus und kann nur manuell in den aktiven Status versetzt werden.

    Der Parameter für die Strategie muss für beide Maschinen auf denselben Wert gesetzt werden.

    Beispiele

    Konfigurationsbeispiele für die hohe Verfügbarkeit von Cisco CSS Controller finden Sie im Abschnitt Beispiele.

    Konfigurationsbeispiele für die hohe Verfügbarkeit von Nortel Alteon Controller finden Sie im Abschnitt Beispiele.


    Lastausgleich mit Load Balancer optimieren

    Die Controllerfunktion von Load Balancer führt den Lastausgleich ausgehend von den folgenden Einstellungen durch:

    Zur Optimierung des Lastausgleichs für Ihr Netz können Sie diese Einstellungen ändern.

    Bedeutung von Metriken

    Der Controller kann in seine Gewichtungsentscheidung alle oder einige der nachfolgend genannten summierten Metriken einfließen lassen:

    Die Standardmetriken sind activeconn und connrate.

    Sie können die relative Gewichtung der Metriken ändern. Die Proportionen sind vergleichbar mit Prozentsätzen. Die Summe der relativen Proportionen muss 100 % ergeben. Standardmäßig werden die Metriken "Aktive Verbindungen" und "Neue Verbindungen" in der Gewichtung 50:50 verwendet. In Ihrer Umgebung sollten Sie andere Metrikproportionen ausprobieren, um die Kombination mit der besten Leistung zu finden.

    Gehen Sie wie folgt vor, um die Proportionswerte festzulegen:

    Für Cisco CSS Controller
    ccocontrol ownercontent metrics Metrikname1 Proportion1 Metrikname2 Proportion2

    Für Nortel Alteon Controller
    nalcontrol service metrics Metrikname1 Proportion1 Metrikname2 Proportion2

    Wertigkeiten

    Die Wertigkeiten werden ausgehend von Reaktionszeit und Verfügbarkeit der Anwendung, vom Feedback der Advisor-Funktionen und vom Feedback eines Systemüberwachungsprogramms wie Metric Server festgelegt. Falls Sie Wertigkeiten manuell festlegen möchten, geben Sie für den Server die Option "fixedweight" an. Eine Beschreibung der Option "fixedweight" finden Sie im Abschnitt Feste Wertigkeiten des Controllers.

    Wertigkeiten gelten für alle Server, die einen Service anbieten. Für jeden einzelnen Service werden die Anforderungen entsprechend ihrer relativen Wertigkeit auf die Server verteilt. Hat beispielsweise ein Server die Wertigkeit 10 und der andere Server die Wertigkeit 5, erhält der Server mit der Wertigkeit 10 doppelt so viele Anforderungen wie der Server mit der Wertigkeit 5.

    Stellt eine Advisor-Funktion fest, dass ein Server heruntergefahren wurde, wird seine Wertigkeit auf -1 gesetzt. Für Cisco CSS Controller and Nortel Alteon Controller: Der Switch wird informiert, dass der Server nicht verfügbar ist, und hört auf, dem Server Verbindungen zuzuordnen.

    Feste Wertigkeiten des Controllers

    Ohne den Controller können Advisor-Funktionen nicht ausgeführt werden und nicht erkennen, ob ein Server inaktiv ist. Wenn Sie die Advisor-Funktionen ausführen möchten, der Controller jedoch nicht die von Ihnen für einen bestimmten Server festgelegte Wertigkeit aktualisieren soll, verwenden Sie für Cisco CSS Controller den Befehl ccocontrol service und für Nortel Alteon Controller den Befehl nalcontrol server mit der Option fixedweight.

    Mit dem Befehl fixedweight können Sie die Wertigkeit auf den gewünschten Wert setzen. Der Wert für die Serverwertigkeit bleibt während der Ausführung des Controllers unverändert erhalten, bis Sie einen weiteren Befehl absetzen, bei dem "fixedweight" auf "no" gesetzt ist.

    Ruhezeiten für Wertigkeitsberechnung

    Zur Optimierung der Gesamtleistung können Sie festlegen, wie oft Metriken zusammengestellt werden sollen.

    Die Consultant-Ruhezeit gibt an, wie oft der Consultant die Serverwertigkeiten aktualisiert. Eine zu kurze Consultant-Ruhezeit kann sich negativ auf den Durchsatz auswirken, da der Consultant den Switch permanent unterbricht. Eine zu lange Consultant-Ruhezeit kann bedeuten, dass der Lastausgleich des Switch nicht auf genauen, auf dem neuesten Stand befindlichen Informationen basiert.

    Eine Consultant-Ruhezeit von 1 Sekunde könnten Sie wie folgt festlegen:

    xxxcontrol consultant set Consultant-ID sleeptime Intervall
    

    Sensitivitätsschwelle

    Zur Optimierung des Lastausgleichs für Ihre Server stehen weitere Methoden zur Verfügung. Im Interesse einer hohen Übertragungsgeschwindigkeit werden die Wertigkeiten der Server nur aktualisiert, wenn sich signifikante Änderungen der Wertigkeit ergeben. Das permanente Aktualisieren der Wertigkeiten bei geringfügigen oder nicht vorhandenen Änderungen des Serverstatus würde zu einem unnötigen Systemaufwand führen. Wenn die prozentuale Änderung der Wertigkeit innerhalb der summierten Wertigkeit für alle Server, die einen Service anbieten, über der Sensitivitätsschwelle liegt, werden die von Load Balancer für die Verteilung der Verbindungen verwendeten Wertigkeiten aktualisiert. Nehmen wir beispielsweise an, die Gesamtwertigkeit ändert sich von 100 % auf 105 %. Die Änderung beträgt also 5 %. Beim standardmäßigen Sensitivitätsschwellenwert von 5 werden die von Load Balancer verwendeten Wertigkeiten nicht aktualisiert, da die prozentuale Änderung nicht über dem Schwellenwert liegt. Ändert sich die Gesamtwertigkeit jedoch von 100 % auf 106 %, werden die Wertigkeiten aktualisiert. Wenn Sie die Consultant-Sensitivitätsschwelle auf einen anderen Wert als den Standardwert setzen möchten, geben Sie den folgenden Befehl ein:

      xxxcontrol consultant set Consultant-ID sensitivity geänderterProzentsatz
    

    In den meisten Fällen müssen Sie diesen Wert nicht ändern.


    Advisor-Funktionen

    Advisor-Funktionen sind Agenten in Load Balancer. Ihr Zweck ist es, den Zustand und die Belastung der Servermaschinen zu beurteilen. Dies erfolgt durch einen proaktiven Austausch mit den Servern, der dem von Clients vergleichbar ist. Advisor-Funktionen können als transportable Clients der Anwendungsserver betrachtet werden.

    Anmerkung:
    Eine detaillierte Liste der Advisor-Funktionen finden Sie im Abschnitt Liste der Advisor-Funktionen.

    Arbeitsweise der Advisor-Funktionen

    Advisor-Funktionen öffnen regelmäßig eine TCP-Verbindung zu jedem Server und senden eine Anforderungsnachricht an den Server. Der Inhalt der Nachricht ist spezifisch für das Protokoll, das auf dem Server ausgeführt wird. Die HTTP-Advisor-Funktion sendet beispielsweise eine HTTP-Anfrage HEAD an den Server.

    Die Advisor-Funktionen warten dann auf den Empfang einer Antwort vom Server. Nach Empfang der Antwort beurteilt die Advisor-Funktion den Server. Um diesen Lastwert zu ermitteln, messen die meisten Advisor-Funktionen die Zeit, bis der Server antwortet, und verwenden dann diesen Wert (in Millisekunden) als Lastwert.

    Die Advisor-Funktionen übergeben dann den Lastwert an die Consultant-Funktion, die ihn im Consultant-Bericht angibt. Der Consultant addiert anschließend die Wertigkeiten für alle Quellen entsprechend ihren Proportionen und sendet diese Werte an den Switch. Der Switch benutzt diese Wertigkeiten dann für den Lastausgleich neuer ankommender Clientverbindungen.

    Stellt die Advisor-Funktion fest, dass ein Server aktiv ist und ordnungsgemäß arbeitet, meldet er einen positiven Lastwert ungleich null an den Consultant. Stellt die Advisor-Funktion fest, dass ein Server inaktiv ist, gibt sie den speziellen Lastwert -1 zurück, um dem Switch mitzuteilen, dass der Server heruntergefahren ist. Der Switch leitet daraufhin keine Verbindungen an diesen Server weiter, solange dieser inaktiv ist.

    Advisor-Ruhezeiten

    Anmerkung:
    Die Advisor-Standardwerte funktionieren in den meisten Fällen effizient. Gehen Sie mit Vorsicht vor, wenn Sie andere Werte als die Standardwerte verwenden.

    Die Advisor-Ruhezeit legt fest, wie oft eine Advisor-Funktion den Status der Server an dem von ihr überwachten Port abfragt und die Ergebnisse dann an den Consultant übergibt. Eine zu kurze Advisor-Ruhezeit kann sich negativ auf den Durchsatz auswirken, da die Advisor-Funktion die Server permanent unterbricht. Eine zu lange Advisor-Ruhezeit kann bedeuten, dass die Gewichtungsentscheidungen des Consultant nicht auf genauen, auf dem neuesten Stand befindlichen Informationen basieren.

    Wenn Sie das Intervall der HTTP-Advisor-Funktion beispielsweise auf 3 Sekunden setzen möchten, geben Sie den folgenden Befehl ein:

    xxxcontrol metriccollector set Consultant-ID:HTTP sleeptime 3
    

    Serververbindungs- und -empfangszeitlimit der Advisor-Funktion

    Sie können festlegen, in welcher Zeit eine Advisor-Funktion feststellen soll, dass ein bestimmter Port auf einem Server oder für einen Service ausgefallen ist. Die Zeitlimits für ausgefallene Server connecttimeout und receivetimeout bestimmen, wie lange eine Advisor-Funktion wartet, bis sie einen gescheiterten Sende- oder Empfangsvorgang meldet.

    Für eine schnellstmögliche Erkennung ausgefallener Server müssen Sie das Verbindungs- und Empfangszeitlimit der Advisor-Funktion auf den kleinsten Wert (eine Sekunde) sowie die Ruhezeit für Advisor-Funktion und Consultant auf den kleinsten Wert (eine Sekunde) setzen.

    Anmerkung:
    Falls das Datenverkehrsaufkommen in Ihrer Umgebung mäßig bis hoch ist und die Reaktionszeit des Servers ansteigt, legen Sie keine zu niedrigen Werte für timeoutconnect und timeoutreceive fest. Andernfalls könnte die Advisor-Funktion einen ausgelasteten Server vorschnell als ausgefallenen Server markieren.

    Wenn Sie timeoutconnect für die HTTP-Advisor-Funktion beispielsweise auf 9 Sekunden setzen möchten, geben Sie den folgenden Befehl ein:

    xxxcontrol metriccollector set Consultant-ID:HTTP timeoutconnect 9
    

    Der Standardwert für das Verbindungs- und Empfangszeitlimit liegt beim Dreifachen des Wertes, der für die Ruhezeit der Advisor-Funktion angegeben wurde.

    Wiederholungsversuche der Advisor-Funktion

    Advisor-Funktionen können wiederholt versuchen, eine Verbindung herzustellen, bevor sie einen Server als inaktiv markieren. Die Advisor-Funktion markiert einen Server erst als inaktiv, wenn die Abfrage nach der festgelegten Anzahl Wiederholungen und einem weiteren Versuch nicht beantwortet wird. Ist keine Anzahl Wiederholungen festgelegt, wird standardmäßig von null Wiederholungen ausgegangen.

    Für den Cisco CSS Controller können Sie den retry-Wert mit dem Befehl ccocontrol ownercontent set setzen. Weitere Informationen finden Sie im Abschnitt ccocontrol ownercontent -- Eignernamen und Inhaltsregel steuern.

    Für den Nortel Alteon Controller können Sie den retry-Wert mit dem Befehl nalcontrol service set setzen. Weitere Informationen finden Sie im Abschnitt nalcontrol service -- Service konfigurieren.


    Angepasste (anpassbare) Advisor-Funktion erstellen

    Anmerkung:
    In diesem Abschnitt wird Server als generischer Begriff verwendet und bezeichnet für Cisco CSS Controller einen Service und für Nortel Alteon Controller einen Server.

    Die angepasste (anpassbare) Advisor-Funktion ist ein kurzer Java-Code, den Sie als Klassendatei bereitstellen, die vom Basiscode aufgerufen wird. Der Basiscode stellt alle Verwaltungsservices bereit. Dazu gehören unter anderem:

    Er übergibt auch die Ergebnisse an den Consultant. Der Basiscode führt regelmäßig einen Advisor-Zyklus aus, wobei alle Server in der Konfiguration individuell ausgewertet werden. Dieser beginnt mit dem Öffnen einer Verbindung zu einer Servermaschine. Wenn das Socket geöffnet wird, ruft der Basiscode die Methode (Funktion) getLoad der angepassten Advisor-Funktion auf. Die angepasste Advisor-Funktion führt dann alle für die Auswertung des Serverstatus erforderlichen Schritte aus. Normalerweise sendet sie eine benutzerdefinierte Nachricht an den Server und wartet dann auf eine Antwort. (Die angepasste Advisor-Funktion erhält Zugriff auf den geöffneten Socket.) Der Basiscode schließt dann den Socket zu dem Server und übergibt die Lastinformationen an den Consultant.

    Der Basiscode und die angepasste Advisor-Funktion können im normalen Modus oder im Ersetzungsmodus arbeiten. Die Auswahl der Betriebsart wird in der Datei der angepassten Advisor-Funktion als Parameter der Methode "constructor" angegeben.

    Im normalen Modus tauscht die angepasste Advisor-Funktion Daten mit dem Server aus. Der Basiscode der Advisor-Funktion misst die Zeit für den Austausch und berechnet den Lastwert. Der Basiscode übergibt dann diesen Lastwert an den Consultant. Die angepasste Advisor-Funktion muss nur null (bei Erfolg) oder -1 (bei einem Fehler) zurückgeben. Zur Angabe des normalen Modus wird das Flag "replace" der Methode "constructor" auf "false" gesetzt.

    Im Ersetzungsmodus führt der Basiscode keine Zeitmessungen aus. Der Code der angepassten Advisor-Funktion führt alle für die funktionsspezifischen Anforderungen erforderlichen Operationen aus und gibt dann einen tatsächlichen Lastwert zurück. Der Basiscode akzeptiert diesen Wert und übergibt ihn an den Consultant. Um bestmögliche Ergebnisse zu erzielen, sollten Sie den Lastwert zwischen 10 und 1000 normalisieren, wobei 10 einen schnellen Server und 1000 einen langsamen Server angibt. Zur Angabe des Ersetzungsmodus muss das Flag "replace" der Methode "constructor" auf "true" gesetzt werden.

    Auf diese Weise können Sie eigene Advisor-Funktionen schreiben, die die benötigten präzisen Informationen über Server zur Verfügung stellen. Für die Controller wird ein Beispiel für eine angepasste Advisor-Funktion, ADV_ctlrsample.java, geliefert. Nach der Installation von Load Balancer finden Sie den Beispielcode im Installationsverzeichnis ...ibm/edge/lb/servers/samples/CustomAdvisors.

    Die Standardinstallationsverzeichnisse sind:

    Anmerkung:
    Wenn Sie eine angepasste Advisor-Funktion zum Cisco CCS Controller oder Nortel Alteon Controller hinzufügen, müssen Sie ccoserver bzw. nalserver stoppen und anschließend erneut starten (verwenden Sie auf Windows-Systemen "Dienste"), um den Java-Prozess zu veranlassen, die neuen angepassten Advisor-Klassendateien zu lesen. Die angepassten Advisor-Klassendateien werden nur beim Systemstart geladen.

    Namenskonvention

    Der Dateiname für Ihre angepasste Advisor-Funktion muss das Format "ADV_eigenerAdvisor.java" haben. Er muss mit dem Präfix ADV_ in Großbuchstaben beginnen. Alle nachfolgenden Zeichen müssen Kleinbuchstaben sein.

    Aufgrund von Java-Konventionen muss der Name der in der Datei definierten Klasse mit dem Namen der Datei übereinstimmen. Wenn Sie den Beispielcode kopieren, stellen Sie sicher, dass alle Exemplare von ADV_ctrlsample in der Datei in den neuen Klassennamen geändert werden.

    Kompilierung

    Angepasste Advisor-Funktionen werden in der Sprache Java geschrieben. Verwenden Sie den Java-Compiler, der zusammen mit Load Balancer installiert wird. Während der Kompilierung wird auf die folgenden Dateien Bezug genommen:

    Der Klassenpfad muss während der Kompilierung auf die Datei der angepassten Advisor-Funktion und die Datei mit den Basisklassen zeigen.

    Ein Kompilierungsbefehl für die Windows-Plattform könnte wie folgt aussehen:

    Installationsverzeichnis/java/bin/javac -classpath
        Installationsverzeichnis\lb\servers\lib\ibmlb.jar ADV_pam.java
     
    

    Für diese Angaben gilt Folgendes:

    Die Ausgabe der Kompilierung ist eine Klassendatei, zum Beispiel:

    ADV_pam.class
    

    Kopieren Sie vor dem Starten der Advisor-Funktion die Klassendatei in das Installationsverzeichnis ...ibm/edge/lb/servers/lib/CustomAdvisors.

    Anmerkung:
    Bei Bedarf können angepasste Advisor-Funktionen unter einem Betriebssystem kompiliert und unter einem anderen Betriebssystem ausgeführt werden. Sie können beispielsweise Ihre Advisor-Funktion Auf Windows-Systemen kompilieren, die Klassendatei (im Binärformat) auf eine AIX-Maschine kopieren und die Advisor-Funktion dort ausführen.

    Für AIX-, HP-UX-, Linux- und Solaris-Systeme ist die Syntax ähnlich.

    Ausführung

    Bevor Sie die angepasste Advisor-Funktion ausführen, müssen Sie die Klassendatei in das richtige Unterverzeichnis des Installationsverzeichnisses kopieren:

    ...ibm/edge/lb/servers/lib/CustomAdvisors/ADV_pam.class
    

    Starten Sie den Consultant und setzen Sie dann zum Starten der angepassten Advisor-Funktion den folgenden Befehl ab:

    Für Cisco CSS Controller
    ccocontrol ownercontent metrics Consultant-ID:ID_für_Eignerangaben pam 100

    Für Nortel Alteon Controller
    nalcontrol service metrics Consultant-ID:Service-ID pam 100

    Für diese Angaben gilt Folgendes:

    Erforderliche Routinen

    Eine angepasste Advisor-Funktion erweitert wie alle anderen Advisor-Funktionen den Advisor-Basiscode ADV_Base. Es ist der Advisor-Basiscode, der die meisten Funktionen ausführt. Dazu gehört das Zurückmelden von Belastungen an den Consultant, die für den Wertigkeitsalgorithmus des Consultant verwendet werden. Darüber hinaus stellt der Advisor-Basiscode Socket-Verbindungen her, schließt Sockets und stellt Sende- und Empfangsmethoden für die Advisor-Funktion bereit. Die Advisor-Funktion selbst wird nur zum Senden von Daten an den Port bzw. Empfangen von Daten vom Port des empfohlenen Servers verwendet. Die TCP-Methoden innerhalb des Advisor-Basiscodes sind zeitlich gesteuert, um die Last zu berechnen. Mit einem Flag der Methode "constructor" in "ADV_base" kann bei Bedarf die vorhandene Last mit der neuen, von der Advisor-Funktion zurückgegebenen Last überschrieben werden.

    Anmerkung:
    Der Advisor-Basiscode stellt in angegebenen Intervallen die Last ausgehend von einem in der Methode "constructor" gesetzten Wert für den Wertigkeitsalgorithmus bereit. Wenn die eigentliche Advisor-Funktion noch keine gültige Last zurückgeben kann, verwendet der Advisor-Basiscode die vorherige Last.

    Basisklassenmethoden sind:

    Suchreihenfolge

    Die Controller suchen zunächst in der bereitgestellten Liste nach nativen Advisor-Funktionen. Können Sie dort eine gegebene Advisor-Funktion nicht finden, durchsuchen Sie die Liste der angepassten Advisor-Funktionen.

    Benennung und Pfad

    Beispiel-Advisor-Funktion

    Die Programmliste für eine Beispiel-Advisor-Funktion für den Controller finden Sie im Abschnitt Beispiel-Advisor-Funktion. Nach der Installation befindet sich diese Beispiel-Advisor-Funktion im Verzeichnis ...ibm/edge/lb/servers/samples/CustomAdvisors.


    Metric Server

    Metric Server stellt Load Balancer Informationen zur Serverauslastung bereit. Diese Informationen werden in Form systemspezifischer Metriken für den Serverzustand bereitgestellt. Der Load-Balancer-Consultant richtet Anfragen an den Metric-Server-Agenten, der sich auf jedem der Server befindet, und legt anhand der Metriken, die er von den Agenten erhalten hat, Wertigkeiten für den Lastausgleich fest. Die Ergebnisse werden für Cisco CSS Controller auch in den Servicebericht und für Nortel Alteon Controller in den Serverbericht gestellt.

    Voraussetzungen

    Der Metric-Server-Agent muss auf allen Servern installiert und ausgeführt werden, die am Lastausgleich teilnehmen.

    Verwendung von Metric Server

    Nachfolgend sind die Schritte aufgeführt, mit denen Sie Metric Server für die Controller konfigurieren.

    Wenn Metric Server für eine vom lokalen Host abweichende Adresse ausgeführt werden soll, editieren Sie die Datei metricserver auf der am Lastausgleich beteiligten Servermaschine. Fügen Sie in der Datei metricserver nach dem Eintrag java Folgendes ein:

    -Djava.rmi.server.hostname=andere_Adresse
    

    Fügen Sie außerdem vor den Anweisungen if Folgendes zur Datei metricserver hinzu: hostname andere_Adresse.

    Auf Windows-Systemen: Geben Sie in Microsoft Stack einen Aliasnamen für andere_Adresse an. Informationen zum Angeben eines Aliasnamens für eine Adresse in Microsoft Stack finden Sie auf Seite ***.


    Advisor-Funktion Workload Manager

    WLM ist Code, der auf MVS-Großrechnern ausgeführt wird. Er kann abgefragt werden, um die Belastung auf der MVS-Maschine zu bestimmen.

    Wurde MVS Workload Management auf Ihrem OS/390-System konfiguriert, können die Controller die Kapazitätsinformationen von WLM akzeptieren und die Informationen für den Lastausgleich verwenden. Mit der Advisor-Funktion WLM öffnen die Controller regelmäßig Verbindungen über den WLM-Port der einzelnen Server in der Consultant-Hosttabelle und akzeptiert die zurückgegebenen ganzzahligen Kapazitätswerte. Da diese ganzen Zahlen die noch verfügbare Kapazität darstellen und die Controller Werte erwarten, die die Belastung auf jeder Maschine angeben, werden die ganzzahligen Kapazitätswerte vom Advisor in Lastwerte umgekehrt und normalisiert. (Ein hoher ganzzahliger Kapazitätswert und ein niedriger Lastwert geben beispielsweise beide einen akzeptablen Zustand eines Servers an). Es gibt mehrere wichtige Unterschiede zwischen dem WLM-Advisor und anderen Advisor-Funktionen des Controllers:

    1. Andere Advisor-Funktionen öffnen Verbindungen zu den Servern unter Verwendung des Ports, über den der normale Clientdatenverkehr fließt. Die WLM-Advisor-Funktion benutzt für das Öffnen von Verbindungen zu den Servern nicht den für normalen Datenverkehr verwendeten Port. Der WLM-Agent muss auf den einzelnen Servermaschinen so konfiguriert werden, dass er an dem Port empfangsbereit ist, an dem die WLM-Advisor-Funktion des Controllers gestartet wurde. Der Standard-WLM-Port ist 10007.
    2. Es ist möglich, protokollspezifische Advisor-Funktionen zusammen mit der Advisor-Funktion WLM zu verwenden. Die protokollspezifischen Advisor-Funktionen fragen die Server an den regulären Ports für Datenverkehr ab. Die WLM-Advisor-Funktion fragt die Systembelastung dagegen am WLM-Port ab.

    Binäre Protokolle für die Analyse von Serverstatistiken verwenden

    Mit dem Feature für Binärprotokollierung können Serverinformationen in Binärdateien gespeichert werden. Diese Dateien können dann verarbeitet werden, um die Serverinformationen zu analysieren, die über einen bestimmten Zeitraum gesammelt wurden.

    Die folgenden Informationen werden für jeden in der Konfiguration definierten Server in dem binären Protokoll gespeichert:

    Zum Protokollieren von Informationen in den binären Protokollen muss der Consultant aktiv sein.

    Verwenden Sie zum Konfigurieren der binären Protokollierung den Befehlssatz xxxcontrol consultant binarylog.

    Mit der Option "start" wird die Protokollierung von Serverinformationen in binären Protokollen im Protokollverzeichnis gestartet. Ein Protokoll wird zu Beginn jeder Stunde mit dem Datum und der Uhrzeit als Name der Datei erstellt.

    Mit der Option "stop" wird die Protokollierung von Serverinformationen in binären Protokollen gestoppt. Standardmäßig ist der Protokolldienst gestoppt.

    Mit der Option "set interval" wird gesteuert, wie oft Informationen in die Protokolle geschrieben werden. Der Consultant sendet in jedem Consultant-Intervall Serverdaten an den Protokollserver. Die Daten werden nur in die Protokolle geschrieben, wenn seit dem Schreiben des letzten Protokolleintrags die für das Protokollintervall angegebene Zeit in Sekunden verstrichen ist. Standardmäßig wird das Protokollierungsintervall auf 60 Sekunden gesetzt.

    Zwischen den Einstellungen für das Consultant-Intervall und das Protokollierungsintervall gibt es eine gewisse Interaktion. Da dem Protokollserver Informationen nicht schneller zur Verfügung gestellt werden, als dies im Consultant-Intervall (in Sekunden) angegeben ist, wird durch Angabe eines Protokollierungsintervalls, das kleiner als das Consultant-Intervall ist, das Protokollierungsintervall de facto auf denselben Wert wie das Consultant-Intervall gesetzt.

    Mit dieser Protokollierungstechnik können Sie Serverinformationen detaillierter erfassen. Sie können alle vom Consultant festgestellten Änderungen der Serverinformationen für die Berechnung von Serverwertigkeiten erfassen. Dieser Informationsumfang ist jedoch wahrscheinlich nicht erforderlich, um die Serverauslastung und Trends zu analysieren. Werden Serverinformationen alle 60 Sekunden protokolliert, erhalten Sie Momentaufnahmen von Serverinformationen in Abhängigkeit vom zeitlichen Verlauf. Wird das Protokollierungsintervall auf einen sehr niedrigen Wert gesetzt, kann dies zu großen Datenmengen führen.

    Mit der Option "set retention" wird gesteuert, wie lange Protokolldateien aufbewahrt werden. Protokolldateien, die älter als die angegebene Verweildauer (Stunden) sind, werden von dem Protokollserver gelöscht. Die geschieht nur, wenn der Protokollserver vom Consultant aufgerufen wird. Wenn Sie den Consultant stoppen, werden alte Protokolldateien demzufolge nicht gelöscht.

    Im Verzeichnis ...ibm/edge/lb/servers/samples/BinaryLog stehen ein Beispiel-Java-Programm und eine Beispielbefehlsdatei zur Verfügung. Dieses Beispiel zeigt, wie alle Informationen aus den Protokolldateien abgerufen und angezeigt werden können. Es kann für jede Art von Datenanalyse angepasst werden.

    Beispiel für die Verwendung des bereitgestellten Scripts und Programms:

    xxxlogreport 2002/05/01 8:00 2002/05/01 17:00
    

    Dieser Befehl liefert einen Bericht mit den Serverdaten des Controllers vom 1. Mai 2002 in der Zeit von 8.00 bis 17.00 Uhr.


    Scripts zum Generieren eines Alerts oder Protokollieren eines Serverausfalls verwenden

    Load Balancer stellt Benutzer-Exits bereit, die Scripts aktivieren, die von Ihnen angepasst werden können. Sie können Scripts für die Ausführung automatisierter Aktionen erstellen. Eine solche Aktion wäre beispielsweise das Informieren eines Administrators über inaktive Server per Alert oder das Registrieren eines Ausfalls. Scripts, die Sie anpassen können, finden Sie im Installationsverzeichnis ...ibm/edge/lb/servers/samples. Zum Ausführen müssen Sie die Dateien in das Verzeichnis ...ibm/edge/lb/servers/bin kopieren und dann entsprechend den Anweisungen im Script umbenennen.

    Die folgenden Beispielscripts werden bereitgestellt, bei denen die Angabe xxx durch cco für Cisco CSS Controller und durch nal für Nortel Alteon Controller ersetzt wird:


    Verwaltung und Fehlerbehebung in Load Balancer

    Dieser Teil enthält Informationen zur Verwaltung von Load Balancer und zur Fehlerbehebung. Zu diesem Teil gehören die folgenden Kapitel:


    Load Balancer einsetzen und verwalten

    Anmerkung:
    Falls Sie die Komponente Dispatcher nicht verwenden, ersetzen Sie beim Lesen der allgemeinen Abschnitte dieses Kapitels, die sich nicht auf eine bestimmte Komponente beziehen, dscontrol und dsserver durch Folgendes:

    Das vorliegende Kapitel erläutert die Verwendung und Verwaltung von Load Balancer und ist in folgende Abschnitte untergliedert:


    Fernverwaltung von Load Balancer

    Load Balancer bietet zwei Möglichkeiten an, die Konfigurationsprogramme auf einer anderen Maschine als der Maschine mit Load Balancer auszuführen. Für die Kommunikation zwischen den Konfigurationsprogrammen (dscontrol, cbrcontrol, sscontrol, ccocontrol, nalcontrol) und dem Server (dsserver, cbrserver usw.) bestehen die beiden folgenden Möglichkeiten:

    Der Vorteil der Fernverwaltung mit RMI besteht darin, dass sie schneller als die webgestützte Verwaltung ist.

    Die webgestützte Verwaltung hat den Vorteil, dass sie eine sichere Fernverwaltung mit Authentifizierung ist und auch bei Vorhandensein einer Firewall die Kommunikation mit der Load-Balancer-Maschine gewährleistet ist. Diese Verwaltungsmethode erfordert außerdem nicht die Installation und Verwendung von Authentifizierungsschlüsseln (lbkeys) auf der fernen Clientmaschine, die mit der Load-Balancer-Maschine kommuniziert.

    Remote Method Invocation (RMI)

    Bei Verwendung von RMI lautet der Befehl zum Herstellen einer Verbindung zu einer Load-Balancer-Maschine für die Fernverwaltung dscontrol host:ferner_Host.

    Stammt der RMI-Aufruf von einer anderen Maschine als der lokalen Maschine, muss eine Authentifizierung mit öffentlichem/privatem Schlüssel stattfinden, bevor der Konfigurationsbefehl akzeptiert wird.

    Die Kommunikation zwischen den Steuerprogrammen, die auf derselben Maschine wie die Komponentenserver ausgeführt werden, wird nicht authentifiziert.

    Verwenden Sie den folgenden Befehl, um öffentliche und private Schlüssel für die ferne Authentifizierung zu generieren:

    lbkeys [create|delete]

    Dieser Befehl muss auf derselben Maschine wie Load Balancer ausgeführt werden.

    Bei Verwendung der Option create wird im Schlüsselverzeichnis des Servers (...ibm/edge/lb/servers/key/) ein privater Schlüssel erstellt. Im Verwaltungsverzeichnis für Schlüssel (...ibm/edge/lb/admin/keys/) der einzelnen Komponenten von Load Balancer werden öffentliche Schlüssel erstellt. Der Dateiname für den öffentlichen Schlüssel ist Komponente-Serveradresse-RMI-Port. Diese öffentlichen Schlüssel müssen anschließend zu den fernen Clients transportiert und in das Verwaltungsverzeichnis für Schlüssel gestellt werden.

    Auf einer Load-Balancer-Maschine mit dem Hostnamen bzw. der Adresse 10.0.0.25, die für jede Komponente den Standard-RMI-Port verwendet, generiert der Befehl lbkeys create die folgenden Dateien:

    Die Verwaltungsdateigruppe wurde auf einer anderen Maschine installiert. Die Dateien der öffentlichen Schlüssel müssen auf der fernen Clientmaschine in das Verzeichnis ...ibm/edge/lb/admin/keys gestellt werden.

    Jetzt ist der ferne Client berechtigt, Load Balancer auf der Maschine 10.0.0.25 zu konfigurieren.

    Dieselben Schlüssel müssen Sie auf allen fernen Clients verwenden, die berechtigt sein sollen, Load Balancer auf der Maschine 10.0.0.25 zu konfigurieren.

    Würde der Befehl lbkeys create erneut ausgeführt, hätte dies die Generierung einer neuen Gruppe von öffentlichen/privaten Schlüsseln zur Folge. Dies würde bedeuten, dass alle fernen Clients, die unter Verwendung der vorherigen Schlüssel die Herstellung einer Verbindung versuchen, nicht berechtigt wären. Der neue Schlüssel müsste in das korrekte Verzeichnis auf den Clients gestellt werden, die erneut berechtigt werden sollen.

    Mit dem Befehl lbkeys delete werden die privaten und öffentlichen Schlüssel von der Servermaschine gelöscht. Werden diese Schlüssel gelöscht, sind keine fernen Clients mehr berechtigt, eine Verbindung zu den Servern herzustellen.

    Für lbkeys create und lbkeys delete gibt es die Option force. Die Option "force" unterdrückt die Eingabeaufforderungen, die von Ihnen eine Bestätigung für das Überschreiben oder Löschen der vorhandenen Schlüssel anfordern.

    Wenn Sie eine RMI-Verbindung hergestellt haben, können Sie von einer Eingabeaufforderung aus über die Befehle "dscontrol", "cbrcontrol", "sscontrol", "ccocontrol", "nalcontrol", "dswizard", "cbrwizard" und "sswizard" mit den Konfigurationsprogrammen kommunizieren. Sie können Load Balancer auch auf der GUI konfigurieren. Geben Sie dazu an einer lbadmin-Eingabeaufforderung ein.

    Anmerkung:
    Aufgrund von Änderungen an den Sicherheitspaketen der Java-Version sind die Schlüssel, die Load Balancer für ältere Releases als Version 5.1.1 generiert hat, möglicherweise nicht mit den Schlüsseln für das aktuelle Release kompatibel. Wenn Sie ein neues Release installieren, müssen Sie die Schlüssel neu generieren.

    webgestützte Verwaltung

    Voraussetzungen

    Für die webgestützte Verwaltung ist auf der Clientmaschine, die die Fernverwaltung durchführt, Folgendes erforderlich:

    Auf der Hostmaschine, auf die Sie zugreifen, um die webgestützte Fernverwaltung durchzuführen, ist Folgendes erforderlich:

    Caching Proxy konfigurieren

    Zugriff auf die webgestützte Verwaltung und ihre Ausführung

    Wenn Sie die webgestützte Verwaltung ausführen möchten, müssen Sie sie auf der Hostmaschine mit Load Balancer starten. Setzen Sie dazu an der Eingabeaufforderung der Hostmaschine den Befehl lbwebaccess ab.

    Sie benötigen die Benutzer-ID und das Kennwort für die Hostmaschine, auf die Sie fern zugreifen. Diese Angaben stimmen mit der Benutzer-ID und dem Kennwort für die Verwaltung von Caching Proxy überein.

    Greifen Sie im Webbrowser auf den folgenden URL des fernen Standortes zu, um die webgestützte Verwaltung von Load Balancer aufzurufen:

    http://Hostname/lb-admin/lbadmin.html

    Hostname ist der Name der Maschine, auf die Sie zugreifen, um mit Load Balancer zu kommunizieren.

    Wenn die Webseite geladen ist, erscheint im Browserfenster die GUI von Load Balancer, so dass Sie die webgestützte Fernverwaltung durchführen können.

    Von der Load-Balancer-GUI aus können Sie auch Steuerbefehle für die Konfiguration absetzen. Gehen Sie dazu wie folgt vor:

    1. Heben Sie in der Baumstruktur der GUI den Hostknoten hervor.
    2. Wählen Sie im Popup-Menü "Host" den Eintrag Befehl senden... aus.
    3. Geben Sie im Befehlseingabefeld den gewünschten Befehl ein, z. B. executor report. In einem Fenster sehen Sie die Ergebnisse und die Historie der in der aktuellen Sitzung ausgeführten Befehle.

    Konfiguration fern aktualisieren

    Wenn bei der fernen webgestützten Verwaltung mehrere Administratoren die Load-Balancer-Konfiguration von verschiedenen Standorten aus aktualisieren, müssen Sie die Konfiguration aktualisieren, um (z. B.) den von einem anderen Administrator hinzugefügten (oder gelöschten) Cluster, Port oder Server zu sehen. Die GUI für die webgestützte Fernverwaltung bietet die Funktionen Konfiguration aktualisieren und Alle Konfigurationen aktualisieren an.

    Gehen Sie zum Aktualisieren der Konfiguration auf der webgestützten GUI wie folgt vor:


    Load-Balancer-Protokolle verwenden

    Für Dispatcher, CBR und Site Selector

    Load Balancer sendet Einträge an ein Serverprotokoll, ein Managerprotokoll, an das Protokoll eines Metriküberwachungsprogramms (protokollbezogene Kommunikation mit Metric-Server-Agenten) und an das Protokoll jeder von Ihnen verwendeten Advisor-Funktion.

    Anmerkung:
    Zusätzlich können Einträge in ein Subagentenprotokoll (SNMP) gestellt werden. Dies gilt allerdings nur für die Komponente Dispatcher.
    Anmerkung:
    Die Komponente Content Based Routing (CBR) ist auf allen unterstützten Plattformen, die keine 64-Bit-JVM ausführen, verfügbar. Alternativ können Sie die Weiterleitungsmethode "cbr" der Load-Balancer-Komponente Dispatcher verwenden, um inhaltsbasiertes Routing ohne die Verwendung von Caching Proxy zu ermöglichen. Weitere Informationen finden Sie im Abschnitt Dispatcher-Weiterleitungsmethode "cbr".

    Sie können die Protokollstufe festlegen, um den Umfang der Nachrichten zu definieren, die in das Protokoll geschrieben werden. Bei Stufe 0 werden Fehler protokolliert. Load Balancer protokolliert außerdem Header und Datensätze von Ereignissen, die nur einmal eintreten. (Beim Starten einer Advisor-Funktion wird beispielsweise eine Nachricht in das Managerprotokoll geschrieben.) Bei Stufe 1 werden weitere Informationen aufgenommen. Bis Stufe 5 nimmt die Ausführlichkeit kontinuierlich zu. Bei Stufe 5 werden alle generierten Nachrichten aufgenommen, damit sie im Falle eines Fehlers für das Debugging verwendet werden können. Die Standardeinstellung für das Managerprotokoll, das Protokoll der Advisor-Funktionen, das Serverprotokoll sowie das Protokoll der Subagenten ist 1.

    Zudem können Sie die maximale Größe eines Protokolls festlegen. Wenn Sie eine maximale Größe für die Protokolldatei festlegen, findet ein Dateiumlauf statt. Hat die Datei die angegebene Größe erreicht, werden alle weiteren Einträge wieder an den Anfang der Datei geschrieben und die dort befindlichen Einträge überschrieben. Sie können für die Protokollgröße keinen Wert angeben, der kleiner als der aktuelle Wert für die Protokollgröße ist. Protokolleinträge werden mit einer Zeitmarke versehen, so dass Sie erkennen können, in welcher Reihenfolge sie geschrieben wurden.

    Je höher Sie die Protokollstufe setzen, desto vorsichtiger müssen Sie die Protokollgröße auswählen, da die Protokolldatei sehr schnell voll ist, wenn Sie eine Protokollierung auf einer höheren Stufe wählen. Bei Stufe 0 ist es wahrscheinlich sicher, die Standardprotokollgröße von 1 MB zu verwenden. Ab Stufe 3 sollten Sie die Größe jedoch begrenzen. Bedenken Sie aber, dass bei einem zu kleinen Wert die Protokollierung nicht mehr sinnvoll ist.

    Pfade für die Protokolldatei ändern

    Die von Load Balancer generierten Protokolle werden standardmäßig im Unterverzeichnis "logs" des Installationsverzeichnisses von Load Balancer gespeichert. Wenn Sie diesen Pfad ändern möchten, setzen Sie die Variable lb_logdir im dsserver-Script entsprechend.

    AIX-, HP-UX-, Linux- und Solaris-Systeme: Sie finden das dsserver-Script im Verzeichnis "/usr/bin". In diesem Script ist die Variable LB-Protokollverzeichnis auf das Standardverzeichnis gesetzt. Sie können diese Variable ändern, um Ihr Protokollverzeichnis anzugeben. Beispiel:

    LB_LOGDIR=/Pfad/zu/eigenen/Protokollen/

    Windows-Systeme: Sie finden die dsserver-Datei im Windows-Systemverzeichnis (C:\WINNT\SYSTEM32 für Windows 2003). In der dsserver-Datei ist die Variable LB-Protokollverzeichnis auf das Standardverzeichnis gesetzt. Sie können diese Variable ändern, um Ihr Protokollverzeichnis anzugeben. Beispiel:

    set LB_LOGDIR=c:\Pfad\zu\eigenen\Protokollen\

    Für alle Betriebssysteme ist sicherzustellen, dass sich rechts und links vom Gleichheitszeichen keine Leerzeichen befinden und dass der Pfad mit einem Schrägstrich endet ("/" bzw. "\").

    Binärprotokollierung

    Anmerkung:
    Die binäre Protokollierung ist für die Komponente Site Selector nicht möglich.

    Für die binäre Protokollierung von Load Balancer wird dasselbe Verzeichnis (log) wie für die übrigen Protokolldateien verwendet. Weitere Informationen finden Sie im Abschnitt Binäre Protokolle für die Analyse von Serverstatistiken verwenden.

    Für Cisco CSS Controller und Nortel Alteon Controller

    Sie können die Protokollstufe festlegen, um den Umfang der Nachrichten zu definieren, die in das Protokoll geschrieben werden. Bei Stufe 0 werden Fehler protokolliert. Load Balancer protokolliert außerdem Header und Datensätze von Ereignissen, die nur einmal eintreten. (Beim Starten einer Advisor-Funktion wird beispielsweise eine Nachricht in das Consultant-Protokoll geschrieben.) Bei Stufe 1 werden weitere Informationen aufgenommen. Bis Stufe 5 nimmt die Ausführlichkeit kontinuierlich zu. Bei Stufe 5 werden alle generierten Nachrichten aufgenommen, damit sie im Falle eines Fehlers für das Debugging verwendet werden können. Der Standardwert für die Protokolle ist 1.

    Zudem können Sie die maximale Größe eines Protokolls festlegen. Wenn Sie eine maximale Größe für die Protokolldatei festlegen, findet ein Dateiumlauf statt. Hat die Datei die angegebene Größe erreicht, werden alle weiteren Einträge wieder an den Anfang der Datei geschrieben und die dort befindlichen Einträge überschrieben. Sie können für die Protokollgröße keinen Wert angeben, der kleiner als der aktuelle Wert für die Protokollgröße ist. Protokolleinträge werden mit einer Zeitmarke versehen, so dass Sie erkennen können, in welcher Reihenfolge sie geschrieben wurden.

    Je höher Sie die Protokollstufe setzen, desto vorsichtiger müssen Sie die Protokollgröße auswählen, da die Protokolldatei sehr schnell voll ist, wenn Sie eine Protokollierung auf einer höheren Stufe wählen. Bei Stufe 0 ist es wahrscheinlich sicher, die Standardprotokollgröße von 1 MB zu verwenden. Ab Stufe 3 sollten Sie die Größe jedoch begrenzen. Bedenken Sie aber, dass bei einem zu kleinen Wert die Protokollierung nicht mehr sinnvoll ist.

    Controllerprotokolle

    Cisco CSS Controller und Nortel Alteon Controller gibt es die folgenden Protokolle:

    Das folgende Beispiel zeigt, wie Sie für das Protokoll der Metriküberwachung, in dem die Kommunikation mit den Metric-Server-Agenten protokolliert wird, die Protokollstufe und die maximale Größe konfigurieren können:

    xxxcontrol metriccollector set Consultant-ID:Service-ID:Metrikname
       loglevel x Protokollgröße y
    

    Pfade für die Protokolldatei ändern

    Die von den Controllern generierten Protokolle werden standardmäßig im Unterverzeichnis "logs" des Installationsverzeichnisses der Controller gespeichert. Wenn Sie diesen Pfad ändern möchten, setzen Sie die Variable xxx_logdir im xxxserver-Script entsprechend.

    AIX-, HP-UX-, Linux- und Solaris-Systeme: Sie finden das xxxserver-Script im Verzeichnis "/usr/bin". In diesem Script ist die Variable xxx_logdir auf das Standardverzeichnis gesetzt. Sie können diese Variable ändern, um Ihr Protokollverzeichnis anzugeben. Beispiel:

    xxx_LOGDIR=/Pfad/zu/eigenen/Protokollen/

    Windows-Systeme: Sie finden die xxxserver-Datei im Windows-Systemverzeichnis (in der Regel C:\WINNT\SYSTEM32). In der xxxserver-Datei ist die Variable xxx_logdir auf das Standardverzeichnis gesetzt. Sie können diese Variable ändern, um Ihr Protokollverzeichnis anzugeben. Beispiel:

    set xxx_LOGDIR=c:\Pfad\zu\eigenen\Protokollen\

    Für alle Betriebssysteme ist sicherzustellen, dass sich rechts und links vom Gleichheitszeichen keine Leerzeichen befinden und dass der Pfad mit einem Schrägstrich endet ("/" bzw. "\").

    Binärprotokollierung

    Für die binäre Protokollierung von Load Balancer wird dasselbe Verzeichnis (log) wie für die übrigen Protokolldateien verwendet. Weitere Informationen finden Sie im Abschnitt Binäre Protokolle für die Analyse von Serverstatistiken verwenden.


    Komponente Dispatcher verwenden

    Die folgenden Abschnitte erläutern die Verwendung und Verwaltung der Komponente Dispatcher.

    Dispatcher starten und stoppen

    Inaktivitätszeitlimit verwenden

    Load Balancer betrachtet Verbindungen als veraltet, wenn sie die durch das Inaktivitätszeitlimit angegebene Zeit (Sekunden) lang inaktiv waren. Wird das Inaktivitätszeitlimit überschritten, entfernt Load Balancer den Eintrag für diese Verbindung aus seinen Tabellen und löscht den nachfolgenden Datenverkehr für diese Verbindung.

    Auf Portebene können Sie das Inaktivitätszeitlimit beispielsweise mit dem Befehl dscontrol port set staletimeout angeben.

    Das Inaktivitätszeitlimit kann auf Executor-, Cluster- und Portebene gesetzt werden. Auf Executor- und Clusterebene liegt der Standardwert bei 300 Sekunden. Es wird bis hinunter zum Port gefiltert. Auf Portebene ist der Standardwert vom jeweiligen Port abhängig. Einige herkömmliche Ports haben unterschiedliche Inaktivitätszeitlimits. Der Telnet-Port 23 hat beispielsweise ein Standardlimit von 259.200 Sekunden.

    Dienste können auch eigene Inaktivitätszeitlimits haben. Für LDAP (Lightweight Directory Access Protocol) gibt es z. B. den Konfigurationsparameter "idletimeout". Bei Überschreitung der von "idletimeout" angegebenen Zeit in Sekunden wird die Beendigung einer inaktiven Clientverbindung erzwungen. Das Inaktivitätszeitlimit (idletimeout) kann auch auf 0 gesetzt werden, so dass Verbindungen nicht zwangsweise beendet werden können.

    Wenn das Inaktivitätszeitlimit von Load Balancer kleiner als das des Dienstes ist, können Konnektivitätsprobleme auftreten. Im Falle von LDAP liegt das Inaktivitätslimit von Load Balancer (staletimeout) standardmäßig bei 300 Sekunden. Ist die Verbindung 300 Sekunden inaktiv, entfernt Load Balancer den Eintrag für die Verbindung aus seinen Tabellen. Wenn das Inaktivitätszeitlimit (idletimeout) über 300 Sekunden liegt (oder auf 0 gesetzt ist), könnte der Client davon ausgehen, dass er weiterhin mit dem Server verbunden ist. Wenn der Client Pakete sendet, werden diese von Load Balancer gelöscht. Das hat zur Folge, dass LDAP blockiert, wenn eine Anfrage an den Server gesendet wird. Sie können dieses Problem vermeiden, indem Sie das Inaktivitätszeitlimit von LDAP (idletimeout) auf einen Wert ungleich null setzen, der genauso groß wie das Inaktivitätszeitlimit von Load Balancer (staletimeout) oder kleiner als dieses ist.

    Bereinigung von Verbindungssätzen mit fintimeout und staletimeout steuern

    Ein Client sendet ein FIN-Paket, nachdem er alle Pakete gesendet hat, um dem Server mitzuteilen, dass die Transaktion beendet ist. Wenn der Dispatcher das FIN-Paket erhält, kennzeichnet er die Transaktion nicht mehr als AKTIV, sondern als BEENDET. Wenn eine Transaktion als BEENDET gekennzeichnet ist, kann der für die Verbindung reservierte Speicher bereinigt werden.

    Sie können den Durchsatz bei der Reservierung und Wiederverwendung von Verbindungssätzen verbessern, indem Sie mit dem Befehl executor set fintimeout steuern, wie lange der Dispatcher Verbindungen im Status BEENDET in den Dispatcher-Tabellen als aktiv und empfangsbereit speichern soll. Sobald eine Verbindung im Status BEENDET den mit fintimeout festgelegten Zeitraum überschreitet, wird sie aus den Dispatcher-Tabellen entfernt und kann wiederverwendet werden. Das Zeitlimit für die Beendigung inaktiver Verbindungen können Sie mit dem Befehl dscontrol executor set fincount ändern.

    Mit dem Befehl dscontrol executor set staletimeout können Sie steuern, wie lange der Dispatcher Verbindungen im Status HERGESTELLT in den Dispatcher-Tabellen als aktiv und empfangsbereit speichern soll, wenn kein aktiver Datenverkehr festgestellt werden kann. Weitere Informationen finden Sie im Abschnitt Inaktivitätszeitlimit verwenden.

    GUI für Berichterstellung -- Menüoption "Überwachen"

    Ausgehend von den Informationen des Executors können mehrere Diagramme angezeigt und an den Manager übergeben werden. (Die Menüoption "Überwachen" der GUI erfordert, dass die Managerfunktion aktiviert ist):

    Simple Network Management Protocol mit Dispatcher verwenden

    Ein Netzverwaltungssystem ist ein Programm, das ständig ausgeführt und verwendet wird, um ein Netz zu überwachen, den Status eines Netzes wiederzugeben und ein Netz zu steuern. Simple Network Management Protocol (SNMP), ein häufig verwendetes Protokoll für die Kommunikation mit Einheiten in einem Netz, ist der aktuelle Netzverwaltungsstandard. Die Netzeinheiten verfügen normalerweise über einen SNMP-Agenten und einen oder mehrere Subagenten. Der SNMP-Agent kommuniziert mit der Netzverwaltungsstation oder antwortet auf SNMP-Befehlszeilenanforderungen. Der SNMP- Subagent ruft Daten ab und aktualisiert die Daten und übergibt diese Daten an den SNMP-Agenten, der sie an den Requester weiterleitet.

    Der Dispatcher stellt eine SNMP Management Information Base (ibmNetDispatcherMIB) und einen SNMP-Subagenten zur Verfügung. Damit wird Ihnen die Verwendung jedes Netzverwaltungssystems ermöglicht, wie beispielsweise Tivoli NetView, Tivoli Distributed Monitoring oder HP OpenView, um den Zustand, die Leistung und die Aktivität des s zu überwachen. Die MIB-Daten beschreiben den Dispatcher, der verwaltet wird, und geben den aktuellen Status des Dispatchers wieder. Die MIB wird im Unterverzeichnis ..lb/admin/MIB installiert.

    Anmerkung:
    Die MIB ibmNetDispatcherMIB.02 wird nicht mit dem Tivoli- NetView-Programm xnmloadmib2 geladen. Um den Fehler zu beheben, müssen Sie den Bereich NOTIFICATION-GROUP der MIB auf Kommentar setzen. Geben Sie dazu am Beginn der Zeile "indMibNotifications Group NOTIFICATION-GROUP" sowie der sechs darauf folgenden Zeilen "- -" ein.

    Das Netzverwaltungssystem verwendet SNMP-Befehle GET, um MIB-Werte auf anderen Maschinen zu überprüfen. Es kann dann den Benutzer benachrichtigen, wenn angegebene Schwellenwerte überschritten werden. Sie können anschließend die Leistung des Dispatchers beeinflussen, indem Sie Konfigurationsdaten für den Dispatcher so ändern, dass Dispatcher-Probleme im voraus bestimmt oder berichtigt werden, bevor sie den Ausfall des Dispatchers oder Webservers zur Folge haben.

    SNMP - Befehle und Protokoll

    Das System stellt normalerweise einen SNMP-Agenten für jede Netzverwaltungsstation zur Verfügung. Der Benutzer sendet einen Befehl GET an den SNMP-Agenten. Dieser SNMP-Agent sendet dann einen Befehl GET, um die angegebenen MIB-Variablenwerte von einem Subagenten abzurufen, der für diese MIB-Variablen zuständig ist.

    Der Dispatcher stellt einen Subagenten zur Verfügung, der MIB-Daten aktualisiert und abruft. Der Subagent antwortet mit den entsprechenden MIB-Daten, wenn der SNMP-Agent einen Befehl GET sendet. Der SNMP-Agent überträgt die Daten an die Netzverwaltungsstation. Die Netzverwaltungsstation kann Sie benachrichtigen, wenn angegebene Schwellenwerte überschritten werden.

    Die Dispatcher-SNMP-Unterstützung beinhaltet einen SNMP-Subagenten, der DPI-Funktionalität verwendet (DPI = Distributed Program Interface). DPI ist eine Schnittstelle zwischen einem SNMP-Agenten und seinen Subagenten. Das Betriebssystem Windows verwendet den Windows-Erweiterungsagenten als Schnittstelle zwischen einem SNMP-Agenten und seinen Subagenten.

    SNMP auf AIX-, HP-UX-, Linux- und Solaris-Systemen aktivieren

    Abbildung 40. SNMP-Befehle für Linux- und UNIX-Systeme

    SNMP-Befehle und Serversystem für Linux- und UNIX-Systeme

    AIX-Systeme stellen einen SNMP-Agenten bereit, der das SNMP-Multiplexer-Protokoll (SMUX) verwendet und die zusätzliche ausführbare DPID2-Datei anbietet, die als Umsetzer zwischen DPI und SMUX fungiert.

    Für HP-UX-Systeme müssen Sie einen SMUX-fähigen SNMP-Agenten erwerben, da HP-UX keinen solchen bereitstellt. Load Balancer stellt DPID2 für HP-UX-Systeme bereit.

    Linux-Systeme stellen einen SNMP-Agenten bereit, der SMUX verwendet. Im Lieferumfang der meisten Linux-Versionen (z. B. Red Hat) ist ein UCD-SNMP-Paket enthalten. UCD SNMP enthält ab Version 4.1 SMUX-fähige Agenten. Load Balancer stellt DPID2 für Linux-Systeme bereit.

    Anmerkung:
    Für Systeme mit SuSE Linux müssen Sie einen SMUX-fähigen SNMP-Agenten erwerben, da dieses Betriebssystem keinen solchen bereitstellt.

    Für Solaris-Systeme müssen Sie einen SMUX-fähigen SNMP-Agenten erwerben, da dieses Betriebssystem keinen solchen bereitstellt. Load Balancer stellt DPID2 für Solaris-Systeme im Verzeichnis "/opt/ibm/edge/lb/servers/samples/SNMP" bereit.

    Den DPI-Agenten müssen Sie Root ausführen. Bevor Sie den DPID2-Dämon ausführen, aktualisieren Sie die Dateien /etc/snmpd.peers und /etc/snmpd.conf wie folgt:

    Für AIX- und Solaris-Systeme:

    Für Linux-Systeme:

    SNMP auf HP-UX-Systemen aktivieren

    Führen Sie zum Installieren der SNMP-Unterstützung von HP-UX die folgenden Schritte aus:

    1. Falls Sie keine Version von GNU SED installiert haben, laden Sie sie von der HP-Website http://www.hp.com herunter.
    2. Laden Sie ucd-snmp-4.2.4.tar.gz von der Webseite http://sourceforge.net/project/showfiles.php?group_id=12694 herunter.
    3. Vergewissern Sie sich, dass auf Ihrer Maschine gcc und gmake oder make installiert ist. Wenn das nicht der Fall ist, müssen Sie die Tools installieren.
    4. Entpacken Sie die Datei ucd-snmp-4.2.4.tar.gz. Entpacken Sie dann alle Quellendateien in dem Verzeichnis.
    5. Führen Sie im Verzeichnis mit den Quellendateien die folgenden Schritte aus:
      1. run ./configure --with-mib-modules=smux
      2. make
      3. Führen Sie die beiden nächsten Befehle als Root aus:
        1. umask 022
        2. make install
      4. export SNMPCONFPATH=/etc/snmp
      5. start /usr/local/sbin/snmpd -s (Damit wird der SNMP-Agent gestartet.)
      6. start dpid2 (Damit wird der DPI-Umsetzer gestartet.)
      7. dscontrol subagent start (Damit wird der Dispatcher-Subagent gestartet.)

    SNMP auf Systemen mit SuSE Linux aktivieren

    Um das Load-Balancer-SNMP auf Systemen mit SuSE Linux verwenden zu können, müssen Sie die folgenden Schritte ausführen:

    1. Entfernen Sie vom SuSE-Rechner das Paket ucd-snmp.rpm.
    2. Get ucd-snmp-4.2.4.tar.gz from http://sourceforge.net/project/showfiles.php?group_id=12694.
    3. Vergewissern Sie sich, dass auf Ihrem SuSE-Rechner gcc und gmake oder make installiert ist. (Wenn das nicht der Fall ist, müssen Sie die Tools installieren.)
    4. Entpacken Sie die Datei ucd-snmp-4.2.4.tar.gz. Entpacken Sie dann alle Quellendateien in dem Verzeichnis.
    5. Führen Sie im Verzeichnis mit den Quellendateien die folgenden Schritte aus:
      1. run ./configure --with-mib-modules=smux
      2. make
      3. Führen Sie die beiden nächsten Befehle als Root aus:
        1. umask 022 #
        2. make install
      4. export SNMPCONFPATH=/etc/snmp
      5. start /usr/local/sbin/snmpd -s
      6. start dpid2

    Aktualisieren Sie wie folgt snmpd (sofern der Dämon bereits aktiv ist), damit die Datei "snmpd.conf" neu gelesen wird:

    refresh -s snmpd
    

    Starten Sie den DPID-SMUX-Peer:

    dpid2

    Die Dämonen müssen in der folgenden Reihenfolge gestartet werden:

    1. SNMP-Agent
    2. DPI-Umsetzer
    3. Dispatcher-Subagent

    SNMP auf Solaris-Systemen aktivieren

    Führen Sie zum Installieren der Solaris-SNMP-Unterstützung die folgenden Schritte aus:

    1. Beenden Sie den aktiven Solaris-SNMP-Dämon (snmpdx und snmpXdmid) mit dem Befehl "kill".
    2. Benennen Sie die folgenden Dateien um:

      /etc/rc3.d/S76snmpdx in /etc/rc3.d/K76snmpdx

      /etc/rc3.d/S77dmi in /etc/rc3.d/K77dmi

    3. Laden Sie von der Adresse http://www.sunfreeware.com/ die folgenden Pakete herunter:
    4. Installieren Sie die heruntergeladenen Pakete mit pkgadd.
    5. Laden Sie die Datei ucd-snmp-4.2.3-solaris8.tar.gz herunter (Adresse: http://sourceforge.net/project/showfiles.php?group_id=12694).
    6. Entpacken Sie ucd-snmp-4.2.3-solaris8.tar.gz im Stammverzeichnis (/).
    7. Setzen Sie die folgenden Befehle ab:

      export LD_LIBRARY_PATH=$LD_LIBRARY_PATH: /usr/local/lib:/usr/local/ssl/lib:/usr/lib

      export PATH=/usr/local/sbin:/usr/local/bin:$PATH

      export SNMPCONFPATH =/etc/snmp

      export MIBDIRS=/usr/local/share/snmp/mibs

      cp /opt/ibm/edge/lb/servers/samples/SNMP/dpid2 /usr/local/sbin/dpid2

    8. Erstellen Sie die Datei /etc/snmpd.peers, sofern sie noch nicht vorhanden ist. Fügen Sie in die Datei "snmpd.peers" Folgendes ein:
      "dpid2" 1.3.6.1.4.1.2.3.1.2.2.1.1.2     "dpid_password"
      
    9. Erstellen Sie die Datei /etc/snmp/snmpd.conf, sofern sie noch nicht vorhanden ist. Fügen Sie in die Datei "snmpd.conf" Folgendes ein:
      smuxpeer        1.3.6.1.4.1.2.3.1.2.2.1.1.2     dpid_password
      
    10. Starten Sie /usr/local/sbin/snmpd.
    11. Starten Sie /usr/local/sbin/dpid2.

    Anmerkungen:

    1. Die folgenden Pakete liegen im Paketformat vor.

      Auf der Website http://sunfreeware.com/ haben die Namen die Erweiterung .gz und können deshalb nicht wie ZIP- oder TAR-Dateien entpackt werden. Verwenden Sie stattdessen pkgadd Paketname.

    2. Achten Sie beim Hinzufügen des Eintrags smuxpeer zur Datei /etc/snmp/snmpd.conf darauf, dass Sie zur Zeichenfolge dpid_password kein Leerzeichen hinzufügen.

    3. Das SNMP-Feature von Load Balancer wurde mit der smux-fähigen ucd-snmp-Version 4.2.3 getestet. Künftige Releases von ucd-snmp mit smux sollten mit einer ähnlichen Konfiguration funktionieren.

    SNMP unter Windows aktivieren

    Führen Sie zum Installieren der Windows-SNMP-Unterstützung die folgenden Schritte aus:

    1. Klicken Sie auf "Start > Einstellungen (Windows 2000) > Systemsteuerung > Software".
    2. Klicken Sie auf Windows-Komponenten hinzufügen/entfernen.
    3. Klicken Sie im Assistenten für Windows-Komponenten auf Verwaltungs- und Überwachungsprogramme (wählen Sie jedoch nicht das zugehörige Kontrollkästchen aus bzw. ab). Klicken Sie dann auf Details.
    4. Wählen Sie das Kontrollkästchen SNMP (Simple Network Management Protocol) aus, und klicken Sie anschließend auf OK.
    5. Klicken Sie auf "Weiter".

    Namen einer SNMP-Community angeben

    Verwenden Sie bei aktivem Executor den Befehl dscontrol subagent start [Community-Name], um den Namen der Community zu definieren, der zwischen dem Windows-Erweiterungsagenten und dem SNMP-Agenten verwendet wird.

    Wichtiger Hinweis: Unter Windows 2003 reagiert SNMP standardmäßig nicht auf angegebene Namen von Communitys. Der SNMP-Subagent antwortet demzufolge nicht auf SNMP-Anforderungen. Um sicherzustellen, dass der SNMP-Subagent auf den Namen der Community reagiert, müssen Sie die SNMP-Serviceeigenschaften mit dem entsprechenden Namen der Community und den entsprechenden Zielhosts konfigurieren. Konfigurieren Sie die SNMP-Sicherheitseigenschaften wie folgt:

    1. Öffnen Sie den Ordner "Computerverwaltung".
    2. Klicken Sie in der Baumstruktur auf Dienste.
    3. Klicken Sie im Detailfenster auf SNMP-Dienst.
    4. Klicken Sie im Menü "Vorgang" auf Eigenschaften.
    5. Klicken Sie auf der Registerkarte "Sicherheit" unter "Angenommene Communitynamen" auf Hinzufügen.
    6. Wählen Sie unter "Communityrechte" eine Berechtigungsstufe aus, mit der dieser Host SNMP-Anforderungen von der ausgewählten Community verarbeiten soll (das Minimum ist der Lesezugriff).
    7. Geben Sie im Feld "Communityname" den Namen einer Community ein. Der Name muss unter Beachtung der Groß-/Kleinschreibung mit dem für den Load-Balancer-Subagenten bereitgestellten Namen übereinstimmen (Standardcommunityname: public). Klicken Sie dann auf Hinzufügen.
    8. Geben Sie an, ob SNMP-Pakete von einem Host akzeptiert werden sollen. Wählen Sie dazu eine der folgenden Optionen aus:
    9. Starten Sie den SNMP-Dienst neu, damit die Änderung in Kraft tritt.

    Nachrichten

    Die Kommunikation von SNMP erfolgt über das Senden und Empfangen von Nachrichten, die von verwalteten Einheiten gesendet werden, um Ausnahmebedingungen oder das Auftreten besonderer Ereignisse, wie beispielsweise das Erreichen eines Schwellenwerts, zu melden.

    Der Subagent verwendet die folgenden Alarmnachrichten:

    Die Nachricht indHighAvailStatus gibt an, dass sich der Wert der Statusvariablen (hasState) für hohe Verfügbarkeit geändert hat. Die gültigen Werte von hasState sind:

    -idle
    Diese Maschine führt einen Lastausgleich durch und versucht nicht, Kontakt mit der Dispatcher-Partnermaschine aufzunehmen.

    -listen
    Die Funktion für hohe Verfügbarkeit wurde gerade gestartet und der Dispatcher ist für die Partnermaschine empfangsbereit.

    -active
    Diese Maschine führt einen Lastausgleich durch.

    -standby
    Diese Maschine überwacht die aktive Maschine.

    -preempt
    Diese Maschine befindet sich während des Wechsels von primärer Maschine zu Partnermaschine in einem Übergangsstatus.

    -elect
    Der Dispatcher wählt aus, welche die primäre Maschine und welche die Partnermaschine ist.

    -no_exec
    Der Executor ist nicht aktiv.

    Die Alarmnachricht indSrvrGoneDown gibt an, dass die Wertigkeit des vom Abschnitt csID (Cluster-ID), psNum (Portnummer) und ssID (Server-ID) der Objektkennung angegebenen Servers gleich null ist. Die letzte bekannte Anzahl aktiver Verbindungen für den Server wird in der Nachricht gesendet. Diese Alarmnachricht gibt an, dass der angegebene Server inaktiviert ist, soweit der Dispatcher dies feststellen konnte.

    Die Alarmnachricht indDOSAttack gibt an, dass der Wert für numhalfopen (die Anzahl halboffener Verbindungen, die nur SYN-Pakete enthalten) an dem vom Abschnitt csID (Cluster-ID) und psNum (Portnummer) der Objektkennung angegebenen Port den Schwellenwert maxhalfopen überschritten hat. Die Anzahl der für den Port konfigurierten Server wird in der Alarmnachricht gesendet. Diese Alarmnachricht zeigt an, dass bei Load Balancer möglicherweise eine DoS-Attacke aufgetreten ist.

    Die Alarmnachricht indDOSAttackDone gibt an, dass der Wert für numhalfopen (die Anzahl halboffener Verbindungen, die nur SYN-Pakete enthalten) an dem vom Abschnitt csID und psNum der Objektkennung angegebenen Port unter den Schwellenwert maxhalfopen gefallen ist. Die Anzahl der für den Port konfigurierten Server wird in der Alarmnachricht gesendet. Wenn Load Balancer nach dem Senden einer indDOSAttack-Alarmnachricht feststellt, dass die mögliche DoS-Attacke vorüber ist, wird diese Alarmnachricht gesendet.

    Auf Linux- und UNIX-Systemen kann es sich aufgrund einer Einschränkung in der SMUX-API bei der Unternehmenskennung, die in Nachrichten von dem ibmNetDispatcher-Subagenten gemeldet wird, um die Unternehmenskennung von dpid2 und nicht um die Unternehmenskennung von ibmNetDispatcher, 1.3.6.1.4.1.2.6.144, handeln. Die SNMP-Verwaltungsdienstprogramme können jedoch die Quelle der Nachricht bestimmen, da die Daten eine Objektkennung aus der ibmNetDispatcher-MIB enthalten.

    SNMP-Unterstützung mit dem Befehl "dscontrol" aktivieren und inaktivieren

    Mit dem Befehl dscontrol subagent start wird die SNMP-Unterstützung aktiviert. Mit dem Befehl dscontrol subagent stop wird die SNMP-Unterstützung inaktiviert.

    Weitere Informationen zum Befehl "dscontrol" finden Sie im Abschnitt dscontrol subagent -- SNMP-Subagenten konfigurieren.

    Gesamten Datenverkehr zur Sicherheit der Load-Balancer-Maschine mit ipchains oder iptables zurückweisen (Linux-Systeme)

    In den Linux-Kernel ist das Firewall-Tool ipchains integriert. Wenn Load Balancer und ipchains gleichzeitig ausgeführt werden, sieht Load Balancer die Pakete zuerst. Erst danach werden sie von ipchains gesehen. Deshalb kann ipchains verwendet werden, um die Sicherheit einer Linux-Maschine mit Load Balancer zu erhöhen. Bei einer solchen Maschine könnte es sich beispielsweise um einen Rechner mit Load Balancer handeln, der einen Lastausgleich für Firewalls durchführt.

    Wenn ipchains oder iptables für eine vollständige Einschränkung konfiguriert ist (so dass kein ein- oder ausgehender Datenverkehr zulässig ist), arbeitet die Paketweiterleitungsfunktion von Load Balancer normal weiter.

    ipchains und iptables können nicht zum Filtern von eingehendem Datenverkehr verwendet werden, für den noch kein Lastausgleich durchgeführt wurde.

    Ein gewisses Maß an Datenverkehr muss erlaubt sein, da Load Balancer sonst nicht fehlerfrei arbeiten kann. Nachfolgend sind einige Beispiele für eine solche Kommunikation aufgelistet:

    Eine angemessene ipchains-Strategie für die Load-Balancer-Maschinen wäre, den gesamten Datenverkehr mit Ausnahme des Verkehrs von oder zu den Back-End-Servern, den Partnermaschinen für hohe Verfügbarkeit, allen Erreichbarkeitszielen oder Konfigurationshosts zu unterbinden.

    Sie sollten iptables nicht aktivieren, wenn Sie Load Balancer mit einem Linux-Kernel der Version 2.4.10.x ausführen. Eine Aktivierung unter diesem Linux-Kernel kann im Laufe der Zeit zur Beeinträchtigung des Durchsatzes führen.

    Wenn Sie iptables inaktivieren möchten, listen Sie die Module auf (lsmod), um festzustellen, welche Module ip_tables und ip_conntrack verwenden. Entfernen Sie sie anschließend mit den Befehlen rmmod ip_tables und rmmod ip_conntrack. Nach einem Warmstart der Maschine werden diese Module wieder hinzugefügt. Sie müssen diesen Schritt deshalb nach jedem Warmstart wiederholen.

    Weitere Informationen finden Sie im Abschnitt Problem: Mögliche Störung der Paketweiterleitung durch iptables unter Linux.


    Komponente Content Based Routing verwenden

    Die folgenden Abschnitte erläutern die Verwendung und Verwaltung der Komponente CBR von Load Balancer.

    Anmerkung:
    Die Komponente Content Based Routing (CBR) ist auf allen unterstützten Plattformen, die keine 64-Bit-JVM ausführen, verfügbar. Alternativ können Sie die Weiterleitungsmethode "cbr" der Load-Balancer-Komponente Dispatcher verwenden, um inhaltsbasiertes Routing ohne die Verwendung von Caching Proxy zu ermöglichen. Weitere Informationen finden Sie im Abschnitt Dispatcher-Weiterleitungsmethode "cbr".

    CBR starten und stoppen

    CBR und Caching Proxy kooperieren über die API des Caching-Proxy-Plug-in bei der Bearbeitung von HTTP- und HTTPS-Anfragen (SSL). CBR kann erst mit dem Lastausgleich für die Server beginnen, wenn Caching Proxy auf derselben Maschine ausgeführt wird. Konfigurieren Sie CBR und Caching Proxy wie im Abschnitt CBR-Konfigurationsbeispiel beschrieben.

    CBR steuern

    Nachdem Sie CBR gestartet haben, können Sie die Komponente mit einer der folgenden Methoden steuern:

    CBR-Protokolle verwenden

    Die von CBR verwendeten Protokolle ähneln den Protokollen, die im Dispatcher verwendet werden. Weitere Informationen finden Sie im Abschnitt Load-Balancer-Protokolle verwenden.

    Anmerkung:
    In früheren Releases konnten Sie den Protokollverzeichnispfad für CBR in der Caching-Proxy-Konfigurationsdatei ändern. Jetzt können Sie den Verzeichnispfad, in dem das Protokoll gespeichert wird, in der cbrserver-Datei ändern. Weitere Informationen finden Sie im Abschnitt Pfade für die Protokolldatei ändern.

    Komponente Site Selector verwenden

    Site Selector starten und stoppen

    Site Selector steuern

    Nachdem Sie Site Selector gestartet haben, können Sie die Komponente mit einer der folgenden Methoden steuern:

    Protokolle von Site Selector verwenden

    Die von Site Selector verwendeten Protokolle ähneln den Protokollen des Dispatchers. Weitere Informationen finden Sie im Abschnitt Load-Balancer-Protokolle verwenden.


    Komponente Cisco CSS Controller verwenden

    Cisco CSS Controller starten und stoppen

    1. Geben Sie zum Starten von Cisco CSS Controller in einer Befehlszeile ccoserver ein.
    2. Geben Sie zum Stoppen von Cisco CSS Controller in einer Befehlszeile ccoserver stop ein.

    Cisco CSS Controller steuern

    Nachdem Sie Cisco CSS Controller gestartet haben, können Sie die Komponente mit einer der folgenden Methoden steuern:

    Cisco-CSS-Controller-Protokolle verwenden

    Die von Cisco CSS Controller verwendeten Protokolle ähneln den Protokollen des Dispatchers. Weitere Informationen finden Sie im Abschnitt Load-Balancer-Protokolle verwenden.


    Komponente Nortel Alteon Controller verwenden

    Nortel Alteon Controller starten und stoppen

    1. Geben Sie zum Starten von Nortel Alteon Controller in einer Befehlszeile nalserver ein.
    2. Geben Sie zum Stoppen von Nortel Alteon Controller in einer Befehlszeile nalserver stop ein.

    Nortel Alteon Controller steuern

    Nachdem Sie Nortel Alteon Controller gestartet haben, können Sie die Komponente mit einer der folgenden Methoden steuern:

    Nortel-Alteon-Controller-Protokolle verwenden

    Die von Nortel Alteon Controller verwendeten Protokolle ähneln den Protokollen des Dispatchers. Weitere Informationen finden Sie im Abschnitt Load-Balancer-Protokolle verwenden.


    Metric Server verwenden

    Metric Server starten und stoppen

    Metric Server stellt Informationen zur Serverauslastung für Load Balancer bereit. Metric Server befindet sich auf jedem Server, der in den Lastausgleich einbezogen ist.

    Linux- und UNIX-Systeme:

    Windows-Systeme:

    Klicken Sie nacheinander auf Start > Einstellungen (für Windows 2000)> Systemsteuerung > Verwaltung > Dienste. Klicken Sie mit der rechten Maustaste auf "IBM Metric Server", und wählen Sie "Starten" aus. Zum Stoppen des Services müssen Sie dieselben Schritte ausführen und "Beenden" auswählen.

    Protokolle von Metric Server verwenden

    Ändern Sie die Protokollstufe im Startscript für Metric Server. Der gültige Wertebereich für die Protokollierungsstufe ist wie bei den Load-Balancer-Protokollen 0 bis 5. Daraufhin wird im Verzeichnis ...ms/logs ein Agentenprotokoll erstellt.


    Fehlerbehebung

    Anhand der Informationen in diesem Kapitel können Fehler erkannt und behoben werden, die sich auf Load Balancer beziehen.


    Fehlerbehebungsinformationen erfassen

    Stellen Sie wie in diesem Abschnitt beschrieben die vom IBM Kundendienst geforderten Daten zusammen. Die Informationen sind wie folgt thematisch geordnet:

    Basisinformationen (immer erforderlich)

    Für die Komponente Dispatcher gibt es ein Fehlerbestimmungs-Tool, das automatisch betriebssystemspezifische Daten und komponentenspezifische Konfigurationsdateien erfasst. Geben Sie zum Ausführen dieses Tools im entsprechenden Verzeichnis lbpd ein:

    Für Linux- und UNIX-Systeme: /opt/ibm/edge/lb/servers/bin/

    Für Windows-Systeme: C:\Programme\IBM\edge\lb\servers\bin

    Dieses Fehlerbestimmungs-Tool packt die Daten wie folgt in Dateien:

    Für Linux- und UNIX-Systeme: /opt/ibm/edge/lb/lbpmr.tar.Z

    Für Windows-Systeme: C:\Programme\IBM\edge\lb\lbpmr.zip

    Anmerkung:
    Sie benötigen ein ZIP-Dienstprogramm für Windows-Systeme, das in einer Befehlszeile ausgeführt werden kann.

    Bevor Sie den IBM Kundendienst anrufen, sollten Sie die folgenden Informationen zur Hand haben.

    Probleme mit der hohen Verfügbarkeit

    Stellen Sie bei Problemen in einer Umgebung mit hoher Verfügbarkeit die folgenden erforderlichen Informationen zusammen:

    Advisor-Fehler

    Stellen Sie bei Advisor-Fehlern (z. B., wenn Advisor-Funktionen Server fälschlicherweise als inaktiv markieren) die folgenden erforderlichen Informationen zusammen.

    Anmerkung:
    Wenn Sie eigene Advisor-Funktionen schreiben, sollten Sie mit ADVLOG(Protokollstufe,Nachricht) überprüfen, ob die Advisor-Funktion fehlerfrei ausgeführt werden kann.

    Der Aufruf von ADVLOG gibt Anweisungen in der Protokolldatei der Advisor-Funktionen aus, wenn die Stufe niedriger als die den Advisor-Funktionen zugeordnete Protokollstufe ist. Bei der Protokollstufe 0 wird die Anweisung immer geschrieben. Sie können ADVLOG nicht vom Konstruktor aus verwenden. Die Protokolldatei wird erst unmittelbar nach Beendigung des Konstruktors für die benutzerdefinierte Advisor-Funktion erstellt, weil der Name der Protokolldatei von Angaben abhängt, die im Konstruktor definiert werden.

    Sie können Ihre eigene Advisor-Funktion aber auch auf andere Weise testen und dabei die obige Einschränkung umgehen. Mit den Anweisungen System.out.println(Nachricht) können Sie Nachrichten in einem Fenster ausgeben. Editieren Sie das Script dsserver und ändern Sie javaw in java, damit die print-Anweisungen im Fenster erscheinen. Die Nachrichten können nur angezeigt werden, wenn das zum Starten von dsserver verwendete Fenster geöffnet bleibt. Auf Windows-Plattformen müssen Sie den als Dienst ausgeführten Dispatcher stoppen und ihn manuell in einem Fenster starten, um die Nachrichten anzuzeigen.

    Weitere Informationen zu ADVLOG finden Sie im Programming Guide for Edge Components.

    Fehler beim Content Based Routing

    Stellen Sie bei Problemen mit dem Content Based Routing die folgenden erforderlichen Informationen zusammen:

    Cluster nicht erreichbar

    Wenn Sie den Cluster nicht erreichen können, wurde möglicherweise auf einer der Load-Balancer-Maschinen oder auf beiden kein Aliasname für den Cluster definiert. Sie können wie folgt feststellen, welche Maschine Eigner des Clusters ist:

    1. Dasselbe Teilnetz, aber nicht auf einer Load-Balancer-Maschine:
      ping Cluster
      arp -a
      
      Falls Sie die Dispatcher-Weiterleitungsmethode "nat" oder "cbr" verwenden, rufen Sie mit Ping auch die Rückkehradresse ab.
    2. Sehen Sie sich die Ausgabe von arp an und vergleichen Sie die (16-stellige hexadezimale) MAC-Adresse mit den Ausgaben von netstat -ni, um festzustellen, welche Maschine der physische Eigner des Clusters ist.
    3. Verwenden Sie die folgenden Befehle, um die Ausgaben beider Maschinen auszuwerten und festzustellen, ob auf beiden die Clusteradresse definiert ist.

      AIX- und HP-UX-Systeme: netstat -ni

      Linux- und Solaris-Systeme: ifconfig -a

      Auf Windows-Systemen: ipconfig /all

    Wenn Sie von ping keine Antwort erhalten und nicht mit ULB arbeiten, wurde möglicherweise auf den Schnittstellen beider Maschinen (z. B. en0, tr0 usw.) kein Aliasname für die Cluster-IP-Adresse definiert.

    Alle Versuche sind gescheitert

    Wenn alle Versuche, Routing-Fehler zu beheben, gescheitert sind, setzen Sie den folgenden Befehl ab, um einen Trace für den Datenverkehr im Netz durchzuführen:

    Sie können auch die Protokollstufe verschiedener Protokolle (z. B. des Manager- oder des Advisor-Protokolls) erhöhen und die Protokollausgaben auswerten.

    Upgrades

    Überprüfen Sie, ob Upgrades verfügbar sind, da ein vorliegender Fehler möglicherweise in einem neuen Servicerelease oder Patch-Code bereits behoben ist. Eine Liste der behobenen Fehler für Edge Components finden Sie auf der Unterstützungsseite der Website zu WebSphere Application Server unter der folgenden Adresse: http://www.ibm.com/software/webservers/appserv/was/support/. Klicken Sie auf der Unterstützungsseite auf den Link zur Downloadsite für Fehlerberichtigungen.

    Java-Code

    Die richtige Java-Version wird im Rahmen der Installation von Load Balancer installiert.

    Nützliche Links

    Im Abschnitt Referenzliteratur finden Sie Links zu Webseiten für Unterstützung und Bibliotheken. Die Webseite für Unterstützung enthält einen Link zu technischen Hinweisen, die Ihnen bei Fragen weiterhelfen können.


    Fehlerbehebungstabellen

    In den genannten Tabellen finden Sie Informationen zu folgenden Themen:


    Tabelle 17. Fehlerbehebungstabelle für Dispatcher

    Symptom Mögliche UrsacheSiehe Abschnitt ...
    Dispatcher wird nicht korrekt ausgeführt. In Konflikt stehende PortnummernPortnummern für Dispatcher überprüfen
    Ein auf der Dispatcher-Maschine konfigurierter Server antwortet nicht auf Lastausgleichsanforderungen. Falsche oder einen Konflikt verursachende AdresseProblem: Dispatcher und Server antworten nicht
    Kein Service für Verbindungen von Clientmaschinen oder Zeitlimitüberschreitung bei Verbindungen
    • Falsche Konfiguration für Weiterleitung
    • Auf der NIC wurde kein Aliasname für die Clusteradresse angegeben.
    • Auf der Loopback-Einheit des Servers wurde kein Aliasname für die Clusteradresse festgelegt.
    • Zusätzliche Route nicht gelöscht
    • Port nicht für jeden Cluster definiert

    Problem: Dispatcher-Anforderungen werden nicht verteilt
    Clientmaschinen erhalten keinen Service oder überschreiten das Zeitlimit. Funktion für hohe Verfügbarkeit arbeitet nichtProblem: Die Dispatcher-Funktion für hohe Verfügbarkeit kann nicht ausgeführt werden
    Es kann kein Überwachungssignal hinzugefügt werden (Windows-Plattform). Die Quellenadresse ist auf keinem Adapter konfiguriert. Problem: Es kann kein Überwachungssignal hinzugefügt werden (Windows-Plattform)
    Server verarbeitet keine Anforderungen (Windows-Plattform)Es wurde eine zusätzliche Route in der Routentabelle erstellt. Problem: Zusätzliche Routen (Windows 2000)
    Advisor-Funktionen arbeiten nicht korrekt mit der Weitverkehrsunterstützung. Advisor-Funktionen werden auf fernen Maschinen nicht ausgeführt. Problem: Advisor-Funktionen arbeiten nicht korrekt
    Dispatcher, Microsoft IIS und SSL arbeiten nicht oder setzen die Arbeit nicht fort. Protokollübergreifend können keine verschlüsselten Daten gesendet werden. Problem: Dispatcher, Microsoft IIS und SSL funktionieren nicht (Windows-Plattform)
    Verbindung zur fernen Maschine zurückgewiesenEs wird noch eine ältere Version der Schlüssel verwendet. Problem: Dispatcher-Verbindung zu einer fernen Maschine
    Der Befehl "dscontrol "oder "lbadmin" scheitert mit der Nachricht "Server antwortet nicht" oder "Zugriff auf RMI-Server nicht möglich".
    1. Befehle können nicht ausgeführt werden, weil der Stack SOCKSifiziert ist oder dsserver nicht gestartet wurde.
    2. Die RMI-Ports sind nicht richtig definiert.
    3. Für die Hostdatei ist der falsche lokale Host angegeben.

    Problem: Der Befehl "dscontrol" oder "lbadmin" scheitert
    Wenn Netscape als Standardbrowser zum Anzeigen der Onlinehilfe verwendet wird, erscheint die Fehlernachricht "Datei ... nicht gefunden" (Windows-Plattform). Falsche Einstellung für die HTML-DateizuordnungProblem: Fehlernachricht "Datei nicht gefunden..." beim Anzeigen der Onlinehilfe (Windows-Plattform)
    Die grafische Benutzerschnittstelle wird nicht richtig gestartet. Unzureichender Paging-Bereich Problem: Die grafische Benutzerschnittstelle (GUI) wird nicht richtig gestartet
    Fehler bei der Ausführung von Dispatcher mit installiertem Caching ProxyDateiabhängigkeit von Caching Proxy Problem: Fehler bei der Ausführung von Dispatcher mit installiertem Caching Proxy
    Die grafische Benutzerschnittstelle wird nicht richtig angezeigt. Die Auflösung ist nicht korrekt. Problem: Die grafische Benutzerschnittstelle (GUI) wird nicht richtig angezeigt
    Die Hilfetextanzeigen werden manchmal von anderen Fenstern verdeckt. Java-EinschränkungProblem: Auf der Windows-Plattform sind die Hilfefenster manchmal von anderen offenen Fenstern verdeckt
    Load Balancer kann Rahmen nicht verarbeiten und weiterleitenFür jede NIC ist eine eindeutige MAC-Adresse erforderlich. Problem: Load Balancer kann Rahmen nicht verarbeiten und weiterleiten
    Die Anzeige ist blau. Es ist keine Netzwerkkarte installiert/konfiguriert. Problem: Beim Starten des Executors von Load Balancer erscheint eine blaue Anzeige
    Automatische Pfaderkennung verhindert Datenrückfluss.Auf der Loopback-Einheit wird ein Aliasname für den Cluster verwendet. Problem: Automatische Pfaderkennung verhindert Datenrückfluss mit Load Balancer
    Keine hohe Verfügbarkeit im Weitverkehrsmodus von Load BalancerDer ferne Dispatcher muss auf dem lokalen Dispatcher als Server eines Clusters definiert werden. Problem: Keine hohe Verfügbarkeit im Weitverkehrsmodus von Load Balancer
    Die GUI blockiert oder verhält sich nicht erwartungsgemäß, wenn versucht wird, eine große Konfigurationsdatei zu laden. Java kann nicht auf so viel Speicher zugreifen, wie für die Bearbeitung einer so großen Änderung der GUI erforderlich ist. Problem: Beim Laden einer großen Konfigurationsdatei blockiert die GUI oder verhält sich nicht erwartungsgemäß
    IP-Adressen werden über die Fernverbindung nicht richtig aufgelöst. Wenn Sie einen fernen Client mit einer gesicherten Socks-Implementierung verwenden, ist nicht sichergestellt, dass vollständig qualifizierte Domänen- oder Hostnamen in die richtige IP-Adresse aufgelöst werden. Problem: IP-Adressen werden über die Fernverbindung nicht richtig aufgelöst
    Auf der koreanischen Schnittstelle von Load Balancer werden bei AIX- und Linux-Systemen überlappende oder unpassende Schriftarten angezeigtÄndern Sie die Standardschriftarten. Problem: Auf der koreanischen Schnittstelle von Load Balancer werden bei AIX- und Linux-Systemen überlappende oder unpassende Schriftarten angezeigt
    Wenn Sie auf Windows-Systemen einen Aliasnamen auf dem MS Loopback-Adapter definiert haben und bestimmte Befehle absetzen (z. B. hostname), reagiert das Betriebssystem falsch und gibt die Aliasadresse zurück. In der Liste der Netzwerkverbindungen darf der neu hinzugefügte Aliasname nicht oberhalb der lokalen Adresse aufgeführt sein. Problem: Auf Windows-Systemen wird beim Absetzen von Befehlen wie hostname an Stelle der lokalen Adresse die Aliasadresse zurückgegeben
    Bei Verwendung einer Matrox-AGP-Videokarte auf einer Windows-Plattform kommt es zu unerwartetem GUI-Verhalten. Der Fehler tritt auf, wenn Matrox-AGP-Videokarten während der Ausführung der Load-Balancer-GUI verwendet werden. Problem: Unerwartetes GUI-Verhalten auf der Windows-Plattform bei Verwendung von Matrox-AGP-Videokarten
    Bei Ausführung von rmmod ibmlb auf Linux-Systemen kommt es zu einem unerwarteten Verhalten (z. B. zu einer Blockierung des Systems). Der Fehler tritt auf, wenn das Kernel-Modul von Load Balancer (ibmlb) manuell entfernt wird.Problem: Unerwartetes Verhalten bei Ausführung von "rmmod ibmlb" (Linux-Systeme)
    Bei Ausführung von Befehlen auf der Dispatcher-Maschine sind die Antwortzeiten sehr lang. Lange Antwortzeiten können auf eine Überlastung der Maschine durch ein hohes Clientdatenverkehrsaufkommen zurückzuführen sein. Problem: Lange Antwortzeiten beim Ausführen von Befehlen auf der Dispatcher-Maschine
    Bei Verwendung der Dispatcher-Weiterleitungsmethode "mac" registriert die SSL- oder HTTPS-Advisor-Funktion keine Serverbelastungen. Dieser Fehler tritt auf, wenn die SSL-Serveranwendung nicht mit der Cluster-IP-Adresse konfiguriert ist. Problem: Bei Verwendung der Weiterleitungsmethode "mac" registriert die Advisor-Funktion SSL oder HTTPS keine Serverlast
    Bei der fernen Webverwaltung mit Netscape wird die Verbindung zum Host getrennt. Die Verbindung zum Host wird getrennt, wenn Sie die Größe des Browserfensters ändern. Problem: Trennen der Hostverbindung bei Änderung des Netscape-Browserfensters in der Webverwaltung
    Bei aktiviertem Socket-Pooling wird der Webserver an 0.0.0.0 gebunden. Konfigurieren Sie den Microsoft IIS bindungsspezifisch.Problem: Bei aktiviertem Socket-Pooling wird der Webserver an 0.0.0.0 gebunden
    Auf der Windows-Plattform erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1). Ändern Sie die Schriftarteigenschaften des Fensters mit der Eingabeaufforderung. Problem: Auf Windows-Systemen erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1)
    Auf der HP-UX-Plattform wird die folgende Nachricht angezeigt: java.lang.OutOfMemoryError unable to create new native threadEinige HP-UX-Installationen lassen standardmäßig 64 Threads pro Prozess zu. Dies ist unzureichend. Problem: Java-Fehler unter HP-UX wegen unzureichender Speicherkapazität/Threads
    Unter Windows markieren Advisor-Funktionen und Erreichbarkeitsziele alle Server als inaktiv. Das Feature Task Offload ist nicht inaktiviert oder Sie müssen unter Umständen ICMP aktivieren. Problem: Auf Windows-Systemen markieren Advisor-Funktionen und Erreichbarkeitsziele alle Server als inaktiv
    Auf der Windows-Plattform tritt ein Problem bei der Auflösung von IP-Adressen in Hostnamen auf, wenn für einen Adapter mehrere Adressen konfiguriert sindDie IP-Adresse, die als Hostname verwendet werden soll, muss in der Registrierungsdatenbank als erste Adresse angegeben sein. Problem: Auflösung von IP-Adressen in Hostnamen auf Windows-Systemen, wenn für einen Adapter mehrere Adressen konfiguriert sind
    Auf der Windows-Plattform können die Advisor-Funktionen in einer Konfiguration für hohe Verfügbarkeit nach einem Netzwerkausfall nicht ausgeführt werden. Wenn das System einen Netzwerkausfall erkennt, löscht es seinen ARP-Cache (Address Resolution Protocol). Problem: Advisor-Funktionen können auf Windows-Systemen in einer Konfiguration für hohe Verfügbarkeit nach einem Netzwerkausfall nicht ausgeführt werden
    Auf Linux-Systemen ist der Befehl "IP address add" nicht mit mehreren Clusteraliasnamen auf der Loopback-Einheit kompatibel. Wenn Sie auf der Loopback-Einheit Aliasnamen für mehrere Adressen festlegen möchten, sollten Sie den Befehl ifconfig und nicht ip address add verwenden. Problem: Beim Festlegen von Aliasnamen für mehrere Cluster auf der Loopback-Einheit von Linux-Systemen nicht den Befehl "IP address add" verwenden
    Bei dem Versuch, einen Server hinzuzufügen, erscheint die Fehlernachricht: "Router-Adresse nicht angegeben oder nicht gültig für die Portmethode".Stellen Sie anhand der Informationen in der Prüfliste fest, welches Problem bei Hinzufügen eines Servers aufgetreten ist. Problem: Fehlernachricht "Router-Adresse nicht angegeben oder nicht gültig für Portmethode" erscheint
    Auf Solaris-Systemen werden die Load-Balancer-Prozesse beendet, wenn Sie das Fenster mit der Terminalsitzung verlassen, in dem die Prozesse gestartet wurden.Verwenden Sie den Befehl nohup, um zu verhindern, dass die gestarteten Prozesse beim Verlassen der Terminalsitzung ein Stoppsignal empfangen. Problem: Auf Solaris-Systemen werden Load-Balancer-Prozesse beim Verlassen des Terminalfensters, in dem die Prozesse gestartet wurden, beendet
    Beim Laden von Load-Balancer-Konfigurationen geht der Durchsatz zurück. Die Verzögerung kann auf DNS-Aufrufe (Domain Name System) zurückzuführen sein, die abgesetzt werden, um die Serveradresse aufzulösen und zu prüfen. Problem: Verzögerung beim Laden einer Load-Balancer-Konfiguration
    Auf Windows-Systemen erscheint die Fehlernachricht, dass ein IP-Adressenkonflikt mit einem anderen System im Netz vorliegt.Wenn die hohe Verfügbarkeit konfiguriert ist, können für einen kurzen Zeitraum Clusteradressen auf beiden Maschinen konfiguriert sein, was zu dieser Fehlernachricht führt. Problem: Fehlernachricht zu einem IP-Adressenkonflikt auf Windows-Systemen
    In einer Konfiguration mit hoher Verfügbarkeit sind sowohl primäre Maschinen als auch Ausweichmaschinen aktiv. Dieses Problem kann auftreten, wenn die go-Scripts weder auf der primären Maschine noch auf der Ausweichmaschine ausgeführt werden. Problem: In einer Konfiguration mit hoher Verfügbarkeit sind sowohl primäre Maschinen als auch Ausweichmaschinen aktiv
    Clientanforderungen scheitern, wenn der Dispatcher versucht, Antworten in Form großer Seiten zurückzugeben.Clientanforderungen, die zu Antworten in Form großer Seiten führen, überschreiten das Zeitlimit, wenn die maximale Übertragungseinheit (MTU, Maximum Transmit Unit) auf der Dispatcher-Maschine bei Verwendung der Weiterleitungsmethode "nat" oder "cbr" nicht ordnungsgemäß gesetzt ist. Problem: Clientanforderungen scheitern, wenn die Rückgabe von Antworten in Form großer Seiten versucht wird
    Auf Windows-Systemen wird beim Absetzen eines Befehls dscontrol oder lbadmin der Fehler "Der Server antwortet nicht" angezeigt. Dieser Fehler tritt auf, wenn es auf einem Windows-System mehr als eine IP-Adresse gibt und die Hostdatei nicht angibt, welche Adresse dem Hostnamen zugeordnet werden soll. Auf Windows-Systemen wird beim Absetzen eines Befehls dscontrol oder lbadmin der Fehler "Der Server antwortet nicht" angezeigt
    Dispatcher-Maschinen mit hoher Verfügbarkeit können unter Linux auf S/390 mit qeth-Treibern möglicherweise nicht synchronisiert werden.Wenn Sie unter Linux für S/390 mit dem qeth-Netztreiber die hohe Verfügbarkeit verwenden, können der aktive Dispatcher und der Bereitschafts-Dispatcher unter Umständen nicht synchronisiert werden. Problem: Dispatcher-Maschinen mit hoher Verfügbarkeit können unter Linux auf S/390 mit qeth-Treibern möglicherweise nicht synchronisiert werden
    Tipps für das Konfigurieren der hohen Verfügbarkeit für Load BalancerDie Tipps werden Ihnen helfen, die Auswirkungen von Problemen mit der hohen Verfügbarkeit zu verringern. Es können unter anderem folgende Probleme auftreten:
    • Verbindungen werden nach der Übernahme gelöscht
    • Partnermaschinen können nicht synchronisiert werden
    • Anforderungen werden fälschlicherweise an die Ausweichpartnermaschine übertragen
    Problem: Konfigurationstipps für hohe Verfügbarkeit
    Einschränkungen für die Konfiguration der Dispatcher-Weiterleitungsmethode MAC auf zSeries- und S/390-PlattformenUnter Linux gibt es Einschränkungen, wenn Sie zSeries- oder S/390-Server mit OSA-Karten (Open System Adapter) verwenden. Strategien zur Lösung von Problemen stehen zur Verfügung. Problem: Einschränkungen für die Dispatcher-Konfiguration unter Linux auf zSeries- oder S/390-Servern mit OSA-Karten
    Speicherverlust unter einigen Red-Hat-Linux-Versionen bei Ausführung von Load Balancer mit Manager und Advisor-Funktionen Die JVM-Versionen des IBM Java SDK und die im Lieferumfang einiger Linux-Distributionen (z. B. Red Hat Enterprise Linux 3.0) enthaltene NPTL (Native POSIX Thread Library) können einen Speicherverlust verursachen. Problem: Speicherverlust unter einigen Linux-Versionen bei Ausführung von Dispatcher mit Manager und Advisor-Funktionen
    Hinweis auf weitergeleitete Pakete (steigende Paketanzahl) im Dispatcher-Bericht unter SUSE Linux Enterprise Server 9, obwohl die Pakete den Back-End-Server nie wirklich erreichenDas NAT-Modul von iptables wird geladen. In dieser Version von iptables gibt es möglicherweise einen (noch nicht nachgewiesenen) Fehler, der bei der Interaktion mit Dispatcher ein seltsames Verhalten auslöst. Problem: Unter SUSE Linux Enterprise Server 9 leitet Dispatcher Pakete weiter, die den Back-End-Server jedoch nicht erreichen
    Mögliche Probleme bei der Funktionsübernahme auf Windows-Systemen, wenn das Dispatcher-Feature für hohe Verfügbarkeit verwendet wirdWenn das goScript, das die Cluster-IP-Adresse auf der aktiven Maschine konfiguriert, vor dem goScript ausgeführt wird, das die Cluster-IP-Adresse der Ausweichmaschine aus der Konfiguration entfernt, kann es zu Problemen kommen. Problem: Fehlernachricht zu einem IP-Adressenkonflikt auf Windows-Systemen während der Funktionsübernahme bei hoher Verfügbarkeit
    Mögliche Störung der Paketweiterleitung durch iptables auf Linux-SystemenUnter Linux kann iptables den Lastausgleich für den Datenverkehr stören und muss auf der Load-Balancer-Maschine inaktiviert werden. Problem: Mögliche Störung der Paketweiterleitung durch iptables unter Linux
    Warnung zu Java-Dateigruppen bei der Installation von Servicekorrekturen oder bei einer Installation mit den nativen System-Tools für PaketinstallationDie Produktinstallation umfasst mehrere Pakete, die nicht auf derselben Maschine installiert werden müssen. Jedes dieser Pakete installiert daher eine Java-Dateigruppe. Werden die Pakete auf derselben Maschine installiert, erscheint eine Warnung, dass eine andere Dateigruppe auch Eigner der Java-Dateigruppe ist. Java-Warnung bei Installation von Servicekorrekturen
    Upgrade der Java-Dateigruppe von Load-Balancer-InstallationenFalls ein Problem mit der Java-Dateigruppe auftritt, melden Sie es dem IBM Service. Sie erhalten dann ein Upgrade für die Java-Dateigruppe, die für die Load-Balancer-Installation bereitgestellt wurde. Upgrade der Java-Dateigruppe einer Load-Balancer-Installation
    Persistente Verbindungen können auf einer Windows-Plattform bei der Übernahme für hohe Verfügbarkeit unterbrochen werdenUnter dem Betriebssystem Microsoft Windows können persistente Verbindungen bei der Übernahme für hohe Verfügbarkeit unterbrochen werden. Dieses Problem tritt nur auf, wenn Sie einen kollokierten Server haben, der die Weiterleitungsmethode MAC verwendet. Problem: Persistente Verbindungen können bei der Übernahme für hohe Verfügbarkeit unterbrochen werden
    Installationsprogramm wird unter dem 32-Bit-Betriebssystem Linux für zSeries nicht ausgeführt

    Bei der Installation von WebSphere Edge Server mit ./install unter dem 32-Bit-Betriebssystem Linux für zSeries wird die Nachricht "JVM nicht gefunden" ausgegeben.

    Problem: Bei der Installation von WebSphere Edge Server mit ./install unter dem 32-Bit-Betriebssystem Linux für zSeries wird die Nachricht "JVM nicht gefunden" ausgegeben
    Der Deinstallationsprozess wird unter dem Betriebssystem Linux nicht ordnungsgemäß ausgeführt.

    Der Deinstallationsprozess für WebSphere Edge Server blockiert unter dem Betriebssystem Linux.

    Problem: Der Deinstallationsprozess für WebSphere Edge Server blockiert unter dem Betriebssystem Linux

    Tabelle 18. Fehlerbehebungstabelle für CBR

    Symptom Mögliche Ursache Siehe Abschnitt...
    CBR wird nicht korrekt ausgeführt. In Konflikt stehende PortnummernPortnummern für CBR überprüfen
    Der Befehl "cbrcontrol" oder "lbadmin" scheitert mit der Nachricht "Server antwortet nicht" oder "Zugriff auf RMI-Server nicht möglich". Befehle können nicht ausgeführt werden, weil der Stack SOCKSifiziert ist oder cbrserver nicht gestartet wurde. Problem: Der Befehl "cbrcontrol" oder "lbadmin" scheitert
    Die Last von Anforderungen wird nicht verteilt. Caching Proxy wurde vor dem Executor gestartet. Problem: Anforderungen werden nicht verteilt
    Unter Solaris scheitert der Befehl "cbrcontrol executor start" mit der Nachricht "Fehler: Executor wurde nicht gestartet". Unter Umständen müssen die IPC-Standardwerte geändert werden, um den Befehl ordnungsgemäß ausführen zu können. Es ist auch möglich, dass die Verknüpfung mit der Bibliothek nicht korrekt angegeben ist. Problem: Auf Solaris-Systemen scheitert der Befehl "cbrcontrol executor start"
    URL-Regel arbeitet nicht. Syntax- oder KonfigurationsfehlerProblem: Syntax- oder Konfigurationsfehler
    Bei Verwendung einer Matrox-AGP-Videokarte in Windows-Systemen kommt es zu unerwartetem GUI-Verhalten. Der Fehler tritt auf, wenn Matrox-AGP-Videokarten während der Ausführung der Load-Balancer-GUI verwendet werden. Problem: Unerwartetes GUI-Verhalten auf der Windows-Plattform bei Verwendung von Matrox-AGP-Videokarten
    Die GUI blockiert oder verhält sich nicht erwartungsgemäß, wenn versucht wird, eine große Konfigurationsdatei zu laden. Java kann nicht auf so viel Speicher zugreifen, wie für die Bearbeitung einer so großen Änderung der GUI erforderlich ist. Problem: Beim Laden einer großen Konfigurationsdatei blockiert die GUI oder verhält sich nicht erwartungsgemäß
    Bei der fernen Webverwaltung mit Netscape wird die Verbindung zum Host getrennt. Die Verbindung zum Host wird getrennt, wenn Sie die Größe des Browserfensters ändern. Problem: Trennen der Hostverbindung bei Änderung des Netscape-Browserfensters in der Webverwaltung
    Auf der Windows-Plattform erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1). Ändern Sie die Schriftarteigenschaften des Fensters mit der Eingabeaufforderung. Problem: Auf der Windows-Plattform erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1)
    Auf der HP-UX-Plattform wird die folgende Nachricht angezeigt: java.lang.OutOfMemoryError unable to create new native threadEinige HP-UX-Installationen lassen standardmäßig 64 Threads pro Prozess zu. Dies ist unzureichend. Problem: Java-Fehler unter HP-UX wegen unzureichender Speicherkapazität/Threads
    Unter Windows markieren Advisor-Funktionen und Erreichbarkeitsziele alle Server als inaktiv. Das Feature Task Offload ist nicht inaktiviert oder Sie müssen unter Umständen ICMP aktivieren. Problem: Auf Windows-Systemen markieren Advisor-Funktionen und Erreichbarkeitsziele alle Server als inaktiv
    Auf der Windows-Plattform tritt ein Problem bei der Auflösung von IP-Adressen in Hostnamen auf, wenn für einen Adapter mehrere Adressen konfiguriert sind. Die IP-Adresse, die als Hostname verwendet werden soll, muss in der Registrierungsdatenbank als erste Adresse angegeben sein. Problem: Auflösung von IP-Adressen in Hostnamen auf Windows-Systemen, wenn für einen Adapter mehrere Adressen konfiguriert sind
    Auf Solaris-Systemen werden die Load-Balancer-Prozesse beendet, wenn Sie das Fenster mit der Terminalsitzung verlassen, in dem die Prozesse gestartet wurden.Verwenden Sie den Befehl nohup, um zu verhindern, dass die gestarteten Prozesse beim Verlassen der Terminalsitzung ein Stoppsignal empfangen. Problem: Auf Solaris-Systemen werden Load-Balancer-Prozesse beim Verlassen des Terminalfensters, in dem die Prozesse gestartet wurden, beendet

    Tabelle 19. Fehlerbehebungstabelle zu Site Selector

    Symptom Mögliche UrsacheSiehe Abschnitt ...
    Site Selector wird nicht korrekt ausgeführt. Konflikt verursachende PortnummerPortnummern für Site Selector überprüfen
    Site Selector gewichtet vom Solaris-Client eingehende Anforderungen nicht nach der Round-Robin-Methode. Solaris-Systeme führen einen Namensservice-Cache-Dämon aus. Problem: Site Selector verteilt den Datenverkehr von Solaris-Clients nicht nach der Round-Robin-Methode
    Der Befehl "sscontrol" oder "lbadmin" scheitert mit der Nachricht "Server antwortet nicht" oder "Zugriff auf RMI-Server nicht möglich". Befehle können nicht ausgeführt werden, weil der Stack SOCKSifiziert ist oder ssserver nicht gestartet wurde. Problem: Der Befehl "sscontrol" oder "lbadmin" scheitert
    ssserver kann auf der Windows-Plattform nicht gestartet werden. Auf Windows-Systemen muss der Hostname nicht im DNS enthalten sein. Problem: ssserver wird auf der Windows-Plattform nicht gestartet
    Für eine Maschine mit duplizierten Routen wird der Lastausgleich nicht richtig durchgeführt. Die Namensauflösung scheint nicht zu funktionieren. Eine Site-Selector-Maschine enthält mehrere Adapter, die mit demselben Teilnetz verbunden sind. Problem: Site Selector führt bei duplizierten Routen den Lastausgleich nicht korrekt durch
    Bei Verwendung einer Matrox-AGP-Videokarte auf einer Windows-Plattform kommt es zu unerwartetem GUI-Verhalten. Der Fehler tritt auf, wenn Matrox-AGP-Videokarten während der Ausführung der Load-Balancer-GUI verwendet werden. Problem: Unerwartetes GUI-Verhalten auf der Windows-Plattform bei Verwendung von Matrox-AGP-Videokarten
    Die GUI blockiert oder verhält sich nicht erwartungsgemäß, wenn versucht wird, eine große Konfigurationsdatei zu laden. Java kann nicht auf so viel Speicher zugreifen, wie für die Bearbeitung einer so großen Änderung der GUI erforderlich ist. Problem: Beim Laden einer großen Konfigurationsdatei blockiert die GUI oder verhält sich nicht erwartungsgemäß
    Bei der fernen Webverwaltung mit Netscape wird die Verbindung zum Host getrennt. Die Verbindung zum Host wird getrennt, wenn Sie die Größe des Browserfensters ändern. Problem: Trennen der Hostverbindung bei Änderung des Netscape-Browserfensters in der Webverwaltung
    Auf der Windows-Plattform erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1). Ändern Sie die Schriftarteigenschaften des Fensters mit der Eingabeaufforderung. Problem: Auf der Windows-Plattform erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1)
    Auf der HP-UX-Plattform wird die folgende Nachricht angezeigt: java.lang.OutOfMemoryError unable to create new native threadEinige HP-UX-Installationen lassen standardmäßig 64 Threads pro Prozess zu. Dies ist unzureichend. Problem: Java-Fehler unter HP-UX wegen unzureichender Speicherkapazität/Threads
    Unter Windows markieren Advisor-Funktionen und Erreichbarkeitsziele alle Server als inaktiv. Das Feature Task Offload ist nicht inaktiviert oder Sie müssen unter Umständen ICMP aktivieren. Problem: Auf Windows-Systemen markieren Advisor-Funktionen und Erreichbarkeitsziele alle Server als inaktiv
    Auf Solaris-Systemen werden die Load-Balancer-Prozesse beendet, wenn Sie das Fenster mit der Terminalsitzung verlassen, in dem die Prozesse gestartet wurden.Verwenden Sie den Befehl nohup, um zu verhindern, dass die gestarteten Prozesse beim Verlassen der Terminalsitzung ein Stoppsignal empfangen. Problem: Auf Solaris-Systemen werden Load-Balancer-Prozesse beim Verlassen des Terminalfensters, in dem die Prozesse gestartet wurden, beendet

    Tabelle 20. Fehlerbehebungstabelle für Cisco CSS Switches

    Symptom Mögliche UrsacheSiehe Abschnitt ...
    ccoserver wird nicht gestartetIn Konflikt stehende PortnummernPortnummern für Cisco CSS Controller überprüfen
    Der Befehl "ccocontrol" oder "lbadmin" scheitert mit der Nachricht "Server antwortet nicht" oder "Zugriff auf RMI-Server nicht möglich". Befehle können nicht ausgeführt werden, weil der Stack SOCKSifiziert ist oder ccoserver nicht gestartet wurde. Problem: Der Befehl "ccocontrol" oder "lbadmin" scheitert
    Empfangener Fehler: Für Port 13099 kann kein Eintrag in der Registrierungsdatenbank erstellt werden.Abgelaufene ProduktlizenzProblem: Für Port 13099 kann kein Eintrag in der Registrierungsdatenbank erstellt werden
    Bei Verwendung einer Matrox-AGP-Videokarte auf einer Windows-Plattform kommt es zu unerwartetem GUI-Verhalten. Der Fehler tritt auf, wenn Matrox-AGP-Videokarten während der Ausführung der Load-Balancer-GUI verwendet werden. Problem: Unerwartetes GUI-Verhalten auf der Windows-Plattform bei Verwendung von Matrox-AGP-Videokarten
    Empfang eines Verbindungsfehlers, wenn ein Consultant hinzugefügt wird. Die Konfigurationseinstellungen für den Switch oder den Controller stimmen nicht. Problem: Beim Hinzufügen eines Consultant wird ein Verbindungsfehler empfangen
    Die Wertigkeiten werden auf dem Switch nicht aktualisiert. Die Kommunikation zwischen Controller und Switch ist nicht möglich oder unterbrochen. Problem: Auf dem Switch werden die Wertigkeiten nicht aktualisiert
    Der Aktualisierungsbefehl (refresh) aktualisiert die Consultant-Konfiguration nicht. Die Kommunikation zwischen Switch und Controller ist nicht möglich oder unterbrochen. Problem: Befehl "refresh" aktualisiert die Consultant-Konfiguration nicht
    Die GUI blockiert oder verhält sich nicht erwartungsgemäß, wenn versucht wird, eine große Konfigurationsdatei zu laden. Java kann nicht auf so viel Speicher zugreifen, wie für die Bearbeitung einer so großen Änderung der GUI erforderlich ist. Problem: Beim Laden einer großen Konfigurationsdatei blockiert die GUI oder verhält sich nicht erwartungsgemäß
    Bei der fernen Webverwaltung mit Netscape wird die Verbindung zum Host getrennt. Die Verbindung zum Host wird getrennt, wenn Sie die Größe des Browserfensters ändern. Problem: Trennen der Hostverbindung bei Änderung des Netscape-Browserfensters in der Webverwaltung
    Auf der Windows-Plattform erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1). Ändern Sie die Schriftarteigenschaften des Fensters mit der Eingabeaufforderung. Problem: Auf der Windows-Plattform erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1)
    Auf der HP-UX-Plattform wird die folgende Nachricht angezeigt: java.lang.OutOfMemoryError unable to create new native threadEinige HP-UX-Installationen lassen standardmäßig 64 Threads pro Prozess zu. Dies ist unzureichend. Problem: Java-Fehler unter HP-UX wegen unzureichender Speicherkapazität/Threads
    Auf Solaris-Systemen werden die Load-Balancer-Prozesse beendet, wenn Sie das Fenster mit der Terminalsitzung verlassen, in dem die Prozesse gestartet wurden.Verwenden Sie den Befehl nohup, um zu verhindern, dass die gestarteten Prozesse beim Verlassen der Terminalsitzung ein Stoppsignal empfangen. Problem: Auf Solaris-Systemen werden Load-Balancer-Prozesse beim Verlassen des Terminalfensters, in dem die Prozesse gestartet wurden, beendet

    Tabelle 21. Fehlerbehebungstabelle für Nortel Alteon Controller

    Symptom Mögliche UrsacheSiehe Abschnitt ...
    nalserver wird nicht gestartetIn Konflikt stehende PortnummernPortnummern für Nortel Alteon Controller überprüfen
    Der Befehl "nalcontrol" oder "lbadmin" scheitert mit der Nachricht "Server antwortet nicht" oder "Zugriff auf RMI-Server nicht möglich". Befehle können nicht ausgeführt werden, weil der Stack SOCKSifiziert ist oder nalserver nicht gestartet wurde. Problem: Der Befehl "nalcontrol" oder "lbadmin" scheitert
    Empfangener Fehler: Für Port 14099 kann kein Eintrag in der Registrierungsdatenbank erstellt werden.Abgelaufene ProduktlizenzProblem: Für Port 14099 kann kein Eintrag in der Registrierungsdatenbank erstellt werden
    Bei Verwendung einer Matrox-AGP-Videokarte auf einer Windows-Plattform kommt es zu unerwartetem GUI-Verhalten. Der Fehler tritt auf, wenn Matrox-AGP-Videokarten während der Ausführung der Load-Balancer-GUI verwendet werden. Problem: Unerwartetes GUI-Verhalten auf der Windows-Plattform bei Verwendung von Matrox-AGP-Videokarten
    Die GUI blockiert oder verhält sich nicht erwartungsgemäß, wenn versucht wird, eine große Konfigurationsdatei zu laden. Java kann nicht auf so viel Speicher zugreifen, wie für die Bearbeitung einer so großen Änderung der GUI erforderlich ist. Problem: Beim Laden einer großen Konfigurationsdatei blockiert die GUI oder verhält sich nicht erwartungsgemäß
    Bei der fernen Webverwaltung mit Netscape wird die Verbindung zum Host getrennt. Die Verbindung zum Host wird getrennt, wenn Sie die Größe des Browserfensters ändern. Problem: Trennen der Hostverbindung bei Änderung des Netscape-Browserfensters in der Webverwaltung
    Empfang eines Verbindungsfehlers, wenn ein Consultant hinzugefügt wird. Die Konfigurationseinstellungen für den Switch oder den Controller stimmen nicht. Problem: Beim Hinzufügen eines Consultant wird ein Verbindungsfehler empfangen
    Die Wertigkeiten werden auf dem Switch nicht aktualisiert. Die Kommunikation zwischen Controller und Switch ist nicht möglich oder unterbrochen. Problem: Auf dem Switch werden die Wertigkeiten nicht aktualisiert
    Der Aktualisierungsbefehl (refresh) aktualisiert die Consultant-Konfiguration nicht. Die Kommunikation zwischen Switch und Controller ist nicht möglich oder unterbrochen. Problem: Befehl "refresh" aktualisiert die Consultant-Konfiguration nicht
    Auf der Windows-Plattform erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1). Ändern Sie die Schriftarteigenschaften des Fensters mit der Eingabeaufforderung. Problem: Auf Windows-Systemen erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1)
    Auf der HP-UX-Plattform wird die folgende Nachricht angezeigt: java.lang.OutOfMemoryError unable to create new native threadEinige HP-UX-Installationen lassen standardmäßig 64 Threads pro Prozess zu. Dies ist unzureichend. Problem: Java-Fehler unter HP-UX wegen unzureichender Speicherkapazität/Threads
    Auf Solaris-Systemen werden die Load-Balancer-Prozesse beendet, wenn Sie das Fenster mit der Terminalsitzung verlassen, in dem die Prozesse gestartet wurden.Verwenden Sie den Befehl nohup, um zu verhindern, dass die gestarteten Prozesse beim Verlassen der Terminalsitzung ein Stoppsignal empfangen. Problem: Auf Solaris-Systemen werden Load-Balancer-Prozesse beim Verlassen des Terminalfensters, in dem die Prozesse gestartet wurden, beendet

    Tabelle 22. Fehlerbehebungstabelle für Metric Server

    Symptom Mögliche UrsacheSiehe Abschnitt ...
    IOException für Metric Server auf der Windows-Plattform bei Ausführung von benutzerdefinierten Metrikdateien mit der Erweiterung .bat oder .cmd Es ist ein vollständiger Metrikname erforderlich. Problem: IOException für Metric Server auf der Windows-Plattform bei Ausführung von benutzerdefinierten Metrikdateien mit der Erweiterung .bat oder .cmd
    Metric Server meldet die Lastinformationen nicht an die Load-Balancer-Maschine. Mögliche Ursachen sind unter anderem:
    • Auf der Metric-Server-Maschine gibt es keine Schlüsselringe.
    • Der Hostname der Metric-Server-Maschine ist nicht im lokalen Namensserver registriert.
    • Die Datei /etc/hosts legt fest, dass der lokale Hostname in die Loopback-Adresse 127.0.0.1 aufgelöst wird.
    Problem: Metric Server meldet die Last nicht an die Load-Balancer-Maschine
    Beim Übertragen von Schlüsselringen zum Server enthält das Metric-Server-Protokoll den Eintrag "Für den Zugriff auf den Agenten ist eine Kennung erforderlich". Der Schlüsselring ist beschädigt und kann deshalb nicht autorisiert werden. Problem: Metric-Server-Protokoll meldet, dass für den Zugriff auf den Agenten eine Kennung erforderlich ist
    Wenn Metric Server auf einem AIX-Multiprozessorsystem (AIX 4.3.3 oder AIX 5.1) mit starker Belastung ausgeführt wird, kann die Ausgabe des Befehls ps -vg beschädigt werden. Dieses bekannte AIX-Problem wird von APAR IY33804 korrigiert. Problem: Bei Ausführung von Metric Server auf AIX-Systemen kann die Ausgabe des Befehls "ps -vg" beschädigt werden
    Konfigurieren von Metric Server in einer zweistufigen Konfiguration mit Site Selector zur Lastverteilung auf Dispatcher mit hoher VerfügbarkeitMetric Server (zweite Stufe) ist nicht für Empfangsbereitschaft an einer neuen IP-Adresse konfiguriert. Problem: Konfigurieren von Metric Server in einer zweistufigen Konfiguration mit Site Selector für die Lastverteilung auf Dispatcher mit hoher Verfügbarkeit
    Scripts (metricserver, cpuload, memload), die auf Solaris-Maschinen mit mehreren CPUs ausgeführt werden, erzeugen unerwünschte Konsolnachrichten.Dieses Verhalten ist auf die Verwendung des VMSTAT-Systembefehls zum Abrufen von CPU- und Speicherstatistiken vom Kernel zurückzuführen. Problem: Unerwünschte Konsolnachrichten bei Ausführung von Scripts auf Solaris-Maschinen mit mehreren CPUs
    Auf Solaris-Systemen werden die Load-Balancer-Prozesse beendet, wenn Sie das Fenster mit der Terminalsitzung verlassen, in dem die Prozesse gestartet wurden.Verwenden Sie den Befehl nohup, um zu verhindern, dass die gestarteten Prozesse beim Verlassen der Terminalsitzung ein Stoppsignal empfangen. Problem: Auf Solaris-Systemen werden Load-Balancer-Prozesse beim Verlassen des Terminalfensters, in dem die Prozesse gestartet wurden, beendet
    Metrik gibt nach dem Start von Metric Server -1 zurück.Dieses Problem kann dadurch entstehen, dass die Schlüsseldateien bei der Übertragung zum Client ihre Integrität verlieren. Problem: Nach dem Start von Metric Server wird der Wert -1 zurückgegeben

    Portnummern für Dispatcher überprüfen

    Falls beim Ausführen des Dispatchers Probleme auftreten, verwendet unter Umständen eine Ihrer Anwendungen eine Portnummer, die normalerweise vom Dispatcher benutzt wird. Der Dispatcher-Server benutzt die folgenden Portnummern:

    Wenn eine andere Anwendung eine der Portnummern des Dispatchers verwendet, können Sie die Portnummern des Dispatchers oder die Portnummer der Anwendung ändern.

    Gehen Sie zum Ändern der Portnummern des Dispatchers wie folgt vor:

    Gehen Sie zum Ändern der RMI-Portnummer der Anwendung wie folgt vor:

    Anmerkung:
    Auf der Windows-Plattform befinden sich die Dateien dsserver und metricserver im Verzeichnis C:\winnt\system32. Auf anderen Plattformen sind diese Dateien im Verzeichnis /usr/bin/ enthalten.

    Portnummern für CBR überprüfen

    Wenn beim Ausführen von CBR Fehler auftreten, verwendet unter Umständen eine Ihrer Anwendungen eine Portnummer, die normalerweise von CBR benutzt wird. CBR benutzt die folgenden Portnummern:

    Anmerkung:
    Die Komponente Content Based Routing (CBR) ist auf allen unterstützten Plattformen, die keine 64-Bit-JVM ausführen, verfügbar. Alternativ können Sie die Weiterleitungsmethode "cbr" der Load-Balancer-Komponente Dispatcher verwenden, um inhaltsbasiertes Routing ohne die Verwendung von Caching Proxy zu ermöglichen. Weitere Informationen finden Sie im Abschnitt Dispatcher-Weiterleitungsmethode "cbr".

    Wenn eine andere Anwendung eine der Portnummern für CBR verwendet, können Sie die Portnummern für CBR oder die Portnummer der Anwendung ändern.

    Gehen Sie zum Ändern der Portnummern für CBR wie folgt vor:

    Gehen Sie zum Ändern der RMI-Portnummer der Anwendung wie folgt vor:

    Anmerkung:
    Auf der Windows-Plattform befinden sich die Dateien cbrserver und metricserver im Verzeichnis "C:\winnt\system32". Auf anderen Plattformen sind diese Dateien im Verzeichnis "/usr/bin/" enthalten.


    Portnummern für Site Selector überprüfen

    Wenn bei Ausführung der Komponente Site Selector Fehler auftreten, verwendet unter Umständen eine Ihrer Anwendungen eine Portnummer, die normalerweise von Site Selector benutzt wird. Site Selector benutzt die folgenden Portnummern:

    Wenn eine andere Anwendung eine der Portnummern von Site Selector verwendet, können Sie die Portnummern von Site Selector oder die Portnummer der Anwendung ändern.

    Gehen Sie zum Ändern der Portnummern für Site Selector wie folgt vor:

    Gehen Sie zum Ändern der RMI-Portnummer der Anwendung wie folgt vor:

    Anmerkung:
    Auf der Windows-Plattform befinden sich die Dateien ssserver und metricserver im Verzeichnis "C:\winnt\system32". Auf anderen Plattformen sind diese Dateien im Verzeichnis "/usr/bin/" enthalten.

    Portnummern für Cisco CSS Controller überprüfen

    Wenn bei Ausführung der Komponente Cisco CSS Controller Fehler auftreten, verwendet unter Umständen eine andere Anwendung eine Portnummer, die normalerweise vom ccoserver der Komponente Cisco CSS Controller benutzt wird. Cisco CSS Controller benutzt die folgenden Portnummern:

    13099 zum Empfangen der Befehle von ccocontrol

    10004 zum Senden von Metrikabfragen an Metric Server

    13199 für den RMI-Serverport

    Wenn eine andere Anwendung eine der Portnummern von Cisco CSS Controller verwendet, können Sie die Portnummern von Cisco CSS Controller oder die Portnummer der Anwendung ändern.

    Gehen Sie zum Ändern der Portnummern für Cisco CSS Controller wie folgt vor:

    Gehen Sie zum Ändern der RMI-Portnummer der Anwendung wie folgt vor:

    Anmerkung:
    Auf der Windows-Plattform befinden sich die Dateien ccoserver und metricserver im Verzeichnis "C:\winnt\system32". Auf anderen Plattformen sind diese Dateien im Verzeichnis "/usr/bin" enthalten.

    Portnummern für Nortel Alteon Controller überprüfen

    Wenn bei Ausführung der Komponente Nortel Alteon Controller Fehler auftreten, verwendet unter Umständen eine andere Anwendung eine Portnummer, die normalerweise vom nalserver der Komponente Nortel Alteon Controller benutzt wird. Nortel Alteon Controller benutzt die folgenden Portnummern:

    14099 zum Empfang der Befehle von nalcontrol

    10004 zum Senden von Metrikabfragen an Metric Server

    14199 für den RMI-Serverport

    Wenn eine andere Anwendung eine der Portnummern von Nortel Alteon Controller verwendet, können Sie die Portnummern von Nortel Alteon Controller oder die Portnummern der Anwendung ändern.

    Gehen Sie zum Ändern der Portnummern von Nortel Alteon Controller wie folgt vor:

    Gehen Sie zum Ändern der RMI-Portnummer der Anwendung wie folgt vor:

    Anmerkung:
    Auf der Windows-Plattform befinden sich die Dateien nalserver und metricserver im Verzeichnis "C:\winnt\system32". Auf anderen Plattformen sind diese Dateien im Verzeichnis "/usr/bin" enthalten.

    Allgemeine Probleme lösen -- Dispatcher

    Problem: Dispatcher wird nicht ausgeführt

    Dieses Problem kann auftreten, wenn eine andere Anwendung einen der Ports benutzt, die normalerweise vom Dispatcher verwendet werden. Weitere Informationen finden Sie im Abschnitt Portnummern für Dispatcher überprüfen.

    Problem: Dispatcher und Server antworten nicht

    Dieses Problem tritt auf, wenn eine andere als die angegebene Adresse verwendet wird. Stellen Sie bei Verknüpfung von Dispatcher und Server sicher, dass die in der Konfiguration verwendete Serveradresse die NFA ist oder als verknüpft konfiguriert ist. Überprüfen Sie außerdem die Adresse der Hostdatei.

    Problem: Dispatcher-Anforderungen werden nicht verteilt

    Symptome für dieses Problem sind: Verbindungen von Clientmaschinen werden nicht bedient oder Verbindungen überschreiten ein Zeitlimit. Überprüfen Sie Folgendes, um diesen Fehler zu bestimmen:

    1. Haben Sie die NFA, Cluster, Ports und Server für die Weiterleitung konfiguriert? Überprüfen Sie die Konfigurationsdatei.
    2. Wurde auf der Netzschnittstellenkarte ein Aliasname für die Clusteradresse angegeben? Auf Linux- und UNIX-Systemen können Sie dies mit netstat -ni überprüfen.
    3. Ist der Aliasname der Loobpack-Einheit jedes Servers auf die Clusteradresse gesetzt? Auf Linux- und UNIX-Systemen können Sie dies mit netstat -ni überprüfen.
    4. Wurde die zusätzliche Route gelöscht? Auf Linux- und UNIX-Systemen können Sie dies mit netstat -nr überprüfen.
    5. Verwenden Sie den Befehl dscontrol cluster status, um die Informationen für jeden definierten Cluster zu überprüfen. Vergewissern Sie sich, dass Sie für jeden Cluster einen Port definiert haben.
    6. Stellen Sie mit dem Befehl dscontrol server report :: sicher, dass Ihre Server nicht inaktiv sind und nicht die Wertigkeit null haben.

    Beachten Sie für Windows und andere Plattformen auch die Informationen im Abschnitt Servermaschinen für Lastausgleich konfigurieren.

    Problem: Die Dispatcher-Funktion für hohe Verfügbarkeit kann nicht ausgeführt werden

    Dieses Problem tritt auf, wenn eine Dispatcher-Umgebung mit hoher Verfügbarkeit konfiguriert ist und Verbindungen von Clientmaschinen nicht bedient werden oder Zeitlimits überschreiten. Überprüfen Sie Folgendes, um den Fehler zu korrigieren oder zu bestimmen:

    Mit den folgenden Schritten kann effektiv getestet werden, ob Scripts für hohe Verfügbarkeit fehlerfrei funktionieren:

    1. Erstellen Sie einen Bericht, indem Sie auf der Maschine die Befehle netstat -an und ifconfig -a absetzen.
    2. Führen Sie das Script goActive aus.
    3. Führen Sie das Script goStandby aus.
    4. Erstellen Sie erneut einen Bericht, indem Sie die Befehle netstat -an und ifconfig -a absetzen.

    Die beiden Berichte sind identisch, wenn die Scripts richtig konfiguriert sind.

    Problem: Es kann kein Überwachungssignal hinzugefügt werden (Windows-Plattform)

    Dieser Fehler tritt auf der Windows-Plattform auf, wenn die Quellenadresse auf keinem Adapter konfiguriert ist. Überprüfen Sie Folgendes, um den Fehler zu korrigieren oder zu bestimmen:

    Problem: Zusätzliche Routen (Windows 2000)

    Nach dem Konfigurieren von Servermaschinen stellen Sie unter Umständen fest, dass Sie unbeabsichtigt eine oder mehrere zusätzliche Route(n) erstellt haben. Werden diese zusätzlichen Routen nicht entfernt, kann der Dispatcher nicht ordnungsgemäß arbeiten. Informationen zum Feststellen und Löschen zusätzlicher Routen finden Sie im Abschnitt Servermaschinen für Lastausgleich konfigurieren.

    Problem: Advisor-Funktionen arbeiten nicht korrekt

    Wenn Sie die Weitverkehrsunterstützung verwenden und die Advisor-Funktionen nicht ordnungsgemäß zu arbeiten scheinen, müssen Sie sicherstellen, dass sie sowohl auf den lokalen als auch auf den fernen Dispatchern gestartet wurden.

    Vor der Advisor-Anforderung wurde ein ICMP ping an die Server abgesetzt. Falls es zwischen Load Balancer und den Servern eine Firewall gibt, stellen Sie sicher, dass pings über die Firewall unterstützt werden. Stellt eine solche Konfiguration ein Sicherheitsrisiko für Netz dar, modifizieren Sie die Anweisung java in dsserver, um alle Ping-Befehle an die Server zu inaktivieren. Fügen Sie dazu wie folgt die Eigenschaft java hinzu:

    LB_ADV_NO_PING="true" 
    java  -DLB_ADV_NO_PING="true"

    Weitere Informationen finden Sie im Abschnitt Ferne Advisor-Funktionen mit der Dispatcher-WAN-Unterstützung verwenden.

    Problem: Dispatcher, Microsoft IIS und SSL funktionieren nicht (Windows-Plattform)

    Wenn Sie Dispatcher, Microsoft IIS und SSL verwenden und diese Komponenten nicht zusammenarbeiten, kann dies auf ein Problem mit der Aktivierung der SSL-Sicherheit zurückzuführen sein. Weitere Informationen dazu, wie Sie ein Schlüsselpaar generieren, ein Zertifikat erhalten und ein Verzeichnis so konfigurieren, dass es SSL erfordert, finden Sie in der Dokumentation Microsoft Information and Peer Web Services.

    Problem: Dispatcher-Verbindung zu einer fernen Maschine

    Der Dispatcher verwendet Schlüssel, die Ihnen ermöglichen, eine Verbindung zu einer fernen Maschine herzustellen und die Maschine zu konfigurieren. Die Schlüssel geben einen RMI-Port für die Verbindung an. Sie können den RMI-Port aus Sicherheitsgründen oder bei Konflikten ändern. Wird der RMI-Port geändert, ändert sich auch der Dateiname des Schlüssels. Wenn Ihr Schlüsselverzeichnis für eine ferne Maschine mehrere Schlüssel enthält, die verschiedene RMI-Ports angeben, verwendet die Befehlszeile nur den ersten gefundenen Schlüssel. Ist dies der falsche Schlüssel, wird die Verbindung zurückgewiesen. Die Verbindung wird erst hergestellt, wenn der falsche Schlüssel gelöscht wurde.

    Problem: Der Befehl "dscontrol" oder "lbadmin" scheitert

    1. Der Befehl "dscontrol" gibt die Nachricht Fehler: Server antwortet nicht zurück, oder der Befehl lbadmin gibt die Nachricht Fehler: Zugriff auf RMI-Server nicht möglich zurück. Diese Fehler können auftreten, wenn der Stack Ihrer Maschine SOCKSifiziert ist. Lösen Sie dieses Problem, indem Sie die Datei "socks.cnf" so editieren, dass sie die folgenden Zeilen enthält:
      EXCLUDE-MODULE java
      EXCLUDE-MODULE javaw
    2. Die Verwaltungskonsolen für Load-Balancer-Schnittstellen (Befehlszeile, grafische Benutzerschnittstelle und Assistenten) kommunizieren per RMI (Remote Method Invocation) mit dsserver. Für die Standardkommunikation werden drei Ports verwendet, die im Startscript für dsserver wie folgt definiert sind:

      Diese Definition kann Fehler verursachen, wenn eine der Verwaltungskonsolen auf derselben Maschine als Firewall oder über eine Firewall ausgeführt wird. Wird beispielsweise Load Balancer auf derselben Maschine als Firewall ausgeführt, können beim Absetzen von dscontrol-Befehlen Fehler wie der folgende angezeigt werden: Fehler: Server antwortet nicht.

      Sie können diesen Fehler vermeiden, indem Sie die dsserver-Scriptdatei editieren und den von RMI für die Firewall (oder eine andere Anwendung) verwendeten Port festlegen. Ändern Sie die Zeile LB_RMISERVERPORT=10199 to LB_RMISERVERPORT=Ihr_Port. Ihr_Port ist ein anderer Port.

      Starten Sie anschließend erneut dsserver und öffnen Sie den Datenverkehr für die Ports 10099, 10004, 10199 und 10100 oder für den Port, den Sie für die Hostadresse, an der die Verwaltungskonsole ausgeführt wird, ausgewählt haben.

    3. Derartige Fehler können auch auftreten, wenn Sie dsserver noch nicht gestartet haben.
    4. Falls es in der Maschine mehrere Adapter gibt, müssen Sie festlegen, welchen Adapter dsserver verwenden soll. Fügen Sie dazu Folgendes zum dsserver-Script hinzu: java.rmi.server.hostname=<Hostname oder IP-Adresse>

      Beispiel: java -Djava.rmi.server.hostname="10.1.1.1"

    Problem: Fehlernachricht "Datei nicht gefunden..." beim Anzeigen der Onlinehilfe (Windows-Plattform)

    Wenn Sie auf Windows-Plattformen Netscape als Standardbrowser verwenden, kann bei diesem Fehler die folgende Nachricht erscheinen: "Netscape kann die Datei "<Dateiname>.html" (oder eine ihrer Komponenten) nicht finden. Stellen Sie sicher, dass Pfad- und Dateiname stimmen und alle erforderlichen Bibliotheken verfügbar sind.

    Das Problem beruht auf einer falschen Einstellung für die HTML-Dateizuordnung. Das Problem kann wie folgt gelöst werden:

    1. Klicken Sie auf Arbeitsplatz und anschließend auf Extras. Wählen Sie Ordneroptionen aus, und klicken Sie anschließend auf das Register Dateitypen.
    2. Wählen Sie "Netscape Hypertext Document" aus.
    3. Klicken Sie auf die Schaltfläche Erweitert, wählen Sie open aus, und klicken Sie auf die Schaltfläche Bearbeiten.
    4. Geben Sie im Feld Anwendung: (nicht im Feld "Anwendung für diesen Vorgang:") NSShell ein, und klicken Sie auf OK.

    Problem: Die grafische Benutzerschnittstelle (GUI) wird nicht richtig gestartet

    Die grafische Benutzerschnittstelle lbadmin erfordert für eine einwandfreie Funktion einen ausreichenden Paging-Bereich. Wenn der Paging-Bereich nicht ausreicht, wird die GUI möglicherweise nicht vollständig gestartet. Überprüfen Sie in einem solchen Fall den Paging-Bereich und vergrößern Sie ihn gegebenenfalls.

    Problem: Fehler bei der Ausführung von Dispatcher mit installiertem Caching Proxy

    Wenn Sie Load Balancer deinstallieren, um eine andere Version zu installieren, und bei dem Versuch, die Komponente Dispatcher zu starten, eine Fehlernachricht empfangen, überprüfen Sie, ob installiert ist. Caching Proxy ist von einer der Dispatcher-Dateien abhängig. Diese Datei wird nur bei der Deinstallation von Caching Proxy deinstalliert.

    Sie können dieses Problem wie folgt vermeiden:

    1. Deinstallieren Sie Caching Proxy.
    2. Deinstallieren Sie Load Balancer.
    3. Installieren Sie Load Balancer und Caching Proxy erneut.

    Problem: Die grafische Benutzerschnittstelle (GUI) wird nicht richtig angezeigt

    Falls die grafische Benutzerschnittstelle (GUI, Graphical User Interface) von Load Balancer nicht richtig angezeigt wird, überprüfen Sie die Auflösung für den Desktop des Betriebssystems. Die GUI wird am besten bei einer Auflösung von 1024 x 768 Bildpunkten angezeigt.

    Problem: Auf der Windows-Plattform sind die Hilfefenster manchmal von anderen offenen Fenstern verdeckt

    Wenn Sie auf der Windows-Plattform zum ersten Mal Hilfefenster öffnen, werden diese manchmal hinter vorhandene Fenster gestellt. Klicken Sie in diesem Fall auf das Fenster, um es wieder in den Vordergrund zu stellen.

    Problem: Load Balancer kann Rahmen nicht verarbeiten und weiterleiten

    Unter Solaris haben alle Netzwerkadapter standardmäßig dieselbe MAC-Adresse. Wenn sich jeder Adapter in einem anderen IP-Teilnetz befindet, verursacht dies keine Probleme. In einer Switch-Umgebung, in der mehrere NICs mit derselben MAC-Adresse und derselben IP-Teilnetzadresse mit einem Switch kommunizieren, sendet der Switch den gesamten für die eine MAC-Adresse (und beide IP-Adressen) bestimmten Datenverkehr über eine Leitung. Nur der Adapter, der als letzter einen Rahmen über die Leitung gesendet hat, sieht die für beide Adapter bestimmten IP-Pakete. Solaris löscht unter Umständen Pakete für eine gültige IP-Adresse, die an der "falschen" Schnittstelle ankommen.

    Wenn in ibmlb.conf nicht alle Netzschnittstellen für Load Balancer konfiguriert sind und die nicht in ibmlb.conf definierte NIC einen Rahmen empfängt, kann Load Balancer den Rahmen nicht verarbeiten und weiterleiten.

    Sie können dieses Problem vermeiden, indem Sie die Standardeinstellung überschreiben und für jede Schnittstelle eine eindeutige MAC-Adresse definieren. Verwenden Sie den folgenden Befehl:

    ifconfig Schnittstelle ether MAC-Adresse

    Beispiel:

    ifconfig eri0 ether 01:02:03:04:05:06

    Problem: Beim Starten des Executors von Load Balancer erscheint eine blaue Anzeige

    Auf der Windows-Plattform müssen Sie vor dem Starten des Executors eine Netzwerkkarte installiert und konfiguriert haben.

    Problem: Automatische Pfaderkennung verhindert Datenrückfluss mit Load Balancer

    Unter AIX gibt es einen Netzwerkparameter für die automatische Erkennung der MTU, die auf einem Pfad transportiert werden kann. Stellt das Betriebssystem während einer Transaktion mit einem Client fest, dass es für ausgehende Pakete eine kleinere MTU (größte zu übertragende Einheit) verwenden muss, veranlasst die automatische Erkennung der MTU für einen Pfad AIX, eine Route zu erstellen, um sich diese Daten merken zu können. Die neue Route ist für diese spezielle Client-IP-Adresse bestimmt und zeichnet die für das Erreichen der Adresse erforderliche MTU auf.

    Nachdem die Route erstellt wurde, könnte auf den Servern ein Problem auftreten, weil auf der Loopback-Einheit ein Aliasname für den Cluster verwendet wird. Wenn die Gateway-Adresse für die Route in das Teilnetz des Clusters / der Netzmaske fällt, erstellen AIX-Systeme die Route zur Loopback-Adresse. Der Grund hierfür ist, dass dies die letzte Schnittstelle war, deren Aliasname dieses Teilnetz enthielt.

    Wenn der Cluster beispielsweise 9.37.54.69 ist, die Netzmaske 255.255.255.0 lautet und das angestrebte Gateway 9.37.54.1 ist, verwenden AIX-Systeme die Loopback-Adresse für die Route. Dadurch können die Antworten des Servers die Maschine nicht verlassen und der Client wartet bis zur Überschreitung des Zeitlimits. Normalerweise sieht der Client eine Antwort vom Cluster. Danach wird die Route erstellt und der Client empfängt keine weiteren Antworten.

    Für dieses Problem gibt es zwei mögliche Lösungen.

    1. Inaktivieren Sie die automatische Erkennung der MTU für einen Pfad, so dass das AIX-System nicht dynamisch Routen hinzufügt. Verwenden Sie dazu die folgenden Befehle:

      no -a
      Listet die AIX-Einstellungen für den Netzbetrieb auf.

      no -o Option=Wert
      Legt die TCP-Parameter auf AIX-Systemen fest.
    2. Geben Sie auf der Loopback-Einheit den Aliasnamen für die Cluster-IP-Adresse mit der Netzmaske 255.255.255.255 an. Dies bedeutet, dass das über den Aliasnamen erreichbare Teilnetz nur die Cluster-IP-Adresse ist. Wenn AIX-Systeme die dynamischen Routen erstellen, stimmt die IP-Adresse des Ziel-Gateway nicht mit diesem Teilnetz überein, weshalb eine Route erstellt wird, die die korrekte Netzschnittstelle verwendet. Löschen Sie anschließend die neue lo0-Route, die während der Festlegung der Aliasnamen erstellt wurde. Suchen Sie dazu die Route zur Loopback-Adresse, deren Netzziel die Cluster-IP-Adresse ist, und löschen Sie sie. Dieser Schritt muss immer ausgeführt werden, wenn für den Cluster ein Aliasname erstellt wird.

    Anmerkungen:

    1. Bis AIX 4.3.2 ist die automatische Erkennung der MTU für einen Pfad standardmäßig inaktiviert. Ab AIX Version 4.3.3 ist sie jedoch standardmäßig aktiviert.

    2. Die folgenden Befehle schalten die automatische Erkennung der MTU für einen Pfad aus und müssen bei jedem Booten des Systems ausgeführt werden. Fügen Sie diese Befehle zur Datei /etc/rc.net hinzu.

    Problem: Keine hohe Verfügbarkeit im Weitverkehrsmodus von Load Balancer

    Wenn Sie Load Balancer für ein WAN konfigurieren, müssen Sie den fernen Dispatcher auf Ihrem lokalen Dispatcher als Server in einem Cluster definieren. In der Regel werden Sie die NFA des fernen Dispatchers als Zieladresse des fernen Servers verwenden. Wenn Sie anschließend die Funktion für hohe Verfügbarkeit auf dem fernen Dispatcher konfigurieren, kann diese nicht ausgeführt werden. Der Grund hierfür ist, dass der lokale Dispatcher immer auf die primäre Maschine des fernen Standorts zeigt, wenn Sie für den Zugriff auf den fernen Server die NFA verwenden.

    Sie können dieses Problem wie folgt umgehen:

    1. Definieren Sie auf dem fernen Dispatcher einen zusätzlichen Cluster. Für diesen Cluster müssen Sie keine Ports oder Server definieren.
    2. Fügen Sie diese Clusteradresse zu Ihren Scripts goActive und goStandby hinzu.
    3. Definieren Sie diesen Cluster auf Ihrem lokalen Dispatcher als Server und nicht als NFA des fernen primären Dispatchers.

    Wenn der ferne primäre Dispatcher aktiviert wird, verwendet er auf seinem Adapter diese Adresse als Aliasnamen, so dass er Datenverkehr akzeptieren kann. Tritt ein Fehler auf, wird die Adresse auf die Ausweichmaschine versetzt. Der weitere Datenverkehr für diese Adresse wird dann von der Ausweichmaschine akzeptiert.

    Problem: Beim Laden einer großen Konfigurationsdatei blockiert die GUI oder verhält sich nicht erwartungsgemäß

    Wenn Sie mit lbadmin oder der Webverwaltung (lbwaccess) eine große Konfigurationsdatei (im Schnitt mit mehr als 200 add-Befehlen) laden, kann die GUI blockieren oder ein unerwartetes Verhalten zeigen. Ein solches Verhalten wäre beispielsweise ein extrem langsames Reagieren auf Anzeigeänderungen.

    Dieses Problem tritt auf, weil Java nicht auf so viel Speicher zugreifen kann, wie für die Bearbeitung einer so großen Konfiguration erforderlich ist.

    Die Laufzeitumgebung bietet eine Option an, mit der der Java zur Verfügung stehende Speicherzuordnungspool vergrößert werden kann.

    Die Option ist "-Xmxn", bei der n die maximale Größe des Speicherzuordnungspools in Bytes angibt. Der Wert "n" muss ein Vielfaches von 1024 und größer als 2 MB sein. Nach dem Wert n können Sie k bzw. K für Kilobytes oder m bzw. M für Megabytes angeben. Zwei Beispiele für gültige Angaben sind -Xmx128M und -Xmx81920k. Der Standardwert ist "64M". Für Solaris 8 gilt ein Maximalwert von "4000M".

    Zum Hinzufügen dieser Option müssten Sie die lbadmin-Scriptdatei editieren und wie folgt "javaw" in "javaw -Xmxn" ändern. (Bei AIX-Systemen müssen Sie "java" in "java -Xmxn" ändern):

    Für n wird kein bestimmter Wert empfohlen. Er sollte jedoch über dem Standardwert für die Option liegen. Ein guter Ausgangswert wäre das Zweifache des Standardwertes.

    Problem: lbadmin trennt nach dem Aktualisieren der Konfiguration die Verbindung zum Server

    Wenn das Verwaltungsprogramm von Load Balancer (lbadmin) nach dem Aktualisieren der Konfiguration die Verbindung zum Server trennt, überprüfen Sie auf dem Server, den Sie konfigurieren möchten, die Version von dsserver. Stellen Sie sicher, dass diese mit der Version von lbadmin oder dscontrol identisch ist.

    Problem: IP-Adressen werden über die Fernverbindung nicht richtig aufgelöst

    Wenn Sie einen fernen Client mit einer gesicherten Socks-Implementierung verwenden, ist nicht sichergestellt, dass vollständig qualifizierte Domänen- oder Hostnamen in die richtige IP-Adresse im IP-Adressenformat aufgelöst werden. Möglicherweise fügt die Socks-Implementierung spezifische Socks-bezogene Daten zur DNS-Auflösung hinzu.

    Wenn die IP-Adressen über die Fernverbindung nicht richtig aufgelöst werden, geben Sie die IP-Adressen im IP-Adressenformat an.

    Problem: Auf der koreanischen Schnittstelle von Load Balancer werden bei AIX- und Linux-Systemen überlappende oder unpassende Schriftarten angezeigt

    Überlappende und unpassende Schriftarten auf der koreanischen Load-Balancer-Schnittstelle können Sie wie folgt korrigieren:

    Auf AIX-Systemen

    1. Stoppen Sie alle Java-Prozesse auf dem AIX-System.
    2. Öffnen Sie die Datei "font.properties.ko" in einem Editor. Diese Datei befindet sich im Verzeichnis "Ausgangsverzeichnis/jre/lib", wobei Ausgangsverzeichnis für das Java-Ausgangsverzeichnis steht.
    3. Suchen Sie nach dieser Zeichenfolge:
      -Monotype-TimesNewRomanWT-medium-r-normal
      --*-%d-75-75-*-*-ksc5601.1987-0
    4. Ersetzen Sie alle Vorkommen dieser Zeichenfolge durch Folgendes:
      -Monotype-SansMonoWT-medium-r-normal
      --*-%d-75-75-*-*-ksc5601.1987-0
    5. Speichern Sie die Datei.

    Auf Linux-Systemen

    1. Stoppen Sie alle Java-Prozesse auf dem System.
    2. Öffnen Sie die Datei "font.properties.ko" in einem Editor. Diese Datei befindet sich im Verzeichnis "Ausgangsverzeichnis/jre/lib", wobei Ausgangsverzeichnis für das Java-Ausgangsverzeichnis steht.
    3. Suchen Sie nach dieser Zeichenfolge (ohne Leerzeichen):
      -monotype-timesnewromanwt-medium-r-normal--*-%d-75-75-p-*-microsoft-symbol
    4. Ersetzen Sie alle Vorkommen dieser Zeichenfolge durch Folgendes:
      -monotype-sansmonowt-medium-r-normal--*-%d-75-75-p-*-microsoft-symbol
      
    5. Speichern Sie die Datei.

    Problem: Auf Windows-Systemen wird beim Absetzen von Befehlen wie "hostname" an Stelle der lokalen Adresse die Aliasadresse zurückgegeben

    Wenn Sie auf Windows-Systemen einen Aliasnamen auf dem MS Loopback-Adapter definiert haben und bestimmte Befehle absetzen (z. B. hostname), reagiert das Betriebssystem falsch und gibt an Stelle der lokalen Adresse die Aliasadresse zurück. Dieser Fehler tritt nicht mehr auf, wenn der neu hinzugefügte Aliasname in der Liste der Netzwerkverbindungen unterhalb der lokalen Adresse aufgeführt ist. Dadurch ist sichergestellt, dass vor der Loopback-Aliasadresse auf die lokale Adresse zugegriffen wird.

    Gehen Sie wie folgt vor, um die Liste der Netzwerkverbindungen zu überprüfen:

    1. Klicken Sie auf Start > Einstellungen > Netzwerk- und DFÜ-Verbindungen.
    2. Wählen Sie im Menü Erweitert den Eintrag Erweiterte Einstellungen... aus.
    3. Vergewissern Sie sich, dass unter Verbindungen als erster Eintrag LAN-Verbindung aufgeführt ist.
    4. Verwenden Sie ggf. auf der rechten Seite die Schaltflächen zum Sortieren, um Einträge in der Liste nach oben oder unten zu verschieben.

    Problem: Unerwartetes GUI-Verhalten auf der Windows-Plattform bei Verwendung von Matrox-AGP-Videokarten

    Wenn Sie auf der Windows-Plattform eine Matrox-AGP-Karte verwenden, kann es in der grafischen Benutzerschnittstelle von Load Balancer zu unerwartetem Verhalten kommen. Beim Klicken mit der Maus kann ein Block etwa von der Größe des Mauszeigers beschädigt werden und zur Umkehrung von Hervorhebungen oder zur Verschiebung von Abbildungen führen. Bei älteren Matrox-Karten wurde dieses Verhalten nicht beobachtet. Für Matrox-AGP-Karten gibt es keine bekannte Korrektur.

    Problem: Unerwartetes Verhalten bei Ausführung von "rmmod ibmlb" (Linux-Systeme)

    Wenn dsserver beim manuellen Entfernen des Kernel-Moduls von Load Balancer noch aktiv ist, kann es auf Linux-Systemen zu einem unerwarteten Verhalten kommen. Das System könnte beispielsweise blockieren oder es könnten javacores geschrieben werden. Wenn Sie das Kernel-Modul manuell entfernen möchten, stoppen Sie vorher den dsserver.

    Falls dsserver stop nicht funktioniert, stoppen Sie den Java-Prozess mit "SRV_KNDConfigServer". Stoppen Sie dem Prozess. Stellen Sie dazu mit dem Befehl ps -ef | grep SRV_KNDConfigServer die Prozesskennung des Dienstes fest. Beenden Sie dann den Prozess mit dem Befehl kill Prozess-ID.

    Sie können den Befehl "rmmod ibmlb" sicher ausführen, um das Load-Balancer-Modul aus dem Kernel zu entfernen.

    Problem: Lange Antwortzeiten beim Ausführen von Befehlen auf der Dispatcher-Maschine

    Wenn Sie die Komponente Dispatcher für den Lastausgleich einsetzen, kann der Computer mit Clientdatenverkehr überlastet werden. Das Kernel-Modul von Load Balancer hat die höchste Priorität. Wenn dieses Modul ständig mit der Bearbeitung von Clientpaketen beschäftigt ist, kann der Rest des Systems möglicherweise nicht mehr reagieren. Die Ausführung von Befehlen im Benutzerbereich kann dann sehr lange dauern. Unter Umständen werden die Befehle gar nicht vollständig ausgeführt.

    In einer solchen Situation sollten Sie Ihre Konfiguration neu strukturieren, um eine Überlastung der Load-Balancer-Maschine zu vermeiden. Mögliche Alternativen wären die Verteilung der Last auf mehrere Load-Balancer-Maschinen oder das Ersetzen der Maschine durch einen leistungsstärkeren und schnelleren Computer.

    Wenn Sie untersuchen möchten, ob die langen Antwortzeiten auf ein hohes Clientdatenverkehrsaufkommen zurückzuführen ist, überlegen Sie, ob dieser Zustand auftritt, wenn viel Clientdatenverkehr generiert wird. Dieselben Symptome können durch schlecht konfigurierte Systeme hervorgerufen werden, die Routenschleifen produzieren. Stellen Sie vor dem Ändern der Load-Balancer-Konfiguration fest, ob die Symptome durch eine hohe Clientlast verursacht werden.

    Problem: Bei Verwendung der Weiterleitungsmethode "mac" registriert die Advisor-Funktion SSL oder HTTPS keine Serverlast

    Bei Verwendung der Weiterleitungsmethode "mac" sendet Load Balancer Pakete an die Server und verwendet dabei die Clusteradresse, für die auf der Loopback-Einheit ein Aliasname definiert ist. Einige Serveranwendungen (z. B. SSL) erfordern, dass Konfigurationsdaten (wie Zertifikate) auf den IP-Adressen basieren. Die IP-Adresse muss die Clusteradresse sein, die an der Loopback-Adresse definiert ist. Nur in diesem Fall stimmt sie mit dem Inhalt eingehender Pakete überein. Wird beim Konfigurieren der Serveranwendung nicht die IP-Adresse des Clusters verwendet, kann die Clientanforderung nicht ordnungsgemäß zum Server weitergeleitet werden.

    Problem: Trennen der Hostverbindung bei Änderung des Netscape-Browserfensters in der Webverwaltung

    Wenn Sie Load Balancer mit der fernen Webverwaltung konfigurieren, dürfen Sie nicht die Größe des Netscape-Browserfensters ändern, in dem die Load-Balancer-GUI angezeigt wird. Das heißt, Sie dürfen das Fenster nicht minimieren, maximieren, wiederherstellen usw. Da Netscape bei jeder Größenänderung des Browserfensters die Seite neu lädt, kommt es zu einer Trennung der Hostverbindung, die nach einer solchen Änderung demzufolge neu hergestellt werden muss. Wenn Sie die ferne Webverwaltung auf einer Windows-Plattform ausführen, verwenden Sie Internet Explorer.

    Problem: Bei aktiviertem Socket-Pooling wird der Webserver an 0.0.0.0 gebunden

    Wenn Sie Microsoft IIS Version 5.0 auf Back-End-Servern mit Windows ausführen, müssen Sie Microsoft IIS bindungsspezifisch konfigurieren. Andernfalls ist das Socket-Pooling standardmäßig aktiviert, so dass der Webserver nicht an die virtuellen IP-Adressen gebunden wird, die als mehrere Identitäten der Site konfiguriert wurden, sondern an 0.0.0.0, und somit den gesamten Datenverkehr empfangen kann. Wenn eine Anwendung auf dem lokalen Host bei aktiviertem Socket-Pooling inaktiviert wird, können die Advisor-Funktionen dies auf AIX- oder Windows-ND-Servern erkennen. Wird jedoch eine Anwendung auf einem virtuellen Host inaktiviert, während der lokale Host aktiv bleibt, erkennen die Advisor-Funktionen den Ausfall der Anwendung nicht, so dass Microsoft IIS weiterhin auf den gesamten Datenverkehr reagiert, auch auf den der inaktivierten Anwendung.

    Wenn Sie feststellen möchten, ob das Socket-Pooling aktiviert ist und der Webserver an 0.0.0.0 gebunden wird, setzen Sie den folgenden Befehl ab:

     netstat -an

    Anweisungen für das bindungsspezifische Konfigurieren von Microsoft IIS (Inaktivieren des Socket-Pooling) finden Sie auf der Microsoft-Website für Produktunterstützung. Bei Anzeige der folgenden Informationen können Sie auch den jeweils genannten URL aufrufen:

    IIS5: Hardware Load Balance Does Not Detect a Stopped Web Site (Q300509)
    http://support.microsoft.com/default.aspx?scid=kb;en-us;Q300509

    How to Disable Socket Pooling (Q238131)
    http://support.microsoft.com/default.aspx?scid=kb;en-us;Q238131

    Problem: Auf Windows-Systemen erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1)

    Unter Windows können im Fenster mit der Eingabeaufforderung einige nationale Sonderzeichen der Zeichensatzfamilie Latin-1 beschädigt angezeigt werden. Der Buchstabe "a" mit Tilde kann beispielsweise als Pi-Symbol erscheinen. Zum Korrigieren dieses Fehlers müssen Sie die Schriftarteigenschaften für das Fenster mit der Eingabeaufforderung ändern. Gehen Sie zum Ändern der Schriftart wie folgt vor:

    1. Klicken Sie oben links in der Ecke des Fensters mit der Eingabeaufforderung auf das Symbol.
    2. Wählen Sie "Eigenschaften" aus, und klicken Sie auf das Register "Schriftart".
    3. Die Standardeinstellung für "Schriftart" ist "Rasterschriftarten". Setzen Sie die Schriftart auf "Lucida Console", und klicken Sie auf OK.

    Problem: Java-Fehler unter HP-UX wegen unzureichender Speicherkapazität/Threads

    Einige Installationen von HP-UX 11i sind so vorkonfiguriert, dass nur 64 Threads pro Prozess zulässig sind. Manche Load-Balancer-Konfigurationen erfordern jedoch mehr Threads. Setzen Sie die Anzahl der Threads pro Prozess auf HP-UX-Systemen auf mindestens 256. Verwenden Sie zum Erhöhen dieses Wertes das Dienstprogramm "sam", und definieren Sie den Kernel-Parameter "max_thread_proc" neu. Bei einer erwarteten starken Auslastung, müssen Sie "max_thread_proc" möglicherweise auf einen noch höheren Wert als 256 setzen.

    Gehen Sie zum Erhöhen von max_thread_proc wie folgt vor:

    1. Geben Sie in der Befehlszeile Folgendes ein: sam
    2. Wählen Sie Kernel Configuration > Configurable Parameters aus.
    3. Wählen Sie in der Schiebeleiste max_thread_proc aus.
    4. Drücken Sie die Leertaste, um max_thread_proc hervorzuheben.
    5. Drücken Sie die Tabulatortaste. Drücken Sie dann so oft die Taste mit dem Rechtspfeil, bis Sie die Option Actions ausgewählt haben.
    6. Drücken Sie die Eingabetaste, um das Menü Actions aufzurufen. Geben Sie dann M ein, um die Option "Modify Configurable Parameter" auszuwählen. (Falls diese Option nicht angezeigt wird, heben Sie max_thread_proc hervor.)
    7. Drücken Sie die Tabulatortaste, bis Sie das Feld Formula/Value ausgewählt haben.
    8. Geben Sie 256 oder einen höheren Wert ein.
    9. Klicken Sie auf OK.
    10. Drücken Sie die Tabulatortaste. Wählen Sie dann Actions aus.
    11. Geben Sie K ein, um die Funktion "Process New Kernel" auszuwählen.
    12. Wählen Sie Yes aus.
    13. Führen Sie einen Warmstart des Systems durch.

    Problem: Auf Windows-Systemen markieren Advisor-Funktionen und Erreichbarkeitsziele alle Server als inaktiv

    Wenn Sie Ihren Adapter in einer Load-Balancer-Maschine konfigurieren, müssen Sie für eine fehlerfreie Ausführung der Advisor-Funktion sicherstellen, dass die beiden folgenden Einstellungen richtig definiert sind:

    Problem: Auflösung von IP-Adressen in Hostnamen auf Windows-Systemen, wenn für einen Adapter mehrere Adressen konfiguriert sind

    Wenn Sie auf der Windows-Plattform einen Adapter mit mehreren IP-Adressen konfigurieren, muss die IP-Adresse, die mit dem Hostnamen verbunden werden soll, als erste Adresse in der Registrierungsdatenbank konfiguriert werden.

    Da Load Balancer in vielen Instanzen (z. B. lbkeys create) von InetAddress.getLocalHost() abhängig ist, können mehrere IP-Adressen, die per Aliasname an einen Adapter gebunden sind, zu Fehlern führen. Zur Vermeidung dieses Problems sollten die IP-Adressen, in die der Hostname aufgelöst werden soll, als erste Adressen in der Registrierungsdatenbank aufgelistet sein. Beispiel:

    1. Starten Sie Regedit.
    2. Modifizieren Sie wie folgt die folgenden Wertnamen:
    3. Führen Sie einen Warmstart durch.
    4. Überprüfen Sie, ob der Hostname in die richtige IP-Adresse aufgelöst wird. Verwenden Sie beispielsweise "ping Name_Ihres_Hosts".

    Problem: Advisor-Funktionen können auf Windows-Systemen in einer Konfiguration für hohe Verfügbarkeit nach einem Netzwerkausfall nicht ausgeführt werden

    Wenn das Betriebssystem Windows einen Netzwerkausfall erkennt, löscht es standardmäßig seinen ARP-Cache (Address Resolution Protocol) einschließlich aller statischen Einträge. Ist das Netzwerk wieder verfügbar, wird der ARP-Cache durch die im Netzwerk gesendeten ARP-Anforderungen wieder gefüllt.

    In einer Konfiguration für hohe Verfügbarkeit übernehmen beide Server primäre Operationen, wenn einer der Server oder beide von einem Verlust der Netzkonnektivität betroffen ist/sind. Wird dann die ARP-Anforderung zur erneuten Füllung des ARP-Cache gesendet, antworten beide Server. Deshalb markiert der ARP-Cache den Eintrag als ungültig. Die Advisor-Funktionen können aus diesem Grund keinen Socket zu den Ausweichservern erstellen.

    Dieses Problem lässt sich dadurch lösen, dass das Betriebssystem Windows daran gehindert wird, den ARP-Cache bei einem Konnektivitätsverlust zu löschen. Microsoft hat einen Artikel veröffentlicht, in dem die Ausführung dieser Task erklärt wird. Sie finden diesen Artikel auf der Website von Microsoft unter "Knowledge Base". Der Artikel hat die Nummer 239924 und die Webadresse http://support.microsoft.com/default.aspx?scid=kb;de;239924.

    Hier finden Sie eine Zusammenfassung der im Artikel von Microsoft beschriebenen Schritte, die das System daran hindern sollen, den ARP-Cache zu löschen:

    1. Öffnen Sie die Registrierungsdatenbank mit dem Registrierungseditor (regedit oder regedit32).
    2. Sehen Sie sich den folgenden Schlüssel in der Registrierungsdatenbank an:
      HKEY_LOCAL_MACHINE\System\CurrentControlSet\Services\Tcpip\Parameters
      
    3. Fügen Sie den folgenden Wert zur Registrierungsdatenbank hinzu: Name: DisableDHCPMediaSense Typ: REG_DWORD.
    4. Setzen Sie den Wert des hinzugefügten Schlüssels auf 1.
    5. Führen Sie einen Warmstart der Maschine durch, um die Änderung in Kraft zu setzen.
    Anmerkung:
    Diese Änderung wirkt sich unabhängig von der DHCP-Einstellung auf den ARP-Cache aus.

    Problem: Beim Festlegen von Aliasnamen für mehrere Cluster auf der Loopback-Einheit von Linux-Systemen nicht den Befehl "IP address add" verwenden

    Bei Verwendung von Servern mit dem Linux-Kernel 2.4.x und der Dispatcher-Weiterleitungsmethode "mac" sind mehrere Punkte zu beachten. Wenn der Server mit dem Befehl ip address add eine Clusteradresse auf der Loopback-Einheit konfiguriert hat, kann nur für eine Clusteradresse ein Aliasname festgelegt werden.

    Wenn Sie auf der Loopback-Einheit Aliasnamen für mehrere Cluster festlegen möchten, verwenden den Befehl ifconfig. Beispiel:

    ifconfig lo:Nummer Clusteradresse netmask 255.255.255.255 up 
    

    Zusätzlich ist zu beachten, dass die Konfigurationsmethode "ifconfig" für Schnittstellen nicht vollständig mit der Konfigurationsmethode ip für Schnittstellen kompatibel ist. Deshalb sollte für einen Standort eine Methode ausgewählt und dann ausschließlich angewendet werden.

    Problem: Fehlernachricht "Router-Adresse nicht angegeben oder nicht gültig für Portmethode" erscheint

    Wenn Sie Server zu Ihrer Dispatcher-Konfiguration hinzufügen, kann die Fehlernachricht "Fehler: Router-Adresse nicht angegeben oder nicht gültig für Portmethode" angezeigt werden.

    Bestimmen Sie den Fehler anhand der Prüfliste.

    Der Standardwert für den Parameter "router" ist 0. Dieser Wert gibt an, dass der Server lokal ist. Wenn Sie die Router-Adresse des Servers auf einen Wert ungleich 0 setzen, gibt dieser Wert an, dass es sich um einen fernen Server in einem anderen Teilnetz handelt. Weitere Informationen zum Parameter "router" des Befehls "server add" finden Sie im Abschnitt dscontrol server -- Server konfigurieren.

    Befindet sich der Server, den Sie hinzufügen, in einem anderen Teilnetz, sollte der Parameter "router" auf die Adresse des Routers gesetzt werden, der im lokalen Teilnetz für die Kommunikation mit dem fernen Server verwendet wird.

    Problem: Auf Solaris-Systemen werden Load-Balancer-Prozesse beim Verlassen des Terminalfensters, in dem die Prozesse gestartet wurden, beendet

    Wenn Sie auf Solaris-Systemen Load-Balancer-Scripts (wie dsserver oder lbadmin) in einem Terminalfenster starten, endet der Load-Balancer-Prozess beim Verlassen dieses Fensters.

    Sie können dieses Problem lösen, indem Sie die Load-Balancer-Scripts mit dem Befehl nohup starten. Beispiel: nohup dsserver. Dieser Befehl verhindert, dass die in der Terminalsitzung gestarteten Prozesse beim Beenden des Terminals ein Stoppsignal empfangen, so dass die Prozesse nach Beendigung der Terminalsitzung weiter ausgeführt werden können. Geben Sie den Befehl nohup vor allen Load-Balancer-Scripts an, die nach dem Ende einer Terminalsitzung weiter verarbeitet werden sollen.

    Problem: Verzögerung beim Laden einer Load-Balancer-Konfiguration

    Das Laden einer Load-Balancer-Konfiguration kann aufgrund von DNS-Aufrufen (Domain Name System), die abgesetzt werden, um die Serveradresse aufzulösen und zu prüfen, sehr lange dauern.

    Falls der DNS der Load-Balancer-Maschine falsch konfiguriert ist oder DNS generell viel Zeit benötigt, verlangsamt sich das Laden der Konfiguration, weil Java DNS-Anforderungen im Netz sendet.

    Sie können dieses Problem umgehen, indem Sie die Serveradressen und Hostnamen zu Ihrer lokalen Datei /etc/hosts hinzufügen.

    Problem: Fehlernachricht zu einem IP-Adressenkonflikt auf Windows-Systemen

    Wenn die hohe Verfügbarkeit konfiguriert ist, können für einen kurzen Zeitraum Clusteradressen auf beiden Maschinen konfiguriert sein. Dies führt zu der Fehlernachricht, dass ein IP-Adressenkonflikt mit einem anderem System im Netz vorliegt. Sie können diese Nachricht ignorieren. Es ist möglich, dass eine Clusteradresse für kurze Zeit gleichzeitig auf beiden Maschinen mit hoher Verfügbarkeit konfiguriert ist. Dies gilt insbesondere während des Starts einer der Maschinen oder bei Einleitung einer Aufgabenübernahme.

    Überprüfen Sie, ob die Clusteradressen in den go*-Scripts korrekt konfiguriert bzw. dekonfiguriert sind. Wenn Sie eine Konfigurationsdatei aufgerufen und go*-Scripts installiert haben, vergewissern Sie sich, dass Ihre Konfigurationsdatei für Clusteradressen keinen Befehl "executor configure" enthält, da dies zu Konflikten mit den Befehlen "configure" und "unconfigure" in den go*-Scripts führt.

    Weitere Informationen zu go*-Scripts beim Konfigurieren der hohen Verfügbarkeit finden Sie im Abschnitt Scripts verwenden.

    Problem: In einer Konfiguration mit hoher Verfügbarkeit sind sowohl primäre Maschinen als auch Ausweichmaschinen aktiv

    Dieses Problem kann auftreten, wenn die go-Scripts weder auf der primären Maschine noch auf der Ausweichmaschine ausgeführt werden. Die go-Scripts können nicht ausgeführt werden, wenn dsserver nicht auf beiden Maschinen gestartet wurde. Überprüfen Sie beide Maschinen und vergewissern Sie sich, dass dsserver aktiv ist.

    Problem: Clientanforderungen scheitern, wenn die Rückgabe von Antworten in Form großer Seiten versucht wird

    Clientanforderungen, die zu Antworten in Form großer Seiten führen, überschreiten das Zeitlimit, wenn die maximale Übertragungseinheit (MTU, Maximum Transmit Unit) auf der Dispatcher-Maschine nicht ordnungsgemäß gesetzt ist. Dieser Fehler kann bei den Weiterleitungsmethoden cbr und nat der Dispatcher-Komponente auftreten, wenn der Dispatcher den MTU-Wert nicht aushandelt, sonder den Standardwert für die MTU verwendet.

    Die MTU wird unter jedem Betriebssystem ausgehend vom Typ des Übertragungsmediums (z. B. Ethernet oder Token-Ring) festgelegt. Für Router des lokalen Segments kann eine kleinere MTU definiert sein, wenn sie eine Verbindung zu einem Übertragungsmedium eines anderen Typs herstellen. Bei normalem TCP-Datenverkehr wird die MTU beim Aufbau der Verbindung ausgehandelt. Für die Übertragung der Daten zwischen den Maschinen wird dann die kleinste MTU verwendet.

    Der Dispatcher unterstützt das Aushandeln der MTU nicht für die Weiterleitungsmethoden cbr und nat, weil er an TCP-Verbindungen aktiv als Endpunkt beteiligt ist. Für die Weiterleitungsmethoden cbr und nat verwendet der Dispatcher standardmäßig den MTU-Wert 1500. Dieser Wert ist die typische MTU-Größe für Standard-Ethernet und muss daher von den meisten Kunden nicht angepasst werden.

    Wenn Sie mit der Dispatcher-Weiterleitungsmethode "cbr" oder "nat" arbeiten und zum lokalen Segment einen Router mit einer kleineren MTU verwenden, müssen Sie die MTU auf der Dispatcher-Maschine auf diesen niedrigeren MTU-Wert setzen.

    Verwenden Sie zur Lösung dieses Problems den folgenden Befehl, um die maximale Segmentgröße (mss) zu setzen: dscontrol executor set mss neuer_Wert

    Beispiel:

    dscontrol executor set mss 1400 
    

    Der Standardwert für mss ist 1460.

    Die Einstellung mss gilt nicht für die Dispatcher-Weiterleitungsmethode "mac" oder für eine andere Komponente von Load Balancer. Sie wird nur auf die Komponente Dispatcher angewendet.

    Auf Windows-Systemen wird beim Absetzen eines Befehls dscontrol oder lbadmin der Fehler "Der Server antwortet nicht" angezeigt

    Wenn es auf einem Windows-System mehrere IP-Adressen gibt und die Datei hosts nicht angibt, welche Adresse dem Hostnamen zugeordnet werden soll, wählt das Betriebssystem die kleinste Adresse aus und ordnet sie dem Hostnamen zu.

    Sie können dieses Problem lösen, indem Sie die Datei c:\Windows\system32\drivers\etc\hosts aktualisieren. Geben Sie den Hostnamen Ihrer Maschine an und die IP-Adresse, die Sie dem Hostnamen zuordnen möchten.

    Wichtiger Hinweis: Die IP-Adresse darf keine Clusteradresse sein.

    Problem: Dispatcher-Maschinen mit hoher Verfügbarkeit können unter Linux auf S/390 mit qeth-Treibern möglicherweise nicht synchronisiert werden

    Wenn Sie unter Linux für S/390 mit dem qeth-Netztreiber die hohe Verfügbarkeit verwenden, können der aktive Dispatcher und der Bereitschafts-Dispatcher unter Umständen nicht synchronisiert werden. Dieses Problem könnte auf den Linux-Kernel 2.6 beschränkt sein.

    Sollte dieses Problem auftreten, können Sie wie folgt vorgehen:

    Definieren Sie zwischen den Images des aktiven Dispatchers und des Bereitschafts-Dispatchers ein CTC-Netz (Channel-to-Channel) und fügen Sie zwischen den IP-Adressen der beiden CTC-Endpunkte ein Überwachungssignal hinzu.

    Problem: Konfigurationstipps für hohe Verfügbarkeit

    Wenn Sie die Load-Balancer-Funktion für hohe Verfügbarkeit verwenden, kann eine Partnermaschine den Lastausgleich übernehmen, falls der primäre Partner ausfällt oder heruntergefahren wird. Für die Aufrechterhaltung der Verbindungen zwischen den Partnern mit hoher Verfügbarkeit werden zwischen den beiden Maschinen Verbindungssätze übergeben. Wenn der Ausweichpartner die Lastausgleichsfunktion übernimmt, wird die Cluster-IP-Adresse von der Ausweichmaschine entfernt und zur neuen primären Maschine hinzugefügt. Diese Übernahmeoperation kann durch diverse Aspekte der Ablaufsteuerung und der Konfiguration beeinflusst werden.

    Mit den in diesem Abschnitt aufgeführten Tipps können Sie die Auswirkungen von Problemen mindern, die sich aus der Konfiguration der hohen Verfügbarkeit ergeben. Es kann sich unter anderem um folgende Probleme handeln:

    Die folgenden Tipps sind hilfreich für eine erfolgreiche Konfiguration der hohen Verfügbarkeit auf Ihren Load-Balancer-Maschinen.

    Anmerkung:
    Weitere Informationen zum Konfigurieren der hohen Verfügbarkeit finden Sie im Abschnitt Hohe Verfügbarkeit.

    Problem: Einschränkungen für die Dispatcher-Konfiguration unter Linux auf zSeries- oder S/390-Servern mit OSA-Karten

    Wenn Sie die Weiterleitungsmethode "mac" verwenden, müssen sich die Server der Load-Balancer-Konfiguration generell und unabhängig von der Plattform in einem Netzsegment befinden. Aktive Netzeinheiten wie Router, Brücken und Firewalls behindern Load Balancer. Dies liegt daran, dass Load Balancer wie ein spezialisierter Router funktioniert, der nur die Header der Verbindungsschicht für seinen nächsten und letzten Hop modifiziert. Jede Netztopologie, bei der der nächste Hop nicht der letzte Hop ist, ist für Load Balancer nicht gültig.

    Anmerkung:
    Tunnel wie CTC (Channel-To-Channel) oder IUCV (Inter-User Communication Vehicle) werden oft unterstützt. Die Weiterleitung von Load Balancer muss jedoch durch den Tunnel direkt zum Zielort erfolgen. Es darf sich nicht um einen Tunnel zwischen Netzen handeln.

    Für zSeries- und S/390-Server, die die OSA-Karte gemeinsam nutzen, gibt es eine Einschränkung, weil dieser Adapter anders als die meisten Netzkarten funktioniert. Die OSA-Karte hat eine eigene virtuelle Implementierung der Verbindungsschicht, die nichts mit dem Ethernet zu tun hat, das sich den Linux- und z/OS-Hosts präsentiert. Die Verbindung über eine OSA-Karte sieht tatsächlich wie eine Verbindung zwischen Ethernet-Hosts (und nicht wie eine Verbindung zu OSA-Hosts) aus, und die Hosts, die eine solche Karte verwenden, behandeln sie wie eine Ethernet-Karte.

    Die OSA-Karte führt auch einige Funktionen mit direktem Bezug zur IP-Schicht aus. Eine ihrer Funktionen ist beispielsweise die Beantwortung von ARP-Anforderungen (Address Resolution Protocol). Außerdem leitet die gemeinsam genutzte OSA-Karte IP-Pakete ausgehend von der Ziel-IP-Adresse weiter und nicht wie ein Switch der Schicht 2 ausgehend von der Ethernet-Adresse. Eigentlich ist die OSA-Karte ein Netzsegment mit einer Brücke zu sich selbst.

    Wird Load Balancer auf einem S/390- oder zSeries-Host mit Linux ausgeführt, können Pakete an Hosts mit derselben OSA-Karte oder an Hosts im Ethernet weitergeleitet werden. Alle Hosts, die dieselbe OSA-Karte gemeinsam benutzen, befinden sich effektiv im selben Segment.

    Die Natur der OSA-Brücke versetzt Load Balancer in die Lage, Pakete aus dem Bereich der gemeinsam benutzten OSA-Karte hinaus weiterzuleiten. Der Brücke ist der OSA-Port bekannt, der Eigner der Cluster-IP-Adresse ist. Außerdem kennt die Brücke die MAC-Adresse von Hosts, die direkt mit dem Ethernet-Segment verbunden sind. Deshalb kann Load Balancer über eine OSA-Brücke Datenpakete mit der Weiterleitungsmethode "mac" weiterleiten.

    In den Bereich einer gemeinsam genutzten OSA-Karte hinein kann Load Balancer jedoch keine Daten weiterleiten. Dies gilt auch für Load Balancer auf einem S/390 mit Linux, wenn der Back-End-Server eine andere OSA-Karte als Load Balancer verwendet. Die OSA-Karte für den Back-End-Server macht die OSA-MAC-Adresse für die Server-IP-Adresse zugänglich. Wenn jedoch ein Paket mit der Ethernet-Zieladresse der Server-OSA-Karte und der IP-Adresse des Clusters ankommt, weiß die OSA-Karte des Servers nicht, welche Hosts das Paket ggf. empfangen sollten. Die Prinzipien, die zwischen OSA und Ethernet eine Weiterleitung mit der Methode "mac" bei einer gemeinsam benutzten OSA-Karte möglich machen, gelten nicht, wenn versucht wird, Daten in den Bereich einer gemeinsam genutzten OSA-Karte hinein weiterzuleiten.

    Problemumgehung:

    In Load-Balancer-Konfigurationen mit zSeries- oder S/390-Servern, die OSA-Karten enthalten, gibt es zwei Möglichkeiten, das oben beschriebene Problem zu umgehen.

    1. Verwendung von Plattformfeatures

      Falls die Server der Load-Balancer-Konfiguration denselben zSeries- oder S/390-Plattformtyp haben, können Sie zwischen Load Balancer und den einzelnen Servern Punkt-zu-Punkt-Verbindungen (CTC oder IUCV) definieren. Konfigurieren Sie die Endpunkte mit privaten IP-Adressen. Die Punkt-zu-Punkt-Verbindung wird nur für den Datenverkehr zwischen Load Balancer und dem jeweiligen Server verwendet. Fügen Sie dann die Server mit der IP-Adresse des Serverendpunkts für den Tunnel hinzu. Bei dieser Konfiguration fließt der Clusterdatenverkehr über die OSA-Karte von Load Balancer und wird über die Punkt-zu-Punkt-Verbindung weitergeleitet. Der Server antwortet dann über seine eigene Standardroute. Die Antwort wird über die OSA-Karte des Servers abgesetzt. Dabei muss es sich nicht um dieselbe Karte handeln.

    2. Verwendung des GRE-Features von Load Balancer

      Falls die Server der Load-Balancer-Konfiguration nicht denselben zSeries- oder S/390-Plattformtyp haben oder keine Punkt-zu-Punkt-Verbindung zwischen Load Balancer und den einzelnen Servern definiert werden kann, sollten Sie das Load-Balancer-Feature Generic Routing Encapsulation (GRE) verwenden. GRE ist ein Protokoll, mit dem Load Balancer Daten über Router weiterleiten kann.

      Wenn Sie GRE verwenden, wird das vom Client an die Cluster-IP-Adresse von Load Balancer gekapselt empfangen und an den Server gesendet. Auf dem Server wird das ursprüngliche Paket von Client an die Cluster-IP-Adresse entkapselt, und der Server antwortet dem Client direkt. Der Vorteil der Verwendung von GRE besteht darin, dass Load Balancer nur den Datenverkehr vom Client zum Server sieht, nicht aber den Datenverkehr vom Server zum Client. Der Nachteil ist, dass GRE durch den Kapselungsaufwand die maximale Segmentgröße der TCP-Verbindung herabsetzt.

      Wenn Sie die Load-Balancer-Weiterleitung mit GRE konfigurieren möchten, fügen Sie die Server mit dem folgenden Befehl hinzu:

      dscontrol server add Clusteradresse:Port:Back-End-Server router Back-End-Server
      

      Die Angabe "router Back-End-Server" ist gültig, wenn sich Load Balancer und der Back-End-Server in demselben IP-Teilnetz befinden. Geben Sie andernfalls die gültige IP-Adresse des nächsten Hop als Router an.

      Wenn Sie Linux-Systeme für natives GRE konfigurieren möchten, setzen Sie für jeden Back-End-Server die folgenden Befehle ab:

      modprobe ip_gre 
      ip tunnel add grelb0 mode gre ikey 3735928559 
      ip link set grelb0 up 
      ip addr add Clusteradresse dev grelb0
      Anmerkung:
      Definieren Sie auf der Loopback-Einheit der Back-End-Server nicht die Clusteradresse. Wenn Sie z/OS-Back-End-Server verwenden, müssen Sie die Server mit z/OS-Befehlen für GRE konfigurieren.

    Problem: Speicherverlust unter einigen Linux-Versionen bei Ausführung von Dispatcher mit Manager und Advisor-Funktionen

    Wenn Sie Load Balancer konfiguriert mit Manager und Advisor-Funktionen ausführen, kann es bei einigen Read-Hat-Linux-Versionen zu großen Speicherverlusten kommen. Der Java-Speicherverlust nimmt noch zu, wenn Sie für die Advisor-Funktion ein kleines Zeitintervall konfigurieren.

    Die JVM-Versionen des IBM Java SDK und die im Lieferumfang einiger Linux-Distributionen (z. B. Red Hat Enterprise Linux 3.0) enthaltene NPTL (Native POSIX Thread Library) können den Speicherverlust verursachen.

    Die aktuellsten Informationen zu Linux-Systemen und zu dem mitgelieferten IBM Java SDK finden Sie unter http://www.ibm.com/developerworks/java/jdk/linux/tested.html.

    Zur Fehlerbestimmung können Sie den Befehl vmstat oder ps verwenden, mit dem Speicherverluste festgestellt werden können.

    Zum Korrigieren des Speicherverlustes müssen Sie den folgenden Befehl zum Inaktivieren der NPTL absetzen, bevor die Load-Balancer-Maschine aktiv ist:

    export LD_ASSUME_KERNEL=2.4.10
    

    Problem: Unter SUSE Linux Enterprise Server 9 leitet Dispatcher Pakete weiter, die den Back-End-Server jedoch nicht erreichen

    Wenn Sie unter Suse Linux Enterprise Server 9 die Weiterleitungsmethode "mac" verwenden, kann der Dispatcher-Bericht angeben, dass das Paket weitergeleitet wurde (steigende Paketanzahl), obwohl das Paket den Back-End-Server nie erreicht.

    Wenn dieses Problem auftritt, lässt sich unter Umständen Folgendes beobachten:

    Dieses Problem kann wegen des geladenen NAT-Moduls von iptables auftreten. Unter SLES 9 gibt es in dieser Version von iptables möglicherweise einen (noch nicht nachgewiesenen) Fehler, der bei der Interaktion mit Dispatcher ein seltsames Verhalten auslöst.

    Lösung:

    Entladen Sie das NAT-Modul und das Connection-Tracking-Modul von iptables.

    Beispiel:

    # lsmod | grep ip
            iptable_filter          3072  0
            iptable_nat            22060  0
            ip_conntrack           32560  1 iptable_nat
            ip_tables              17280  2 
    iptable_filter,iptable_nat
            ipv6                  236800  19
            # rmmod iptable_nat
            # rmmod ip_conntrack 
    

    Entfernen Sie die Module in der Reihenfolge, in der sie verwendet werden. Ein Modul kann nur dann entfernt werden, wenn die Referenzanzahl (letzte Spalte der lsmod-Ausgabe) null ist. Falls Sie in iptables Regeln konfiguriert haben, müssen Sie diese entfernen. Beispiel: iptables -t nat -F

    Das Modul iptable_nat verwendet ip_conntrack. Sie müssen demzufolge erst das Modul iptable_nat und dann das Modul ip_conntrack entfernen.

    Anmerkung:
    Sobald Sie versuchen, die für eine Tabelle konfigurierten Regeln aufzulisten, wird das entsprechende Modul geladen. Beispiel: iptables -t nat -L. Stellen Sie sicher, dass solche Befehle nicht verwendet werden, nachdem Sie die Module entfernt haben.

    Problem: Fehlernachricht zu einem IP-Adressenkonflikt auf Windows-Systemen während der Funktionsübernahme bei hoher Verfügbarkeit

    Wenn Sie auf Windows-Systemen das Load-Balancer-Feature für hohe Verfügbarkeit ausführen, werden goScripts verwendet, um bei einer Funktionsübernahme die Cluster-IP-Adresse des aktiven Load Balancer zu konfigurieren und die Cluster-IP-Adresse des Ausweichsystems aus der Konfiguration zu entfernen. Wenn das goScript, das die Cluster-IP-Adresse auf der aktiven Maschine konfiguriert, vor dem goScript ausgeführt wird, das die Cluster-IP-Adresse der Ausweichmaschine aus der Konfiguration entfernt, kann es zu Problemen kommen. Unter Umständen erscheint ein Dialogfenster mit einer Nachricht, dass das System einen IP-Adressenkonflikt festgestellt hat. Wenn Sie den Befehl ipconfig \all ausführen, kann auch eine IP-Adresse 0.0.0.0 auf der Maschine angezeigt werden.

    Lösung:

    Setzen Sie den folgenden Befehl ab, um die Cluster-IP-Adresse der primären Maschine manuell aus der Konfiguration zu entfernen:

    dscontrol executor unconfigure Cluster-IP-Adresse

    Dieser Befehl entfernt die Adresse 0.0.0.0 aus dem Windows-IP-Stack.

    Nachdem der Partner für hohe Verfügbarkeit die Cluster-IP-Adresse abgegeben hat, setzen Sie den folgenden Befehl ab, um die Cluster-IP-Adresse erneut hinzuzufügen:

    dscontrol executor configure Cluster-IP-Adresse

    Überprüfen Sie nach dem Absetzen dieses Befehls erneut die Cluster-IP-Adressen im Windows-IP-Stack. Setzen Sie dazu folgenden Befehl ab:

    ipconfig /all
    

    Problem: Mögliche Störung der Paketweiterleitung durch iptables unter Linux

    Unter Linux kann iptables den Lastausgleich für den Datenverkehr stören und muss auf der Dispatcher-Maschine inaktiviert werden.

    Setzen Sie den folgenden Befehl ab, um festzustellen, ob iptables geladen werden:

    lsmod | grep ip_tables

    Die Ausgabe dieses Befehls kann so ähnlich wie die folgende aussehen:

    ip_tables         22400   3
    iptable_mangle,iptable_nat,iptable_filter

    Setzen Sie für jede in der Ausgabe aufgelistete iptable den folgenden Befehl ab, um die Regeln für die Tabellen anzuzeigen:

    iptables -t <Kurzname> -L

    Beispiel:

    iptables -t mangle -L 
    iptables -t nat    -L
    iptables -t filter -L 
    

    Wenn die Tabelle iptable_nat geladen ist, muss sie entladen werden. Da iptable_nat von iptable_conntrack abhängig ist, muss iptable_conntrack ebenfalls entfernt werden. Setzen Sie zum Entladen dieser beiden iptables den folgenden Befehl ab:

    rmmod iptable_nat iptable_conntrack

    Java-Warnung bei Installation von Servicekorrekturen

    Bei der Produktinstallation von Load Balancer wird auch eine Java-Dateigruppe installiert. Die Produktinstallation umfasst mehrere Pakete, die nicht auf derselben Maschine installiert werden müssen. Dazu gehören unter anderem das Paket mit Metric Server, das Administrationspaket und das Basispaket. Alle diese Codepakete, die auf gesonderten Maschinen installiert werden können, erfordern eine Java-Dateigruppe. Deshalb wird zusammen mit jedem dieser Pakete eine Java-Dateigruppe installiert. Werden die Pakete auf derselben Maschine installiert, ist jede dieser Dateigruppen Eigner der Java-Dateigruppe. Wenn Sie die zweite und dritte Java-Dateigruppe installieren, empfangen Sie eine Warnung, dass noch eine weitere Dateigruppe Eigner der Java-Dateigruppe ist.

    Wenn Sie Code mit den nativen Installationsmethoden installieren (unter AIX beispielsweise mit installp), sollten Sie diese Warnung ignorieren.

    Upgrade der Java-Dateigruppe einer Load-Balancer-Installation

    Während der Installation von Load Balancer wird auch eine Java-Dateigruppe installiert. Load Balancer ist die einzige Anwendung, die die zusammen mit dem Produkt installierte Java-Version verwendet. Sie sollten diese Version der Java-Dateigruppe nicht selbst aktualisieren. Falls ein Problem auftritt, das ein Upgrade der Java-Dateigruppe erforderlich macht, sollten Sie es dem IBM Service melden, damit für die im Lieferumfang von Load Balancer enthaltene Java-Dateigruppe eine offizielle Fixversion mit einem Upgrade bereitgestellt werden kann.

    Problem: Persistente Verbindungen können bei der Übernahme für hohe Verfügbarkeit unterbrochen werden

    Unter dem Betriebssystem Microsoft Windows können persistente Verbindungen bei der Übernahme für hohe Verfügbarkeit unterbrochen werden. Dieses Problem tritt nur auf, wenn Sie einen kollokierten Server haben, der die Weiterleitungsmethode MAC verwendet.

    Wenn die Cluster-IP-Adresse gelöscht wird (über die Ethernet- oder die Loopback-Schnittstelle), werden alle Verbindungen an dieser IP-Adresse freigegeben. Wenn das Betriebssystem ein Paket in einer Verbindung empfängt, die freigegeben wurde, sendet es eine RST-Antwort an den Client zurück, und die Verbindung wird beendet.

    Wenn die Unterbrechung von Verbindungen während der Übernahme für hohe Verfügbarkeit nicht tolerierbar ist, dürfen Sie unter dem Betriebssystem Windows keinen kollokierten Server verwenden, wenn Sie die Weiterleitungsmethode MAC verwenden.

    Problem: Bei der Installation von WebSphere Edge Server mit ./install unter dem 32-Bit-Betriebssystem Linux für zSeries wird die Nachricht "JVM nicht gefunden" ausgegeben.

    Dieses Problem ist auf eine Einschränkung des Edge-Installationsprogramms unter dem 32-Bit-Betriebssystem Linux für zSeries zurückzuführen.

    Sie können dieses Problem umgehen, indem Sie unter dem 32-Bit-Betriebssystem Linux für zSeries eine manuelle Installation durchführen. Weitere Informationen finden Sie im Abschnitt Installation auf Linux-Systemen.

    Problem: Der Deinstallationsprozess für WebSphere Edge Server blockiert unter dem Betriebssystem Linux.

    Dieses Problem ist auf eine Einschränkung des Edge-Installationsprogramms unter dem Betriebssystem Linux zurückzuführen.

    Wenn Sie WebSphere Edge Server unter dem Betriebssystem Linux deinstallieren möchten, müssen Sie das Produkt manuell deinstallieren. Zum Deinstallieren des vollständigen Produkts geben Sie den Befehl rpm -e "rpm -qa | grep ibmlb" ein.

    Zum Deinstallieren eines einzelnen Pakets geben Sie den Befehl rpm -e <Paketname> ein. Die Paketnamen sind im Abschnitt Installation auf Linux-Systemen aufgelistet. Sie müssen die Pakete in der umgekehrten Reihenfolge, in der sie installiert wurden, deinstallieren.


    Allgemeine Probleme lösen -- CBR

    Problem: CBR wird nicht ausgeführt

    Dieses Problem kann auftreten, wenn eine andere Anwendung einen der Ports benutzt, die von CBR verwendet werden. Weitere Informationen finden Sie im Abschnitt Portnummern für CBR überprüfen.

    Problem: Der Befehl "cbrcontrol" oder "lbadmin" scheitert

    1. Der Befehl "cbrcontrol" gibt die Nachricht Fehler: Server antwortet nicht zurück, oder der Befehl lbadmin gibt die Nachricht Fehler: Zugriff auf RMI-Server nicht möglich zurück. Diese Fehler können auftreten, wenn der Stack Ihrer Maschine SOCKSifiziert ist. Lösen Sie dieses Problem, indem Sie die Datei "socks.cnf" so editieren, dass sie die folgenden Zeilen enthält:
      EXCLUDE-MODULE java
      EXCLUDE-MODULE javaw
    2. Die Verwaltungskonsolen für Load-Balancer-Schnittstellen (Befehlszeile, grafische Benutzerschnittstelle und Assistenten) kommunizieren per RMI (Remote Method Invocation) mit cbrserver. Für die Standardkommunikation werden drei Ports verwendet, die im Startscript für cbrserver wie folgt definiert sind:

      Diese Definition kann Fehler verursachen, wenn eine der Verwaltungskonsolen auf derselben Maschine als Firewall oder über eine Firewall ausgeführt wird. Wird beispielsweise Load Balancer auf derselben Maschine als Firewall ausgeführt, können beim Absetzen von cbrcontrol-Befehlen Fehler wie der folgende angezeigt werden: Fehler: Server antwortet nicht.

      Sie können diesen Fehler vermeiden, indem Sie die cbrserver-Scriptdatei editieren und den von RMI für die Firewall (oder eine andere Anwendung) verwendeten Port festlegen. Ändern Sie die Zeile LB_RMISERVERPORT=11199 in LB_RMISERVERPORT=Ihr_Port. Ihr_Port ist ein anderer Port.

      Starten Sie anschließend erneut cbrserver und öffnen Sie den Datenverkehr für die Ports 11099, 10004, 11199 und 11100 oder für den Port, den Sie für die Hostadresse, an der die Verwaltungskonsole ausgeführt wird, ausgewählt haben.

    3. Derartige Fehler können auch auftreten, wenn Sie cbrserver noch nicht gestartet haben.

    Problem: Anforderungen werden nicht verteilt

    Anforderungen werden nicht verteilt, obwohl Caching Proxy und CBR gestartet wurden. Dieser Fehler kann auftreten, wenn Sie Caching Proxy vor dem Executor starten. Ist dies der Fall, enthält das Protokoll stderr für Caching Proxy die Fehlernachricht "ndServerInit: Keine Verbindung zum Executor möglich". Vermeiden Sie dieses Problem, indem Sie den Executor vor Caching Proxy starten.

    Problem: Auf Solaris-Systemen scheitert der Befehl "cbrcontrol executor start"

    Auf Solaris-Systemen gibt der Befehl cbrcontrol executor start die Nachricht "Fehler: Executor wurde nicht gestartet" zurück. Dieser Fehler tritt auf, wenn Sie die prozessübergreifende Kommunikation (IPC, Inter-Process Communication) für das System nicht so konfigurieren, dass die maximale Größe eines gemeinsam benutzten Speichersegments und die Anzahl der gemeinsam benutzten Semaphor-IDs über dem Standardwert des Betriebssystems liegen. Wenn Sie das gemeinsam benutzte Speichersegment vergrößern und die Anzahl der gemeinsam benutzten Semaphor-IDs erhöhen möchten, müssen Sie die Datei /etc/system editieren. Weitere Informationen zur Konfiguration dieser Datei finden Sie unter ***.

    Problem: Syntax- oder Konfigurationsfehler

    Wenn der URL nicht funktioniert, kann dies an einem Syntax- oder Konfigurationsfehler liegen. Überprüfen Sie bei diesem Problem Folgendes:

    Problem: Unerwartetes GUI-Verhalten auf der Windows-Plattform bei Verwendung von Matrox-AGP-Videokarten

    Wenn Sie auf der Windows-Plattform eine Matrox-AGP-Karte verwenden, kann es in der grafischen Benutzerschnittstelle von Load Balancer zu unerwartetem Verhalten kommen. Beim Klicken mit der Maus kann ein Block etwa von der Größe des Mauszeigers beschädigt werden und zur Umkehrung von Hervorhebungen oder zur Verschiebung von Abbildungen führen. Bei älteren Matrox-Karten wurde dieses Verhalten nicht beobachtet. Für Matrox-AGP-Karten gibt es keine bekannte Korrektur.

    Problem: Trennen der Hostverbindung bei Änderung des Netscape-Browserfensters in der Webverwaltung

    Wenn Sie Load Balancer mit der fernen Webverwaltung konfigurieren, dürfen Sie nicht die Größe des Netscape-Browserfensters ändern, in dem die Load-Balancer-GUI angezeigt wird. Das heißt, Sie dürfen das Fenster nicht minimieren, maximieren, wiederherstellen usw. Da Netscape bei jeder Größenänderung des Browserfensters die Seite neu lädt, kommt es zu einer Trennung der Hostverbindung, die nach einer solchen Änderung demzufolge neu hergestellt werden muss. Wenn Sie die ferne Webverwaltung auf einer Windows-Plattform ausführen, verwenden Sie Internet Explorer.

    Problem: Auf der Windows-Plattform erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1)

    Unter Windows können im Fenster mit der Eingabeaufforderung einige nationale Sonderzeichen der Zeichensatzfamilie Latin-1 beschädigt angezeigt werden. Der Buchstabe "a" mit Tilde kann beispielsweise als Pi-Symbol erscheinen. Zum Korrigieren dieses Fehlers müssen Sie die Schriftarteigenschaften für das Fenster mit der Eingabeaufforderung ändern. Gehen Sie zum Ändern der Schriftart wie folgt vor:

    1. Klicken Sie oben links in der Ecke des Fensters mit der Eingabeaufforderung auf das Symbol.
    2. Wählen Sie "Eigenschaften" aus, und klicken Sie auf das Register "Schriftart".
    3. Die Standardeinstellung für "Schriftart" ist "Rasterschriftarten". Setzen Sie die Schriftart auf "Lucida Console", und klicken Sie auf OK.

    Problem: Java-Fehler unter HP-UX wegen unzureichender Speicherkapazität/Threads

    Einige Installationen von HP-UX 11i sind so vorkonfiguriert, dass nur 64 Threads pro Prozess zulässig sind. Manche Load-Balancer-Konfigurationen erfordern jedoch mehr Threads. Setzen Sie die Anzahl der Threads pro Prozess auf HP-UX-Systemen auf mindestens 256. Verwenden Sie zum Erhöhen dieses Wertes das Dienstprogramm "sam", und definieren Sie den Kernel-Parameter "max_thread_proc" neu. Bei einer erwarteten starken Auslastung, müssen Sie "max_thread_proc" möglicherweise auf einen noch höheren Wert als 256 setzen.

    Führen Sie zum Erhöhen von max_thread_proc die Schritte auf Seite *** aus.

    Problem: Auf Windows-Systemen markieren Advisor-Funktionen und Erreichbarkeitsziele alle Server als inaktiv

    Wenn Sie Ihren Adapter in einer Load-Balancer-Maschine konfigurieren, müssen Sie für eine fehlerfreie Ausführung der Advisor-Funktion sicherstellen, dass die beiden folgenden Einstellungen richtig definiert sind:

    Anweisungen für das Konfigurieren dieser Einstellung finden Sie auf Seite ***.

    Problem: Auflösung von IP-Adressen in Hostnamen auf Windows-Systemen, wenn für einen Adapter mehrere Adressen konfiguriert sind

    Wenn Sie auf der Windows-Plattform einen Adapter mit mehreren IP-Adressen konfigurieren, muss die IP-Adresse, die mit dem Hostnamen verbunden werden soll, als erste Adresse in der Registrierungsdatenbank konfiguriert werden.

    Da Load Balancer in vielen Instanzen (z. B. lbkeys create) von InetAddress.getLocalHost() abhängig ist, können mehrere IP-Adressen, die per Aliasname an einen Adapter gebunden sind, zu Fehlern führen. Zur Vermeidung dieses Problems sollten die IP-Adressen, in die der Hostname aufgelöst werden soll, als erste Adressen in der Registrierungsdatenbank aufgelistet sein.

    Die Schritte für das Konfigurieren des Hostnamens als ersten Eintrag in der Registrierungsdatenbank sind auf Seite *** beschrieben.


    Allgemeine Probleme lösen -- Site Selector

    Problem: Site Selector wird nicht ausgeführt

    Dieses Problem kann auftreten, wenn eine andere Anwendung einen der Ports benutzt, die von Site Selector verwendet werden. Weitere Informationen finden Sie im Abschnitt Portnummern für Site Selector überprüfen.

    Problem: Site Selector verteilt den Datenverkehr von Solaris-Clients nicht nach der Round-Robin-Methode

    Symptom: Site Selector gewichtet von Solaris-Clients eingehende Anforderungen nicht nach der Round-Robin-Methode.

    Mögliche Ursache: Solaris-Systeme führen einen Namensservice-Cache-Dämon aus. Wenn dieser Dämon aktiv ist, wird die nächste Anfrage aus diesem Cache beantwortet, ohne dass Site Selector abgefragt wird.

    Lösung: Inaktivieren Sie den Namensserver-Cache-Dämon auf der Solaris-Maschine.

    Problem: Der Befehl "sscontrol" oder "lbadmin "scheitert

    1. Der Befehl "sscontrol" gibt die Nachricht Fehler: Server antwortet nicht zurück, oder der Befehl lbadmin gibt die Nachricht Fehler: Zugriff auf RMI-Server nicht möglich zurück. Diese Fehler können auftreten, wenn der Stack Ihrer Maschine SOCKSifiziert ist. Lösen Sie dieses Problem, indem Sie die Datei "socks.cnf" so editieren, dass sie die folgenden Zeilen enthält:
      EXCLUDE-MODULE java
      EXCLUDE-MODULE javaw
    2. Die Verwaltungskonsolen für Load-Balancer-Schnittstellen (Befehlszeile, grafische Benutzerschnittstelle und Assistenten) kommunizieren per RMI (Remote Method Invocation) mit ssserver. Für die Standardkommunikation werden drei Ports verwendet, die im Startscript für ssserver wie folgt definiert sind:

      Diese Definition kann Fehler verursachen, wenn eine der Verwaltungskonsolen auf derselben Maschine als Firewall oder über eine Firewall ausgeführt wird. Wird beispielsweise Load Balancer auf derselben Maschine als Firewall ausgeführt, können beim Absetzen von sscontrol-Befehlen Fehler wie der folgende angezeigt werden: Fehler: Server antwortet nicht.

      Sie können diesen Fehler vermeiden, indem Sie die ssserver-Scriptdatei editieren und den von RMI für die Firewall (oder eine andere Anwendung) verwendeten Port festlegen. Ändern Sie die Zeile LB_RMISERVERPORT=10199 to LB_RMISERVERPORT=Ihr_Port. Ihr_Port ist ein anderer Port.

      Starten Sie anschließend erneut ssserver und öffnen Sie den Datenverkehr für die Ports 12099, 10004, 12199 und 12100 oder für den Port, den Sie für die Hostadresse, an der die Verwaltungskonsole ausgeführt wird, ausgewählt haben.

    3. Derartige Fehler können auch auftreten, wenn Sie ssserver noch nicht gestartet haben.

    Problem: ssserver wird auf der Windows-Plattform nicht gestartet

    Site Selector muss an einem DNS teilhaben können. Alle zur Konfiguration gehörenden Maschinen sollten ebenfalls an diesem System teilhaben. Auf Windows-Systemen muss nicht immer der konfigurierte Hostname im DNS enthalten sein. Site Selector wird nur ordnungsgemäß gestartet, wenn der Hostname der Komponente im DNS definiert ist.

    Prüfen Sie, ob dieser Host im DNS definiert ist. Editieren Sie die Datei "ssserver.cmd", und löschen Sie das "w" des Eintrags "javaw". Auf diese Weise erhalten Sie weitere Fehlerinformationen.

    Problem: Site Selector führt bei duplizierten Routen den Lastausgleich nicht korrekt durch

    Der Namensserver von Site Selector wird an keine Adresse der Maschine gebunden. Er beantwortet alle Anfragen, die an gültige IP-Adressen auf der Maschine gerichtet sind. Site Selector verlässt sich darauf, dass das Betriebssystem die Antwort an den Client zurückgibt. Wenn die Site-Selector-Maschine mehrere Adapter enthält und eine beliebige Anzahl dieser Adapter mit demselben Teilnetz verbunden sind, sendet das Betriebssystem die Antwort an den Client unter Umständen nicht von der Adresse, an die der Client seine Anfrage gesendet hat. Einige Clientanwendungen akzeptieren nur Antworten, die sie von der Adresse empfangen, an die sie die Anfrage gesendet haben. Das erweckt den Anschein, als würde die Namensauflösung nicht funktionieren.

    Problem: Unerwartetes GUI-Verhalten auf der Windows-Plattform bei Verwendung von Matrox-AGP-Videokarten

    Wenn Sie auf der Windows-Plattform eine Matrox-AGP-Karte verwenden, kann es in der grafischen Benutzerschnittstelle von Load Balancer zu unerwartetem Verhalten kommen. Beim Klicken mit der Maus kann ein Block etwa von der Größe des Mauszeigers beschädigt werden und zur Umkehrung von Hervorhebungen oder zur Verschiebung von Abbildungen führen. Bei älteren Matrox-Karten wurde dieses Verhalten nicht beobachtet. Für Matrox-AGP-Karten gibt es keine bekannte Korrektur.

    Problem: Trennen der Hostverbindung bei Änderung des Netscape-Browserfensters in der Webverwaltung

    Wenn Sie Load Balancer mit der fernen Webverwaltung konfigurieren, dürfen Sie nicht die Größe des Netscape-Browserfensters ändern, in dem die Load-Balancer-GUI angezeigt wird. Das heißt, Sie dürfen das Fenster nicht minimieren, maximieren, wiederherstellen usw. Da Netscape bei jeder Größenänderung des Browserfensters die Seite neu lädt, kommt es zu einer Trennung der Hostverbindung, die nach einer solchen Änderung demzufolge neu hergestellt werden muss. Wenn Sie die ferne Webverwaltung auf einer Windows-Plattform ausführen, verwenden Sie Internet Explorer.

    Problem: Auf der Windows-Plattform erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1)

    Unter Windows können im Fenster mit der Eingabeaufforderung einige nationale Sonderzeichen der Zeichensatzfamilie Latin-1 beschädigt angezeigt werden. Der Buchstabe "a" mit Tilde kann beispielsweise als Pi-Symbol erscheinen. Zum Korrigieren dieses Fehlers müssen Sie die Schriftarteigenschaften für das Fenster mit der Eingabeaufforderung ändern. Gehen Sie zum Ändern der Schriftart wie folgt vor:

    1. Klicken Sie oben links in der Ecke des Fensters mit der Eingabeaufforderung auf das Symbol.
    2. Wählen Sie "Eigenschaften" aus, und klicken Sie auf das Register "Schriftart".
    3. Die Standardeinstellung für "Schriftart" ist "Rasterschriftarten". Setzen Sie die Schriftart auf "Lucida Console", und klicken Sie auf OK.

    Problem: Java-Fehler unter HP-UX wegen unzureichender Speicherkapazität/Threads

    Einige Installationen von HP-UX 11i sind so vorkonfiguriert, dass nur 64 Threads pro Prozess zulässig sind. Manche Load-Balancer-Konfigurationen erfordern jedoch mehr Threads. Setzen Sie die Anzahl der Threads pro Prozess auf HP-UX-Systemen auf mindestens 256. Verwenden Sie zum Erhöhen dieses Wertes das Dienstprogramm "sam", und definieren Sie den Kernel-Parameter "max_thread_proc" neu. Bei einer erwarteten starken Auslastung, müssen Sie "max_thread_proc" möglicherweise auf einen noch höheren Wert als 256 setzen.

    Führen Sie zum Erhöhen von max_thread_proc die Schritte auf Seite *** aus.

    Problem: Auf Windows-Systemen markieren Advisor-Funktionen und Erreichbarkeitsziele alle Server als inaktiv

    Wenn Sie Ihren Adapter in einer Load-Balancer-Maschine konfigurieren, müssen Sie für eine fehlerfreie Ausführung der Advisor-Funktion sicherstellen, dass die beiden folgenden Einstellungen richtig definiert sind:

    Anweisungen für das Konfigurieren dieser Einstellung finden Sie auf Seite ***.


    Allgemeine Probleme lösen -- Cisco CSS Controller

    Problem: ccoserver wird nicht gestartet

    Dieser Fehler kann auftreten, wenn eine andere Anwendung einen Port verwendet, der vom ccoserver von Cisco CSS Controller verwendet wird. Weitere Informationen finden Sie im Abschnitt Portnummern für Cisco CSS Controller überprüfen.

    Problem: Der Befehl "ccocontrol" oder "lbadmin" scheitert

    1. Der Befehl "ccocontrol" gibt die Nachricht Fehler: Server antwortet nicht zurück, oder der Befehl lbadmin gibt die Nachricht Fehler: Zugriff auf RMI-Server nicht möglich zurück. Diese Fehler können auftreten, wenn der Stack Ihrer Maschine SOCKSifiziert ist. Lösen Sie dieses Problem, indem Sie die Datei "socks.cnf" so editieren, dass sie die folgenden Zeilen enthält:
      EXCLUDE-MODULE java
      EXCLUDE-MODULE javaw
    2. Die Verwaltungskonsolen für Load-Balancer-Schnittstellen (Befehlszeile und grafische Benutzerschnittstelle) kommunizieren per RMI (Remote Method Invocation) mit ccoserver. Für die Standardkommunikation werden drei Ports verwendet, die im Startscript für ccoserver wie folgt definiert sind:

      Diese Definition kann Fehler verursachen, wenn eine der Verwaltungskonsolen auf derselben Maschine als Firewall oder über eine Firewall ausgeführt wird. Wird beispielsweise Load Balancer auf derselben Maschine als Firewall ausgeführt, können beim Absetzen von ccocontrol-Befehlen Fehler wie der folgende angezeigt werden: Fehler: Server antwortet nicht.

      Sie können diesen Fehler vermeiden, indem Sie die ccoserver-Scriptdatei editieren und den von RMI für die Firewall (oder eine andere Anwendung) verwendeten Port festlegen. Ändern Sie die Zeile CCO_RMISERVERPORT=14199 in CCO_RMISERVERPORT=Ihr_Port. Ihr_Port ist ein anderer Port.

      Starten Sie anschließend erneut ccoserver und öffnen Sie den Datenverkehr für die Ports 13099, 10004, 13199 und 13100 oder für den Port, den Sie für die Hostadresse, an der die Verwaltungskonsole ausgeführt wird, ausgewählt haben.

    3. Derartige Fehler können auch auftreten, wenn Sie ccoserver noch nicht gestartet haben.

    Problem: Für Port 13099 kann kein Eintrag in der Registrierungsdatenbank erstellt werden

    Dieses Problem kann auftreten, wenn eine gültige Produktlizenz fehlt. Wenn Sie versuchen, ccoserver zu starten, empfangen Sie die folgende Nachricht:

    Die Lizenz ist abgelaufen. IBM Ansprechpartner
    oder autorisierten IBM Händler kontaktieren. 

    Sie können dieses Problem wie folgt lösen:

    1. Falls Sie bereits versucht haben, ccoserver zu starten, geben Sie ccoserver stop ein.
    2. Kopieren Sie Ihre gültige Lizenz in das Verzeichnis ...ibm/edge/lb/servers/conf.
    3. Geben Sie ccoserver ein, um den Server zu starten.

    Problem: Unerwartetes GUI-Verhalten auf der Windows-Plattform bei Verwendung von Matrox-AGP-Videokarten

    Wenn Sie auf der Windows-Plattform eine Matrox-AGP-Karte verwenden, kann es in der grafischen Benutzerschnittstelle von Load Balancer zu unerwartetem Verhalten kommen. Beim Klicken mit der Maus kann ein Block etwa von der Größe des Mauszeigers beschädigt werden und zur Umkehrung von Hervorhebungen oder zur Verschiebung von Abbildungen führen. Bei älteren Matrox-Karten wurde dieses Verhalten nicht beobachtet. Für Matrox-AGP-Karten gibt es keine bekannte Korrektur.

    Problem: Beim Hinzufügen eines Consultant wird ein Verbindungsfehler empfangen

    Beim Hinzufügen eines Consultant kann es aufgrund falscher Konfigurationseinstellungen zu einem Verbindungsfehler kommen. Beheben Sie diesen Fehler wie folgt:

    Problem: Auf dem Switch werden die Wertigkeiten nicht aktualisiert

    Beheben Sie diesen Fehler wie folgt:

    Problem: Befehl "refresh" aktualisiert die Consultant-Konfiguration nicht

    Erhöhen Sie die Protokollstufe für den Consultant, und wiederholen Sie den Befehl. Sollte er erneut scheitern, suchen Sie im Protokoll nach SNMP-Zeitlimitüberschreitungen oder SNMP-Übertragungsfehlern.

    Problem: Trennen der Hostverbindung bei Änderung des Netscape-Browserfensters in der Webverwaltung

    Wenn Sie Load Balancer mit der fernen Webverwaltung konfigurieren, dürfen Sie nicht die Größe des Netscape-Browserfensters ändern, in dem die Load-Balancer-GUI angezeigt wird. Das heißt, Sie dürfen das Fenster nicht minimieren, maximieren, wiederherstellen usw. Da Netscape bei jeder Größenänderung des Browserfensters die Seite neu lädt, kommt es zu einer Trennung der Hostverbindung, die nach einer solchen Änderung demzufolge neu hergestellt werden muss. Wenn Sie die ferne Webverwaltung auf einer Windows-Plattform ausführen, verwenden Sie Internet Explorer.

    Problem: Auf der Windows-Plattform erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1)

    Unter Windows können im Fenster mit der Eingabeaufforderung einige nationale Sonderzeichen der Zeichensatzfamilie Latin-1 beschädigt angezeigt werden. Der Buchstabe "a" mit Tilde kann beispielsweise als Pi-Symbol erscheinen. Zum Korrigieren dieses Fehlers müssen Sie die Schriftarteigenschaften für das Fenster mit der Eingabeaufforderung ändern. Gehen Sie zum Ändern der Schriftart wie folgt vor:

    1. Klicken Sie oben links in der Ecke des Fensters mit der Eingabeaufforderung auf das Symbol.
    2. Wählen Sie "Eigenschaften" aus, und klicken Sie auf das Register "Schriftart".
    3. Die Standardeinstellung für "Schriftart" ist "Rasterschriftarten". Setzen Sie die Schriftart auf "Lucida Console", und klicken Sie auf OK.

    Problem: Java-Fehler unter HP-UX wegen unzureichender Speicherkapazität/Threads

    Einige Installationen von HP-UX 11i sind so vorkonfiguriert, dass nur 64 Threads pro Prozess zulässig sind. Manche Load-Balancer-Konfigurationen erfordern jedoch mehr Threads. Setzen Sie die Anzahl der Threads pro Prozess auf HP-UX-Systemen auf mindestens 256. Verwenden Sie zum Erhöhen dieses Wertes das Dienstprogramm "sam", und definieren Sie den Kernel-Parameter "max_thread_proc" neu. Bei einer erwarteten starken Auslastung, müssen Sie "max_thread_proc" möglicherweise auf einen noch höheren Wert als 256 setzen.

    Führen Sie zum Erhöhen von max_thread_proc die Schritte auf Seite *** aus.


    Allgemeine Probleme lösen -- Nortel Alteon Controller

    Problem: nalserver wird nicht gestartet

    Dieser Fehler kann auftreten, wenn eine andere Anwendung einen Port verwendet, der vom nalserver von Nortel Alteon Controller verwendet wird. Weitere Informationen finden Sie im Abschnitt Portnummern für Nortel Alteon Controller überprüfen.

    Problem: Der Befehl "nalcontrol" oder "lbadmin" scheitert

    1. Der Befehl "nalcontrol" gibt die Nachricht Fehler: Server antwortet nicht zurück, oder der Befehl lbadmin gibt die Nachricht Fehler: Zugriff auf RMI-Server nicht möglich zurück. Diese Fehler können auftreten, wenn der Stack Ihrer Maschine SOCKSifiziert ist. Lösen Sie dieses Problem, indem Sie die Datei "socks.cnf" so editieren, dass sie die folgenden Zeilen enthält:
      EXCLUDE-MODULE java
      EXCLUDE-MODULE javaw
    2. Die Verwaltungskonsolen für Load-Balancer-Schnittstellen (Befehlszeile und grafische Benutzerschnittstelle) kommunizieren per RMI (Remote Method Invocation) mit nalserver. Für die Standardkommunikation werden drei Ports verwendet, die im Startscript für nalserver wie folgt definiert sind:

      Diese Definition kann Fehler verursachen, wenn eine der Verwaltungskonsolen auf derselben Maschine als Firewall oder über eine Firewall ausgeführt wird. Wird beispielsweise Load Balancer auf derselben Maschine als Firewall ausgeführt, können beim Absetzen von nalcontrol-Befehlen Fehler wie der folgende angezeigt werden: Fehler: Server antwortet nicht.

      Sie können diesen Fehler vermeiden, indem Sie die nalserver-Scriptdatei editieren und den von RMI für die Firewall (oder eine andere Anwendung) verwendeten Port festlegen. Ändern Sie die Zeile NAL_RMISERVERPORT=14199 in NAL_RMISERVERPORT=Ihr_Port. Ihr_Port ist ein anderer Port.

      Starten Sie anschließend erneut nalserver und öffnen Sie den Datenverkehr für die Ports 14099, 10004, 14199 und 14100 oder für den Port, den Sie für die Hostadresse, an der die Verwaltungskonsole ausgeführt wird, ausgewählt haben.

    3. Derartige Fehler können auch auftreten, wenn Sie nalserver noch nicht gestartet haben.

    Problem: Für Port 14099 kann kein Eintrag in der Registrierungsdatenbank erstellt werden

    Dieses Problem kann auftreten, wenn eine gültige Produktlizenz fehlt. Wenn Sie versuchen, nalserver zu starten, empfangen Sie die folgende Nachricht:

    Die Lizenz ist abgelaufen. IBM Ansprechpartner
    oder autorisierten IBM Händler kontaktieren. 

    Sie können dieses Problem wie folgt lösen:

    1. Falls Sie bereits versucht haben, nalserver zu starten, geben Sie nalserver stop ein.
    2. Kopieren Sie Ihre gültige Lizenz in das Verzeichnis ...ibm/edge/lb/servers/conf.
    3. Geben Sie nalserver ein, um den Server zu starten.

    Problem: Unerwartetes GUI-Verhalten auf der Windows-Plattform bei Verwendung von Matrox-AGP-Videokarten

    Wenn Sie auf der Windows-Plattform eine Matrox-AGP-Karte verwenden, kann es in der grafischen Benutzerschnittstelle von Load Balancer zu unerwartetem Verhalten kommen. Beim Klicken mit der Maus kann ein Block etwa von der Größe des Mauszeigers beschädigt werden und zur Umkehrung von Hervorhebungen oder zur Verschiebung von Abbildungen führen. Bei älteren Matrox-Karten wurde dieses Verhalten nicht beobachtet. Für Matrox-AGP-Karten gibt es keine bekannte Korrektur.

    Problem: Trennen der Hostverbindung bei Änderung des Netscape-Browserfensters in der Webverwaltung

    Wenn Sie Load Balancer mit der fernen Webverwaltung konfigurieren, dürfen Sie nicht die Größe des Netscape-Browserfensters ändern, in dem die Load-Balancer-GUI angezeigt wird. Das heißt, Sie dürfen das Fenster nicht minimieren, maximieren, wiederherstellen usw. Da Netscape bei jeder Größenänderung des Browserfensters die Seite neu lädt, kommt es zu einer Trennung der Hostverbindung, die nach einer solchen Änderung demzufolge neu hergestellt werden muss. Wenn Sie die ferne Webverwaltung auf einer Windows-Plattform ausführen, verwenden Sie Internet Explorer.

    Problem: Beim Hinzufügen eines Consultant wird ein Verbindungsfehler empfangen

    Beim Hinzufügen eines Consultant kann es aufgrund falscher Konfigurationseinstellungen zu einem Verbindungsfehler kommen. Beheben Sie diesen Fehler wie folgt:

    Problem: Auf dem Switch werden die Wertigkeiten nicht aktualisiert

    Beheben Sie diesen Fehler wie folgt:

    Problem: Befehl "refresh" aktualisiert die Consultant-Konfiguration nicht

    Erhöhen Sie die Protokollstufe für den Consultant, und wiederholen Sie den Befehl. Sollte er erneut scheitern, suchen Sie im Protokoll nach SNMP-Zeitlimitüberschreitungen oder SNMP-Übertragungsfehlern.

    Problem: Auf Windows-Systemen erscheint die Eingabeaufforderung mit beschädigten nationalen Sonderzeichen (Latin-1)

    Unter Windows können im Fenster mit der Eingabeaufforderung einige nationale Sonderzeichen der Zeichensatzfamilie Latin-1 beschädigt angezeigt werden. Der Buchstabe "a" mit Tilde kann beispielsweise als Pi-Symbol erscheinen. Zum Korrigieren dieses Fehlers müssen Sie die Schriftarteigenschaften für das Fenster mit der Eingabeaufforderung ändern. Gehen Sie zum Ändern der Schriftart wie folgt vor:

    1. Klicken Sie oben links in der Ecke des Fensters mit der Eingabeaufforderung auf das Symbol.
    2. Wählen Sie "Eigenschaften" aus, und klicken Sie auf das Register "Schriftart".
    3. Die Standardeinstellung für "Schriftart" ist "Rasterschriftarten". Setzen Sie die Schriftart auf "Lucida Console", und klicken Sie auf OK.

    Problem: Java-Fehler unter HP-UX wegen unzureichender Speicherkapazität/Threads

    Einige Installationen von HP-UX 11i sind so vorkonfiguriert, dass nur 64 Threads pro Prozess zulässig sind. Manche Load-Balancer-Konfigurationen erfordern jedoch mehr Threads. Setzen Sie die Anzahl der Threads pro Prozess auf HP-UX-Systemen auf mindestens 256. Verwenden Sie zum Erhöhen dieses Wertes das Dienstprogramm "sam", und definieren Sie den Kernel-Parameter "max_thread_proc" neu. Bei einer erwarteten starken Auslastung, müssen Sie "max_thread_proc" möglicherweise auf einen noch höheren Wert als 256 setzen.

    Führen Sie zum Erhöhen von max_thread_proc die Schritte auf Seite *** aus.


    Allgemeine Probleme lösen -- Metric Server

    Problem: IOException für Metric Server auf der Windows-Plattform bei Ausführung von benutzerdefinierten Metrikdateien mit der Erweiterung .bat oder .cmd

    Für Metric Server auf der Windows-Plattform müssen Sie für benutzerdefinierte Metriken den vollständigen Namen angeben. An Stelle von benutzermetrik müssten Sie beispielsweise benutzermetrik.bat angeben. Der Name benutzermetrik ist in der Befehlszeile gültig, funktioniert jedoch nicht bei Ausführung in einer Laufzeitumgebung. Wenn Sie nicht den vollständigen Namen der Metrik verwenden, empfangen Sie eine Ausnahme des Typs IOException von Metric Server. Setzen Sie in der metricserver-Befehlsdatei die Variable LOG_LEVEL auf den Wert 3, und überprüfen Sie die Protokollausgabe. In diesem Beispiel sieht die Ausnahmebedingung wie folgt aus:

     ... java.io.IOException: CreateProcess: usermetric error=2
    

    Problem: Metric Server meldet die Last nicht an die Load-Balancer-Maschine

    Dafür, dass Metric Server keine Lastinformationen an Load Balancer meldet, kann es mehrere Gründe geben. Überprüfen Sie Folgendes, um die Ursache zu ermitteln:

    Problem: Metric-Server-Protokoll meldet, dass für den Zugriff auf den Agenten eine Kennung erforderlich ist

    Das Metric-Server-Protokoll enthält diese Fehlernachricht, nachdem Schlüsselringe zum Server übertragen wurden.

    Dieser Fehler wird registriert, wenn der Schlüsselring aufgrund einer Beschädigung des Schlüsselpaares nicht autorisiert werden kann. Versuchen Sie wie folgt, diesen Fehler zu beheben:

    Problem: Bei Ausführung von Metric Server auf AIX-Systemen kann die Ausgabe des Befehls "ps -vg" beschädigt werden

    Wenn Metric Server auf einer AIX-Multiprozessorplattform (4.3.3, 5.1 32-Bit oder 64-Bit) mit starker Belastung ausgeführt wird, kann die Ausgabe des Befehls "ps -vg" beschädigt sein. Beispiel:

     55742 - A 88:19 42 18014398509449680  6396 32768 22 36 2.8 1.0 java -Xms
     
    

    Das Feld SIZE und/oder RSS des Befehls "ps" kann die Verwendung einer zu großen Speicherkapazität anzeigen.

    Dies ist ein bekanntes Problem des AIX-Kernels. Dieses Problem wird mit APAR IY33804 behoben. Sie können die Korrektur von der AIX-Unterstützungssite http://techsupport.services.ibm.com/server/fixes, herunterladen oder sich an Ihr lokales AIX-Unterstützungsteam wenden.

    Problem: Konfigurieren von Metric Server in einer zweistufigen Konfiguration mit Site Selector für die Lastverteilung auf Dispatcher mit hoher Verfügbarkeit

    Wenn Site Selector (erste Stufe) in einer zweistufigen Load-Balancer-Konfiguration die Last auf ein Paar von Dispatcher-Partnern mit hoher Verfügbarkeit (zweite Stufe) verteilt, sind für die Komponente Metric Server bestimmte Konfigurationsschritte erforderlich. Sie müssen Metric Server für die Empfangsbereitschaft an einer neuen IP-Adresse konfigurieren, die speziell für Metric Server bestimmt ist. Auf den beiden Dispatcher-Maschinen mit hoher Verfügbarkeit ist Metric Server nur auf dem aktiven Dispatcher aktiv.

    Führen Sie die folgenden Schritte aus, um diese Konfiguration korrekt zu definieren:

    Problem: Unerwünschte Konsolnachrichten bei Ausführung von Scripts auf Solaris-Maschinen mit mehreren CPUs

    Die Scripts metricserver, cpuload und memload können bei Ausführung auf Solaris-Maschinen mit mehreren CPUs unerwünschte Konsolnachrichten erzeugen. Dieses Verhalten ist auf die Verwendung des VMSTAT-Systembefehls zum Abrufen von CPU- und Speicherstatistiken vom Kernel zurückzuführen. Einige von VMSTAT zurückgegebene Nachrichten geben an, dass sich der Status des Kernels geändert hat. Die Scripts können diese Nachrichten nicht bearbeiten, was zu unnötigen Konsolnachrichten von der Shell führt.

    Beispiele für solche Konsolnachrichten:

    /opt/ibm/edge/lb/ms/script/memload[29]: TOTAL=: syntax error
    /opt/ibm/edge/lb/ms/script/memload[31]: LOAD=4*100/0: divide by zero
    /opt/ibm/edge/lb/ms/script/memload[29]: TOTAL=659664+: more tokens expected
    

    Sie können diese Nachrichten ignorieren.

    Problem: Nach dem Start von Metric Server wird der Wert -1 zurückgegeben

    Dieses Problem kann auftreten, wenn die Integrität der Schlüsseldateien bei der Übertragung zum Client verloren geht.

    Wenn Sie Ihre Schlüsseldateien von der Load-Balancer-Maschine mit FTP zum Back-End-Server übertragen, müssen Sie den Befehl put oder get im Binärmodus verwenden, um die Schlüsseldateien auf den FTP-Server zu stellen oder vom FTP-Server abzurufen.


    Befehlsreferenz

    Dieser Teil enthält Referenzinformationen zu den Befehlen aller Komponenten von Load Balancer. Zu diesem Teil gehören die folgenden Kapitel:


    Syntaxdiagramm lesen

    Im Syntaxdiagramm wird gezeigt, wie ein Befehl angegeben wird, damit das Betriebssystem die Eingabe korrekt interpretieren kann. Lesen Sie das Syntaxdiagramm von links nach rechts und von oben nach unten entlang der horizontalen Linie (Hauptpfad).


    Symbole und Interpunktion

    In den Syntaxdiagrammen werden die folgenden Symbole benutzt:

    Symbol
    Beschreibung

    >>
    Markiert den Anfang der Befehlssyntax.

    ><
    Markiert das Ende der Befehlssyntax.

    Alle im Syntaxdiagramm aufgeführten Interpunktionszeichen, beispielsweise Doppelpunkte, Fragezeichen und Minuszeichen, müssen wie gezeigt übernommen werden.


    Parameter

    In den Syntaxdiagrammen werden die folgenden Arten von Parametern benutzt:

    Parameter
    Beschreibung
    Erforderlich
    Erforderliche Parameter werden im Hauptpfad gezeigt.
    Optional
    Optionale Parameter werden unter dem Hauptpfad gezeigt.

    Parameter werden als Schlüsselwörter oder Variablen klassifiziert. Schlüsselwörter werden in Kleinbuchstaben gezeigt und können in Kleinbuchstaben eingegeben werden. Ein Befehlsname ist beispielsweise ein Schlüsselwort. Variablen stehen in Kursivschrift und stellen Namen oder Werte dar, die von Ihnen zur Verfügung gestellt werden müssen.


    Beispiele für die Syntax

    In dem folgenden Beispiel ist der Befehl "user" ein Schlüsselwort. Die erforderliche Variable ist die Benutzer-ID und die optionale Variable das Kennwort. Ersetzen Sie die Variablen durch Ihre eigenen Werte.

    >>-user--Benutzer-ID--+----------+---------------------------------><
                      '-Kennwort-'
     
     
    

    Erforderliche Schlüsselwörter: Erforderliche Schlüsselwörter und Variablen stehen im Hauptpfad.

    >>-required_keyword--------------------------------------------><
     
     
    

    Erforderliche Schlüsselwörter und Werte müssen eingegeben werden.

    Sich gegenseitig ausschließende Parameter aus einer Gruppe auswählen: Sind mehrere Schlüsselwörter oder Variablen aufgeführt, die sich gegenseitig ausschließen und aus denen ein Schlüsselwort oder eine Variable ausgewählt werden muss, sind sie vertikal in alphanumerischer Anordnung aufgeführt.

    >>-+-required_parameter_1-+------------------------------------><
       '-required_parameter_2-'
     
     
    

    Optionale Werte: Optionale Schlüsselwörter und Variablen stehen unter dem Hauptpfad.

    >>-+---------+-------------------------------------------------><
       '-keyword-'
     
     
    

    Sie können auswählen, ob sie optionale Schlüsselwörter oder Variablen angeben wollen oder nicht.

    Optionale Schlüsselwörter oder Parameter aus einer Gruppe auswählen: Sind mehrere Schlüsselwörter oder Variablen aufgeführt, die sich gegenseitig ausschließen und aus denen ein Schlüsselwort oder eine Variable ausgewählt werden kann, sind sie vertikal in alphanumerischer Anordnung unter dem Hauptpfad aufgeführt.

    >>-+-------------+---------------------------------------------><
       +-parameter_1-+
       '-parameter_2-'
     
     
    

    Variablen: Wörter in Kursivschrift sind Variablen. Erscheint eine Variable in der Syntax, muss sie wie im Text angegeben durch einen ihrer erlaubten Namen oder Werte ersetzt werden.

    >>-Variable----------------------------------------------------><
     
     
    

    Zeichen, die keine alphanumerischen Zeichen sind: Enthält ein Diagramm ein Zeichen, das kein alphanumerisches Zeichen ist (beispielsweise einen Doppelpunkt, ein Anführungszeichen oder ein Minuszeichen), müssen Sie dieses Zeichen als Teil der Syntax angeben. Im folgenden Beispiel müssen Sie den Cluster und den Port im Format Cluster:Port angeben.

    >>-Cluster:Port------------------------------------------------><
     
     
    

    Befehlsreferenz für Dispatcher und CBR

    Dieses Kapitel beschreibt die Verwendung der dscontrol-Befehle von Dispatcher. Sie können dieses Kapitel auch als Befehlsreferenz für CBR verwenden.

    Frühere Versionen dieses Produkts liefen unter dem Namen Network Dispatcher. In diesen Versionen war der Dispatcher-Steuerbefehl "ndcontrol". Jetzt ist der Dispatcher-Steuerbefehl dscontrol. Stellen Sie sicher, dass alle bisherigen Scriptdateien so aktualisiert werden, dass dscontrol (und nicht ndcontrol) zum Konfigurieren von Dispatcher verwendet wird.

    CBR verwendet eine Untergruppe der in dieser Befehlsreferenz aufgeführten Dispatcher-Befehle. Wenn Sie diese Syntaxdiagramme für CBR verwenden, ersetzen Sie dscontrol durch cbrcontrol. Weitere Informationen finden Sie im Abschnitt Konfigurationsunterschiede bei CBR und Dispatcher.

    Nachfolgend sind die in diesem Kapitel beschriebenen Befehle aufgelistet:

    Sie können eine Minimalversion der Parameter für den Befehl "dscontrol" eingeben. Sie müssen nur die eindeutigen Buchstaben der Parameter eingeben. Beispiel: Wenn Sie Hilfe für den Befehl zum Speichern von Dateien aufrufen möchten, können Sie dscontrol he f an Stelle von dscontrol help file angeben.

    Wenn Sie die Befehlszeilenschnittstelle starten möchten, setzen Sie den Befehl dscontrol ab, um die Eingabeaufforderung dscontrol aufzurufen.

    Sie können die Befehlszeilenschnittstelle verlassen, indem Sie den Befehl exit oder quit absetzen.

    Die Werte der Befehlsparameter müssen in englischen Zeichen eingegeben werden. Die einzige Ausnahme hiervon bilden Hostnamen (die in den Befehlen "cluster", "server" und "highavailability" verwendet werden) und (die in Dateibefehlen verwendeten) Dateinamen.


    Konfigurationsunterschiede bei CBR und Dispatcher

    Die Befehlszeilenschnittstelle von CBR umfasst einen Teil der Befehlszeilenschnittstelle von Dispatcher. Verwenden Sie für CBR an Stelle des Befehls "dscontrol" den Befehl cbrcontrol, um die Komponente zu konfigurieren.

    Anmerkung:
    Die Komponente Content Based Routing (CBR) ist auf allen unterstützten Plattformen, die keine 64-Bit-JVM ausführen, verfügbar. Alternativ können Sie die Weiterleitungsmethode "cbr" der Load-Balancer-Komponente Dispatcher verwenden, um inhaltsbasiertes Routing ohne die Verwendung von Caching Proxy zu ermöglichen. Weitere Informationen finden Sie im Abschnitt Dispatcher-Weiterleitungsmethode "cbr".

    Nachfolgend sind einige der Befehle aufgelistet, die in CBR ignoriert werden.

    1. highavailability
    2. subagent
    3. executor
    4. cluster
    5. port
    6. rule add {c:p:r} type port
    7. server

    dscontrol advisor -- Advisor-Funktion steuern

    >>-dscontrol--advisor--+-connecttimeout--Name--+-Port--+--Zeitlimit_in_Sekunden-+-><
                           |                       '-Cluster:Port-'                 |
                           +-interval--Name--+-Port---------+--Sekunden-------------+
                           |                 '-Cluster:Port-'                       |
                           +-list---------------------------------------------------+
                           +-loglevel--Name--+-Port---------+--Stufe----------------+
                           |                 '-Cluster:Port-'                       |
                           +-logsize--Name--+-Port---------+--+-unlimited---------+-+
                           |                '-Cluster:Port-'  '-Anzahl_Datensätze-' |
                           +-receivetimeout--Name--+-Port--+--Zeitlimit_in_Sekunden-+
                           |                       '-Cluster:Port-'                 |
                           +-report--Name--+-Port---------+-------------------------+
                           |               '-Cluster:Port-'                         |
                           +-retries--Name--+-Port--+--Anzahl_Wiederholungen--------+
                           |                '-Cluster:Port-'                        |
                           +-start--Name--+-Port---------+--+----------+------------+
                           |              '-Cluster:Port-'  '-Protokolldatei-'      |
                           +-status--Name--+-Port---------+-------------------------+
                           |               '-Cluster:Port-'                         |
                           +-stop--Name--+-Port---------+---------------------------+
                           |             '-Cluster:Port-'                           |
                           +-timeout--name--+-port---------+--+-unlimited-+---------+
                           |                '-Cluster:Port-'  '-Sekunden---'        |
                           '-version--Name--+-Port---------+------------------------'
                                            '-Cluster:Port-'
     
     
    

    connecttimeout
    Definiert, wie lange eine Advisor-Funktion wartet, bevor sie meldet, dass zu einem bestimmten Port eines Servers (einem Service) keine Verbindung hergestellt werden kann. Weitere Informationen finden Sie im Abschnitt Serververbindungs- und -empfangszeitlimit der Advisor-Funktion.
    Name
    Der Name der Advisor-Funktion. Zu den gültigen Werten gehören connect, db2, dns, ftp, http, https, cachingproxy, imap, ldap, nntp, ping, pop3, self, sip, smtp, ssl, ssl2http, telnet und wlm.

    Weitere Informationen zu den von Load Balancer bereitgestellten Advisor-Funktionen finden Sie im Abschnitt Liste der Advisor-Funktionen.

    Die Namen angepasster Advisor-Funktionen haben das Format xxxx, wobei ADV_xxxx der Name der Klasse ist, die die angepasste Advisor-Funktion implementiert. Weitere Informationen finden Sie im Abschnitt Angepasste (anpassbare) Advisor-Funktion erstellen.

    Port
    Die Nummer des Ports, der von der Advisor-Funktion überwacht wird.
    Cluster:Port
    Der Wert "Cluster" ist in den advisor-Befehlen optional, der Wert "Port" jedoch erforderlich. Wenn kein Wert für "Cluster" angegeben ist, wird die Advisor-Funktion an dem Port für alle Cluster gestartet. Wenn Sie einen Cluster angeben, wird die Advisor-Funktion an dem Port gestartet, jedoch nur für den von Ihnen genannten Cluster. Weitere Informationen finden Sie im Abschnitt Advisor-Funktion starten und stoppen.

    Der Cluster kann als Adresse im IP-Adressenformat oder als symbolischer Name angegeben werden. Der Port wird als Nummer des Ports angegeben, der von der Advisor-Funktion überwacht wird.

    Zeitlimit_in_Sekunden
    Eine positive ganze Zahl, die das Zeitlimit in Sekunden angibt, nach dessen Ablauf die Advisor-Funktion meldet, dass zu einem Server keine Verbindung hergestellt werden kann. Dieser Wert liegt standardmäßig beim Dreifachen des für das Advisor-Intervall angegebenen Wertes.
    interval
    Legt fest, wie oft der Advisor Informationen von den Servern abfragt.
    Sekunden
    Eine positive ganze Zahl, die die Zeit zwischen den an die Server gerichteten Statusabfragen in Sekunden angibt. Der Standardwert ist 7.
    list
    Zeigt eine Liste der Advisor-Funktionen an, die derzeit Informationen an den Manager liefern.
    loglevel
    Legt die Protokollstufe für ein Advisor-Protokoll fest.
    Stufe
    Die Nummer der Stufe (0 bis 5). Der Standardwert ist 1. Je größer die Zahl ist, desto mehr Informationen werden in das Advisor-Protokoll geschrieben. Die folgenden Werte sind gültig: 0 für keine Einträge, 1 für eine minimale Protokollierung, 2 für eine Basisprotokollierung, 3 für eine normale, 4 für eine erweiterte und 5 für eine ausführliche Protokollierung.
    logsize
    Legt die maximale Größe eines Advisor-Protokolls fest. Wenn Sie eine maximale Größe für die Protokolldatei festlegen, findet ein Dateiumlauf statt. Hat die Datei die angegebene Größe erreicht, werden alle weiteren Einträge wieder an den Anfang der Datei geschrieben und die dort befindlichen Einträge überschrieben. Die Protokollgröße kann nicht auf einen geringeren Wert als die aktuelle Dateigröße gesetzt werden. Protokolleinträge sind mit einer Zeitmarke versehen, damit Sie die Reihenfolge, in der sie geschrieben wurden, erkennen können. Je höher Sie die Protokollstufe setzen, desto vorsichtiger müssen Sie die Protokollgröße auswählen, da die Protokolldatei sehr schnell voll ist, wenn Sie eine Protokollierung auf einer höheren Stufe wählen.
    Anzahl_Datensätze
    Die maximale Größe der Advisor-Protokolldatei in Bytes. Sie können entweder eine positive Zahl, die größer als 0 sein muss, oder das Wort unlimited (unbegrenzt) angeben. Möglicherweise erreicht die Protokolldatei nicht genau die maximale Größe, bevor der Dateiumlauf stattfindet, da die Größe der Protokolleinträge variiert. Der Standardwert ist 1 MB.
    receivetimeout
    Definiert, wie lange eine Advisor-Funktion wartet, bevor sie meldet, dass von einem bestimmten Port eines Servers (einem Service) keine Daten empfangen werden können. Weitere Informationen finden Sie im Abschnitt Serververbindungs- und -empfangszeitlimit der Advisor-Funktion.
    Zeitlimit_in_Sekunden
    Eine positive ganze Zahl, die das Zeitlimit in Sekunden angibt, nach dessen Ablauf die Advisor-Funktion meldet, dass von einem Server keine Daten empfangen werden können. Dieser Wert liegt standardmäßig beim Dreifachen des für das Advisor-Intervall angegebenen Wertes.
    report
    Anzeigen eines Berichts zum Advisor-Status.
    retry
    Der Parameter "retry" legt die Wiederholungsversuche einer Advisor-Funktion fest, bevor diese einen Server als inaktiv markiert.
    Anzahl_Wiederholungen
    Eine ganze Zahl größer als oder gleich null. Dieser Wert sollte nicht größer als 3 sein. Wenn das Schlüsselwort für Wiederholungen nicht konfiguriert ist, wird standardmäßig von null Wiederholungsversuchen ausgegangen.
    start
    Den Advisor starten. Für alle Protokolle stehen Advisor zur Verfügung. Die Standardports sind:
    Advisor-NameProtokoll Port
    cachingproxy HTTP (über Caching Proxy)80
    connectICMP12345
    db2private 50000
    dnsDNS53
    ftpFTP21
    httpHTTP80
    httpsSSL 443
    imapIMAP143
    ldapLDAP389
    nntpNNTP119
    pingPING0
    pop3POP3110
    selfprivate 12345
    sipSIP5060
    smtpSMTP25
    sslSSL 443
    ssl2httpSSL 443
    telnetTelnet23
    WLMprivate 10007
    Anmerkung:
    Die FTP-Advisor-Funktion darf nur für den FTP-Steuerport (21) ausgeführt werden. Starten Sie eine FTP-Advisor-Funktion nicht für den FTP-Datenport (20).
    Protokolldatei
    Der Name der Datei, in die die Verwaltungsdaten geschrieben werden. Jeder Eintrag des Protokolls ist mit einer Zeitmarke versehen.

    Die Standarddatei ist Advisor-Name_Port.log, z. B. http_80.log. Wollen Sie das Verzeichnis ändern, in dem die Protokolldateien gespeichert werden, lesen Sie die Informationen im Abschnitt Pfade für die Protokolldatei ändern. Die Standardprotokolldateien für cluster- oder sitespezifische Advisor-Funktionen werden mit der Clusteradresse erstellt, z. B. http_127.40.50.1_80.log.

    status
    Zeigt den aktuellen Status aller Werte in einem Advisor an, die global gesetzt werden können. Zudem werden die Standardwerte dieser Werte angezeigt.
    stop
    Den Advisor stoppen.
    timeout
    Legt die Anzahl von Sekunden fest, in denen der Manager von dem Advisor erhaltene Informationen als gültig ansieht. Stellt der Manager fest, dass die Advisor-Informationen älter als dieses Zeitlimit sind, verwendet der Manager diese Informationen nicht zum Bestimmen Wertigkeiten für die Server am Port, die von der Advisor-Funktion überwacht werden. Dieses Zeitlimit gilt nicht, wenn die Advisor-Funktion den Manager darüber informiert hat, dass ein bestimmter Server inaktiv ist. Der Manager verwendet diese Information über den Server auch nach Überschreitung des Informationszeitlimits für die Advisor-Funktion weiter.
    Sekunden
    Eine positive Zahl, die die Anzahl von Sekunden darstellt, oder das Wort unlimited (unbegrenzt). Der Standardwert ist "unlimited".
    version
    Zeigt die aktuelle Advisor-Version an.

    Beispiele

    dscontrol binlog -- Binäre Protokolldatei steuern


    >>-dscontrol--binlog--+-start----------------------+-----------><
                          +-stop-----------------------+
                          +-set--+-retention--Stunden--+-+
                          |      '-interval--Sekunden-' |
                          '-status---------------------'
     
     
    

    start
    Binäres Protokoll starten.
    stop
    Binäres Protokoll stoppen.
    set
    Legt Felder für die binäre Protokollierung fest. Weitere Informationen zum Festlegen von Feldern für die binäre Protokollierung finden Sie im Abschnitt Binäre Protokolle für die Analyse von Serverstatistiken verwenden.
    retention
    Die Anzahl der Stunden, die binäre Protokolldateien aufbewahrt werden. Der Standardwert für retention ist 24.
    Stunden
    Die Anzahl der Stunden.
    interval
    Die Anzahl der Sekunden zwischen dem Protokollieren von Einträgen. Der Standardwert für interval ist 60.
    Sekunden
    Die Anzahl der Sekunden.
    status
    Zeigt die Verweildauer und das Intervall des binären Protokolls.

    dscontrol cluster -- Cluster konfigurieren


    >>-dscontrol--cluster--+-add--Cluster+c2+...--+----------------------------------------+-+-><
                           |                      +-address--Adresse-----------------------+ |
                           |                      +-proportions--aktiv---neu--Port--System-+ |
                           |                      +-maxports--Größe------------------------+ |
                           |                      +-maxservers--Größe----------------------+ |
                           |                      +-stickytime--Zeit-----------------------+ |
                           |                      +-weightbound--Wertigkeit----------------+ |
                           |                      +-porttype--Typ--------------------------+ |
                           |                      +-primaryhost--Adresse-------------------+ |
                           |                      +-staletimeout--Inaktivitätszeitlimit----+ |
                           |                      '-sharedbandwidth--Größe-----------------' |
                           +-set--Cluster+c2+...--+-proportions--aktiv---neu--Port--System-+-+
                           |                      +-maxports--Größe------------------------+ |
                           |                      +-maxservers--Größe----------------------+ |
                           |                      +-stickytime--Zeit-----------------------+ |
                           |                      +-weightbound--Wertigkeit------------------+ |
                           |                      +-porttype--Typ--------------------------+ |
                           |                      +-primaryhost--Adresse-------------------+ |
                           |                      +-staletimeout--Inaktivitätszeitlimit----+ |
                           |                      '-sharedbandwidth--Größe-----------------' |
                           +-remove--Cluster-------------------------------------------------+
                           +-report--Cluster-------------------------------------------------+
                           '-status--Cluster-------------------------------------------------'
     
     
    

    add
    Diesen Cluster hinzufügen. Sie müssen mindestens 1 Cluster definieren.
    Cluster
    Der Name oder die Adresse des Clusters, zu dem die Clients eine Verbindung herstellen. Der Clusterwert ist ein symbolischer Name oder eine IP-Adresse im IP-Adressenformat. Mit der Clusteradresse 0.0.0.0 kann ein Platzhaltercluster angegeben werden. Weitere Informationen finden Sie im Abschnitt Platzhaltercluster zum Zusammenfassen von Serverkonfigurationen verwenden.

    Generell können Sie einen Doppelpunkt (:) als Platzhalter verwenden. Die einzige Ausnahme hiervon bildet der Befehl "dscontrol cluster add". Der Befehl dscontrol cluster set : weightbound 80 bewirkt beispielsweise, dass für alle Cluster eine Wertigkeit von 80 festgelegt wird.

    Anmerkung:
    Zusätzliche Cluster werden durch ein Pluszeichen (+) getrennt.
    address
    Die eindeutige IP-Adresse der TCP-Maschine als Hostname oder im IP-Adressenformat. Falls der Clusterwert nicht aufgelöst werden kann, müssen Sie diese Adresse der physischen Maschine angeben.
    Anmerkung:
    Die Adresse gilt nur für die Komponente Dispatcher.
    Adresse
    Wert für die Adresse des Clusters.
    proportions
    Legt auf Clusterebene die proportionale Bedeutung von aktiven Verbindungen (Aktiv), von neuen Verbindungen (Neu), von Informationen der Advisor-Funktionen (Port) und von Informationen eines Systemüberwachungsprogramms wie Metric Server (System), anhand derer der Manager Serverwertigkeiten festlegt. Alle diese Werte, die nachfolgend beschrieben werden, werden als Prozentsatz der Summe angegeben und müssen daher immer 100 ergeben. Weitere Informationen finden Sie im Abschnitt Proportionale Bedeutung von Statusinformationen.
    aktiv
    Eine Zahl zwischen 0 und 100 für die proportionale Gewichtung der aktiven Verbindungen. Der Standardwert ist 50.
    neu
    Eine Zahl zwischen 0 und 100 für die proportionale Gewichtung der neuen Verbindungen. Der Standardwert ist 50.
    Port
    Eine Zahl zwischen 0 und 100 für die proportionale Gewichtung der Informationen von Advisor-Funktionen. Der Standardwert ist 0.
    Anmerkung:
    Wenn eine Advisor-Funktion gestartet wird und die Portproportion 0 ist, setzt Load Balancer diesen Wert automatisch auf 1, damit der Manager die Informationen der Advisor-Funktion als Vorgabe für die Berechnung der Serverwertigkeit verwendet.
    System
    Eine Zahl zwischen 0 und 100 für die proportionale Gewichtung der Systemmetriken von einem Programm wie Metric Server. Der Standardwert ist 0.
    maxports
    Die maximale Portanzahl. Der Standardwert für "maxports" ist 8.
    Größe
    Die zulässige Portanzahl.
    maxservers
    Die standardmäßige Höchstzahl von Servern pro Port. Dieser Wert kann für einzelne Ports mit port maxservers überschrieben werden. Der Standardwert für maxservers ist 32.
    Größe
    Die zulässige Anzahl von Servern für einen Port.
    stickytime
    Die Standardhaltezeit für Ports, die erstellt werden sollen. Dieser Wert kann für einzelne Ports mit dem Befehl port stickytime außer Kraft gesetzt werden. Der Standardwert für stickytime ist 0.
    Anmerkung:
    Für die Dispatcher-Weiterleitungsmethode "cbr" gilt: Wenn Sie stickytime festlegen (einen Wert ungleich null angeben), ist port stickytime aktiviert, sofern der Port SSL (und nicht HTTP) verwendet. Wenn für zu erstellende Ports der Wert für stickytime ungleich null ist, wird beim Hinzufügen eines neuen SSL-Ports die Affinität der SSL-IDs für den Port aktiviert. Sie können die Affinität der SSL-IDs für den Port inaktivieren, indem Sie stickytime für den Port explizit auf 0 setzen.
    Zeit
    Der Wert für stickytime in Sekunden.
    weightbound
    Die standardmäßige Wertigkeitsgrenze für Ports. Dieser Wert kann für einzelne Ports mit dem Befehl port weightbound außer Kraft gesetzt werden. Der Standardwert für weightbound ist 20.
    Wertigkeit
    Die Wertigkeitsgrenze.
    porttype
    Der Standardporttyp. Dieser Wert kann für einzelne Ports mit port porttype überschrieben werden.
    Typ
    Gültige Werte sind tcp, udp und both.
    primaryhost
    Die NFA dieser Dispatcher-Maschine oder die NFA-Adresse der Dispatcher-Partnermaschine. In einer Konfiguration mit wechselseitiger hoher Verfügbarkeit ist ein Cluster entweder der primären Maschine oder der Ausweichmaschine zugeordnet.

    Wird der primäre Host (primaryhost) eines Clusters geändert, nachdem die primäre Maschine und die Partnermaschine gestartet wurden, und ist die wechselseitige hohe Verfügbarkeit aktiv, müssen Sie auch den neuen primären Host zur Übernahme zwingen. Außerdem müssen Sie die Scripts aktualisieren und den Cluster manuell aus der Konfiguration entfernen und dann richtig konfigurieren. Weitere Informationen finden Sie im Abschnitt Wechselseitige hohe Verfügbarkeit.

    Adresse
    Der Wert für die Adresse des primären Hosts. Der Standardwert ist die NFA-Adresse dieser Maschine.
    staletimeout
    Die Zeit der Inaktivität einer Verbindung in Sekunden, bevor die Verbindung entfernt wird. Der Standardwert für FTP ist 900 und für Telnet 32.000.000. Für alle anderen Protokolle liegt der Standardwert bei 300. Dieser Wert kann für einzelne Ports mit dem Befehl port staletimeout außer Kraft gesetzt werden. Weitere Informationen finden Sie im Abschnitt Inaktivitätszeitlimit verwenden.
    Inaktivitätszeitlimit
    Der Wert für "staletimeout".
    sharedbandwidth
    Die maximale Bandbreite (in Kilobytes pro Sekunde), die auf Clusterebene gemeinsam genutzt werden kann. Informationen zur gemeinsam genutzten Bandbreite finden Sie in den Abschnitten Regeln auf der Basis der reservierten und gemeinsam benutzten Bandbreite verwenden und Regel "Gemeinsame Bandbreite".
    Anmerkung:
    "shared bandwidth" gilt für die Komponente Dispatcher.
    Größe
    Der Parameter sharedbandwidth muss einen ganzzahligen Wert haben. Der Standardwert ist null. Bei einem Wert von null kann keine Bandbreite auf Clusterebene gemeinsam genutzt werden.
    set
    Die Eigenschaften des Clusters festlegen.
    remove
    Diesen Cluster entfernen.
    report
    Die internen Felder des Clusters anzeigen.
    Anmerkung:
    "report" gilt für die Komponente Dispatcher.
    status
    Den aktuellen Status eines bestimmten Clusters anzeigen.

    Beispiele

    dscontrol executor -- Executor steuern


    >>-dscontrol--executor--+-report-----------------------------------------------------------+-><
                            +-set--+-nfa--IP-Adresse----------------------+--------------------+
                            |      +-maxclusters--Größe-------------------+                    |
                            |      +-maxports--Größe----------------------+                    |
                            |      +-fintimeout--FIN-Zeitlimit------------+                    |
                            |      +-hatimeout--Zeit----------------------+                    |
                            |      +-hasynctimeout--Zeit------------------+                    |
                            |      +-maxservers--Größe--------------------+                    |
                            |      +-mss--Größe---------------------------+                    |
                            |      +-staletimeout--Inaktivitätszeitlimit--+                    |
                            |      +-stickytime--Zeit---------------------+                    |
                            |      +-clientgateway--Adresse---------------+                    |
                            |      +-weightbound--Wertigkeit--------------+                    |
                            |      +-porttype--Typ------------------------+                    |
                            |      +-wideportnumber--Port-----------------+                    |
                            |      '-sharedbandwidth--Größe---------------'                    |
                            +-configure--Schnittstellenadresse+i2+...--+---------------------+-+
                            |                                '-Schnittstellenname--Netzmaske-' |
                            +-unconfigure--Schnittstellenadresse-------------------------------+
                            +-start------------------------------------------------------------+
                            +-status-----------------------------------------------------------+
                            '-stop-------------------------------------------------------------'
     
     
    

    report
    Zeigt eine statistische Momentaufnahme an, z. B. die Gesamtanzahl der empfangenen, gelöschten oder mit Fehlern weitergeleiteten Pakete usw.
    Anmerkung:
    "report" gilt für die Komponente Dispatcher.
    set
    Die Felder des Executors festlegen.
    nfa
    NFA definieren. Alle an diese Adresse gesendeten Pakete werden von der Dispatcher-Maschine nicht weitergeleitet.
    Anmerkung:
    NFA gilt für die Komponente Dispatcher.
    IP-Adresse
    Die IP-Adresse als symbolischer Name oder in Schreibweise mit Trennzeichen.
    maxclusters
    Die maximale Anzahl Cluster, die konfiguriert werden können. Der Standardwert für maxclusters ist 100.
    Größe
    Die maximale Anzahl Cluster, die konfiguriert werden können.
    maxports
    Der Standardwert für maxports für Cluster, die erstellt werden sollen. Dieser Wert kann mit dem Befehl cluster set oder cluster add überschrieben werden. Der Standardwert für maxports ist 8.
    Größe
    Die Portanzahl.
    fintimeout
    Die Anzahl Sekunden, die eine Verbindung im Speicher verbleiben soll, nachdem die Verbindung in den Status BEENDET gesetzt wurde. Der Standardwert für fintimeout ist 30.
    FIN-Zeitlimit
    Der Wert für fintimeout.
    Anmerkung:
    fintimeout gilt für die Komponente Dispatcher.
    hatimeout
    Die Zeit in Sekunden, die der Executor als Zeitlimit für die Überwachungssignale für hohe Verfügbarkeit verwendet. Der Standardwert ist 2.
    Anmerkung:
    Der hatimeout-Wert gilt nur für die Komponente Dispatcher.
    Zeit
    Der Wert für hatimeout.
    hasynctimeout
    Die Zeit in Sekunden, die der Executor als Zeitlimit für die Replikation der Verbindungssätze zwischen der primären Maschine und der Ausweichmaschine verwendet. Der Standardwert ist 50.

    Mit diesem Zeitgeber wird sichergestellt, dass die primäre Maschine und die Ausweichmaschine versuchen, ihre Daten zu synchronisieren. Wenn jedoch zu viele Verbindungen vorhanden sind und die aktive Maschine weiterhin einer signifikante Belastung durch ankommenden Datenverkehr ausgesetzt ist, wird die Synchronisation möglicherweise nicht vor Ablauf des Zeitgebers beendet. Load Balancer würde in einem solchen Fall endlos versuchen, eine Synchronisation durchzuführen, ohne dass die Daten der beiden Maschinen tatsächlich synchronisiert werden. Setzen Sie hasynctimeout in dieser Situation auf einen höheren Wert als den Standardwert, damit die Maschinen genug Zeit haben, Informationen über vorhandene Verbindungen auszutauschen. Zum Setzen dieses Zeitgebers müssen Sie den Befehl "hasynctimeout" nach dem Befehl dscontrol executor start, aber vor den Befehlen für hohe Verfügbarkeit (dscontrol highavailability) absetzen.

    Anmerkung:
    Der hasynctimeout-Wert gilt nur für die Komponente Dispatcher.
    Zeit
    Der Wert für hasynctimeout.
    maxservers
    Die standardmäßig geltende maximale Anzahl von Servern pro Port. Dieser Wert kann mit dem Befehl cluster oder port überschrieben werden. Der Standardwert für maxservers ist 32.
    mss
    Die maximale Bytezahl im Datensegment der TCP/UDP-Verbindung. Die Summe aus der Bytezahl im Datensegment und dem Header muss kleiner als die Bytezahl in der maximalen Übertragungseinheit (MTU) sein. Der Standardwert für mss ist 1460.
    Anmerkung:
    Die maximale Segmentgröße ist nur für die Weiterleitungsmethoden nat und cbr der Komponente Dispatcher von Relevanz.
    Größe
    Die Anzahl Server.
    staletimeout
    Die Zeit der Inaktivität einer Verbindung in Sekunden, bevor die Verbindung entfernt wird. Der Standardwert für FTP ist 900 und für Telnet 32.000.000. Der Standardwert für alle anderen Ports ist 300. Dieser Wert kann mit dem Befehl cluster oder port überschrieben werden. Weitere Informationen finden Sie im Abschnitt Inaktivitätszeitlimit verwenden.
    Inaktivitätszeitlimit
    Der Wert für "staletimeout".
    stickytime
    Die Standardhaltezeit für Ports für alle künftigen Cluster. Dieser Wert kann mit dem Befehl cluster oder port überschrieben werden.Der Standardwert für stickytime ist 0.
    Zeit
    Der Wert für stickytime in Sekunden.
    clientgateway
    Clientgateway ist eine IP-Adresse, die für die Dispatcher-Weiterleitungsmethode NAT/NAPT oder CBR verwendet wird. Er gibt die Router-Adresse an, über die der Antwortdatenverkehr von Load Balancer an die Clients weitergeleitet wird. Clientgateway muss auf einen Wert ungleich null gesetzt werden, bevor ein Port mit der Dispatcher Weiterleitungsmethode NAT/NAPT oder CBR hinzugefügt wird. Weitere Informationen finden Sie in den Abschnitten Dispatcher-Weiterleitungsmethode NAT/NAPT und Dispatcher-Weiterleitungsmethode "cbr".
    Anmerkung:
    Der Parameter "clientgateway" gilt nur für die Komponente Dispatcher.
    Adresse
    Die für den Parameter "clientgateway" angegebene Adresse ist ein symbolischer Name oder eine Adresse in Schreibweise mit Trennzeichen. Der Standardwert ist 0.0.0.0.
    weightbound
    Die standardmäßige Portwertigkeitsgrenze für alle künftigen Ports. Dieser Wert kann mit dem Befehl cluster oder port überschrieben werden. Der Standardwert für weightbound ist 20.
    Wertigkeit
    Der Wert für weightbound.
    porttype
    Der für alle künftigen Ports gültige Standardwert für Porttyp. Dieser Wert kann mit dem Befehl cluster oder port überschrieben werden.
    Anmerkung:
    "porttype" gilt für die Komponente Dispatcher.
    Typ
    Gültige Werte sind tcp, udp und both.
    wideportnumber
    Ein nicht verwendeter TCP-Port auf jeder Dispatcher-Maschine. Der Wert von wideportnumber muss für alle Dispatcher-Maschinen derselbe sein. Der Standardwert für wideportnumber ist 0. Dieser Wert gibt an, dass die Weitverkehrsunterstützung nicht verwendet wird.
    Anmerkung:
    "wideportnumber" gilt für die Komponente Dispatcher.
    Port
    Der Wert für wideportnumber.
    sharedbandwidth
    Die maximale Bandbreite (in Kilobytes pro Sekunde), die auf Executor-Ebene gemeinsam genutzt werden kann. Informationen zur gemeinsam genutzten Bandbreite finden Sie in den Abschnitten Regeln auf der Basis der reservierten und gemeinsam benutzten Bandbreite verwenden und Regel "Gemeinsame Bandbreite".
    Anmerkung:
    Die gemeinsam genutzte Bandbreite gilt für die Komponente Dispatcher.
    Größe
    Der Parameter sharedbandwidth muss einen ganzzahligen Wert haben. Der Standardwert ist null. Bei einem Wert von null kann keine Bandbreite auf Executor-Ebene gemeinsam genutzt werden.
    configure
    Konfigurieren einer Adresse (z. B. einer Clusteradresse, einer Rückkehradresse oder einer Adresse für die Überwachung der hohen Verfügbarkeit) für die Netzschnittstellenkarte der Dispatcher-Maschine. Dieser Schritt wird auch als das Konfigurieren eines Aliasnamens für die Dispatcher-Maschine bezeichnet.
    Anmerkung:
    "configure" gilt für die Komponente Dispatcher.
    Schnittstellenadresse
    Die Adresse ist ein symbolischer Name oder eine Adresse im IP-Adressenformat.
    Anmerkung:
    Weitere Schnittstellenadressen werden werden durch ein Pluszeichen (+) getrennt angegeben.
    Schnittstellenname Netzmaske
    Diese Angabe ist nur erforderlich, wenn die Adresse mit keinem Teilnetz für vorhandene Adressen übereinstimmt. Der Schnittstellenname kann ein Wert wie en0, eth1, eri0 sein. Die Netzmaske ist die 32-Bit-Maske, mit der die Teilnetzadressbits im Hostabschnitt einer IP-Adresse identifiziert werden.
    unconfigure
    Löscht die Aliasadresse von der Netzschnittstellenkarte.
    Anmerkung:
    "unconfigure" gilt für die Komponente Dispatcher.
    start
    Starten Sie den Executor.
    status
    Anzeigen des aktuellen Status für die im Executor definierbaren Werte und ihrer Standardeinstellungen.
    stop
    Stoppen des Executors.
    Anmerkung:
    Der Parameter "stop" gilt für den Dispatcher und für CBR.

    Beispiele

    dscontrol file -- Konfigurationsdateien verwalten


    >>-dscontrol--file--+-delete--Datei[.Erw]----------+------------><
                        +-appendload--Datei[.Erw]------+
                        +-report----------------------+
                        +-save--Datei[.Erw]--+-------+-+
                        |                   '-force-' |
                        '-newload--Datei[.Erw]---------'
     
     
    

    delete
    Die Datei löschen.
    Datei[.Erw]
    Eine Konfigurationsdatei mit dscontrol-Befehlen.

    Die Dateierweiterung (.Erw) kann vom Benutzer festgelegt oder übergangen werden.

    appendload
    Zum Aktualisieren der momentanen Konfiguration führt der Befehl "appendload" die Befehle in Ihrer Scriptdatei aus.
    report
    Bericht über die verfügbare(n) Datei(en).
    save
    Die aktuelle Konfiguration für Load Balancer in der Datei speichern.
    Anmerkung:
    Dateien werden in den nachfolgend genannten Verzeichnissen gespeichert und aus diesen geladen. De gültigen Werte für Komponente sind "dispatcher" und "cbr".
    • Linux- und UNIX-Systeme: /opt/ibm/edge/lb/servers/configurations/Komponente
    • Windows-Plattform: C:\Programme\ibm\edge\lb\servers\configurations\Komponente
    force
    Wenn Sie Ihre Datei in einer vorhandenen Datei mit demselben Namen speichern möchten, verwenden Sie force, um die vorhandene Datei vor dem Speichern der neuen Datei zu löschen. Bei Nichtverwendung der Option "force" wird die vorhandene Datei nicht überschrieben.
    newload
    Eine neue Konfigurationsdatei in Load Balancer laden und ausführen. Die neue Konfigurationsdatei ersetzt die aktuelle Konfiguration.

    Beispiele

    dscontrol help -- Hilfetext für diesen Befehl anzeigen oder drucken


    >>-dscontrol--help--+-advisor----------+-----------------------><
                        +-binlog-----------+
                        +-cluster----------+
                        +-executor---------+
                        +-file-------------+
                        +-help-------------+
                        +-highavailability-+
                        +-host-------------+
                        +-logstatus--------+
                        +-manager----------+
                        +-metric-----------+
                        +-port-------------+
                        +-rule-------------+
                        +-server-----------+
                        +-set--------------+
                        +-status-----------+
                        '-subagent---------'
     
     
    

    Beispiele

    dscontrol highavailability -- Hohe Verfügbarkeit steuern


    Anmerkung:
    Das Syntaxdiagramm zu dscontrol highavailability gilt nur für die Komponente Dispatcher.
    >>-dscontrol--highavailability--+-status--------------------------------------+-><
                                    +-backup--+-add--+-primary-+--+-auto---+--p-+-+
                                    |         |      +-backup--+  '-manual-'    | |
                                    |         |      '-both----'                | |
                                    |         '-delete--------------------------' |
                                    +-reach--+-add----+--Adresse--Maske------------+
                                    |        '-delete-'                           |
                                    +-heartbeat--+-add--Quellenadresse--Zieladresse-+--+
                                    |            '-delete--Adresse-------------'  |
                                    '-takeover--+---------+-----------------------'
                                                '-Adresse-'
     
     
    

    status
    Einen Bericht über die hohe Verfügbarkeit zurückgeben. Maschinen können eine von drei Statusbedingungen oder einen von drei Status haben:

    Active
    Eine bestimmte Maschine (primäre Maschine und/oder Partnermaschine) leitet Pakete weiter.

    Standby
    Eine bestimmte Maschine (primäre Maschine und/oder Partnermaschine) leitet keine Pakete weiter. Sie überwacht den Status eines aktiven Dispatchers.

    Idle
    Eine bestimmte Maschine leitet Pakete weiter und versucht nicht, Kontakt mit der Dispatcher-Partnermaschine aufzunehmen.

    Darüber hinaus gibt das Schlüsselwort status Informationen über verschiedene untergeordnete Status zurück:

    Synchronized
    Eine bestimmte Maschine hat Kontakt mit einer anderen Dispatcher-Maschine aufgenommen.

    Andere untergeordnete Status
    Diese Maschine versucht, Kontakt zu ihrer Dispatcher-Partnermaschine aufzunehmen, die Kontaktaufnahme ist aber bisher nicht gelungen.
    backup
    Informationen über die primäre Maschine oder die Partnermaschine angeben.
    add
    Definiert die Funktionen der hohen Verfügbarkeit für diese Maschine und führt sie aus.
    primary
    Identifiziert die Dispatcher-Maschine, die die Rolle als primäre Maschine einnimmt.
    backup
    Identifiziert die Dispatcher-Maschine, die die Rolle als Partnermaschine einnimmt.
    both
    Identifiziert die Dispatcher-Maschine, die die Rolle als primäre Maschine und Partnermaschine einnimmt. Hierbei handelt es sich um die Funktion für wechselseitige hohe Verfügbarkeit, bei der die Rollen als primäre Maschine und als Partnermaschine auf der Basis einer Clustergruppe zugeordnet werden. Weitere Informationen finden Sie im Abschnitt Wechselseitige hohe Verfügbarkeit.
    auto
    Gibt eine automatische Wiederanlaufstrategie an, bei der die primäre Maschine das Weiterleiten von Paketen übernimmt, sobald sie wieder betriebsbereit ist.
    manual
    Gibt eine manuelle Wiederanlaufstrategie an, bei der die primäre Maschine das Weiterleiten von Paketen erst dann wieder übernimmt, wenn der Administrator den Befehl takeover ausgibt.
    Port
    Ein auf beiden Maschinen nicht verwendeter TCP-Port für die Nachrichten zu den Dispatcher-Überwachungssignalen. Der Port muss für die primäre und die Ausweichmaschine identisch sein.
    delete
    Entfernt diese Maschine aus der hohen Verfügbarkeit, diese Maschine kann daher nicht mehr als Partnermaschine oder als primäre Maschine benutzt werden.
    reach
    Hinzufügen oder Löschen der Zieladresse für den primären Dispatcher und den Ausweich-Dispatcher. Die Advisor-Funktion "reach" sendet Ping-Befehle vom primären und Ausweich-Dispatcher, um die Erreichbarkeit ihrer Ziele festzustellen.
    Anmerkung:
    Anmerkung: Wenn Sie das Ziel für reach konfigurieren, müssen Sie auch die Advisor-Funktion "reach" starten. Die Advisor-Funktion "reach" wird automatisch von der Managerfunktion gestartet.
    add
    Fügt eine Zieladresse zur Advisor-Funktion "reach" hinzu.
    delete
    Entfernt eine Zieladresse aus der Advisor-Funktion "reach".
    Adresse
    Die IP-Adresse (im IP-Adressenformat oder als symbolischer Name) des Zielknotens.
    Maske
    Eine Teilnetzmaske.
    heartbeat
    Definiert eine Übertragungssitzung zwischen der primären Dispatcher-Maschine und der Ausweichmaschine.
    add
    Teilt dem Quellen-Dispatcher die Adresse seines Partners (Zieladresse) mit.
    Quellenadresse
    Die Adresse (IP-Adresse oder symbolischer Name) dieser Dispatcher-Maschine.
    Zieladresse
    Die Adresse (IP-Adresse oder symbolischer Name) der anderen Dispatcher-Maschine.
    Anmerkung:
    Die Quellen- und die Zieladresse müssen für mindestens ein Überwachungssignalpaar die NFAs der Maschinen sein.
    delete
    Entfernt das Adressenpaar aus den Informationen zum Überwachungssignal. Sie können die Ziel- oder die Quellenadresse des Überwachungssignalpaares angeben.
    Adresse
    Die Adresse (IP-Adresse oder symbolischer Name); entweder die Ziel- oder die Quellenadresse.
    takeover
    Konfiguration mit einfacher Hochverfügbarkeit (Rolle der Dispatcher-Maschinen ist entweder primary oder backup):

    Konfiguration mit gegenseitiger hoher Verfügbarkeit (Rolle jeder Dispatcher-Maschine ist beide):

    Anmerkungen:

    1. Beachten Sie, dass sich die Rollen der Maschine (primary, backup, both) nicht ändern. Es ändert sich nur ihr relativer Status (active oder standby).

    2. Es gibt drei mögliche Takeover-Scripts: goActive, goStandby und goInOp. Weitere Informationen finden Sie im Abschnitt Scripts verwenden.
    Adresse
    Der Wert für die Übernahmeadresse ist optional. Er sollte nur verwendet werden, wenn die Maschine die Rolle als primäre Maschine und Ausweichmaschine einnimmt (Konfiguration mit wechselseitiger hoher Verfügbarkeit). Die angegebene Adresse ist die NFA der Dispatcher-Maschine, die normalerweise den Datenverkehr dieses Clusters weiterleitet. Erfolgt eine Übernahme beider Cluster, geben Sie die eigene NFA-Adresse des Dispatchers an.

    Beispiele

    dscontrol host -- Ferne Maschine konfigurieren


    >>-dscontrol--host:--ferner_Host-------------------------------><
     
     
    

    ferner_Host
    Der Name der fernen Load-Balancer-Maschine, die konfiguriert wird. Stellen Sie bei der Eingabe dieses Befehls sicher, dass sich zwischen host: und ferner_Host kein Leerzeichen befindet. Beispiel:
    dscontrol host:ferner_Host
    

    Nachdem dieser Befehl in der Eingabeaufforderung ausgegeben wurde, geben Sie einen beliebigen gültigen Befehl "dscontrol" ein, der für die ferne Load-Balancer-Maschine abgesetzt werden soll.

    dscontrol logstatus -- Protokolleinstellungen des Servers anzeigen


    >>-dscontrol--logstatus----------------------------------------><
     
     
    

    logstatus
    Zeigt die Einstellungen des Serverprotokolls (Name der Protokolldatei, Protokollstufe und -größe) an.

    Beispiele

    Geben Sie den folgenden Befehl ein, um den Protokollstatus anzuzeigen:

    dscontrol logstatus

    Die Ausgabe dieses Befehls sieht etwa wie folgt aus:

    Protokollstatus von Dispatcher:
    ------------------------------
    Name der Protokolldatei ........... C:\PROGRA~1\IBM\edge\lb\servers\logs\dispatcher\server.log
    Protokollstufe .................... 1
    Maximale Protokollgröße (Bytes) ... 1048576

    dscontrol manager -- Manager steuern

    >>-dscontrol--manager--+-interval--Sekunden----------------------+-><
                           +-loglevel--Stufe------------------------+
                           +-logsize--+-unlimited-+-----------------+
                           |          '-Bytes-----'                 |
                           +-metric set--+-loglevel--Stufe--------+-+
                           |             '-logsize--+-unlimited-+-' |
                           |                        '-Bytes-----'   |
                           +-quiesce--Server--+-----+---------------+
                           |                  '-now-'               |
                           +-reach set--+-interval--Sekunden------+--+
                           |            +-loglevel--Stufe--------+  |
                           |            '-logsize--+-unlimited-+-'  |
                           |                       '-Bytes-----'    |
                           +-refresh--Aktualisierungszyklus-----------------+
                           +-report--+----------------+-------------+
                           |         '-Cluster+c2+...-'             |
                           +-restart--Nachricht-----------------------+
                           +-sensitivity--Wertigkeit--------------------+
                           +-smoothing--Glättungsfaktor-------------+
                           +-start--+-----------------------+-------+
                           |        '-Protokolldatei--Metrikport-'       |
                           +-status---------------------------------+
                           +-stop-----------------------------------+
                           +-unquiesce--server----------------------+
                           '-version--------------------------------'
     
     
    

    interval
    Legt fest, wie oft der Manager die Wertigkeit der Server für den Executor aktualisiert. Dabei werden die Kriterien aktualisiert, die der Executor für die Weiterleitung von Clientanforderungen verwendet.
    Sekunden
    Eine positive Zahl, die in Sekunden darstellt, wie oft der Manager Wertigkeiten für den Executor aktualisiert. Der Standardwert ist 2.
    loglevel
    Legt die Protokollstufe für das Protokoll des Managers fest.
    Stufe
    Die Nummer der Stufe (0 bis 5). Je größer die Zahl, desto mehr Informationen werden in das Managerprotokoll geschrieben. Der Standardwert ist 1. Die folgenden Werte sind gültig: 0 für keine Einträge, 1 für eine minimale Protokollierung, 2 für eine Basisprotokollierung, 3 für eine normale, 4 für eine erweiterte und 5 für eine ausführliche Protokollierung.
    logsize
    Legt die maximale Größe des Protokolls des Managers fest. Wenn Sie eine maximale Größe für die Protokolldatei festlegen, findet ein Dateiumlauf statt. Hat die Datei die angegebene Größe erreicht, werden alle weiteren Einträge wieder an den Anfang der Datei geschrieben und die dort befindlichen Einträge überschrieben. Die Protokollgröße kann nicht auf einen geringeren Wert als die aktuelle Dateigröße gesetzt werden. Protokolleinträge werden mit einer Zeitmarke versehen, damit Sie erkennen können, in welcher Reihenfolge die Einträge geschrieben wurden. Je höher Sie die Protokollstufe setzen, desto vorsichtiger müssen Sie die Protokollgröße auswählen, da die Protokolldatei sehr schnell voll ist, wenn Sie eine Protokollierung auf einer höheren Stufe wählen.
    Bytes
    Die maximale Größe in Byte für die Protokolldatei des Managers. Sie können entweder eine positive Zahl, die größer als 0 sein muss, oder das Wort unlimited (unbegrenzt) angeben. Möglicherweise erreicht die Protokolldatei nicht genau die maximale Größe, bevor der Dateiumlauf stattfindet, da die Größe der Protokolleinträge variiert. Der Standardwert ist 1 MB.
    metric set
    Legt die Werte für loglevel und logsize für das Metriküberwachungsprotokoll fest. Der Wert für loglevel ist die Stufe für die Protokollierung der Metriküberwachung (0 - Keine, 1 - Minimal, 2 - Grundlegend, 3 - Mäßig, 4 - Erweitert oder 5 - Ausführlich). Die Standardprotokollstufe ist 1. Der Wert für logsize ist die Datenmenge (in Bytes), die maximal in der Protokolldatei für Metriküberwachung erfasst wird. Sie können entweder eine positive Zahl, die größer als 0 sein muss, oder unlimited (unbegrenzt) angeben. Die Standardprotokollgröße ist 1 MB.
    quiesce
    Es werden keine weiteren Verbindungen an einen Server gesendet. Hiervon ausgenommen sind nur nachfolgende neue Verbindungen vom Client zum stillgelegten Server, sofern diese als sticky markiert sind und die Haltezeit (stickytime) nicht abgelaufen ist. Der Manager setzt die Wertigkeit für diesen Server an jedem Port, für den er definiert ist, auf 0. Diesen Befehl verwenden, wenn auf einem Server eine schnelle Wartung erfolgen soll und der Server anschließend wieder aktiviert werden soll. Wenn Sie einen stillgelegten Server aus der Konfiguration löschen und ihn der Konfiguration anschließend wieder hinzufügen, behält er nicht seinen Status, den er vor der Stilllegung hatte. Weitere Informationen finden Sie im Abschnitt Bearbeitung von Serververbindungen stilllegen.
    Server
    Die IP-Adresse des Servers als symbolischer Name oder in Schreibweise mit Trennzeichen.

    Wenn Sie die Serverpartitionierung verwenden, geben Sie den eindeutigen Namen des logischen Servers an. Weitere Informationen finden Sie im Abschnitt Serverpartitionierung - Konfigurieren logischer Server für einen physischen Server (IP-Adresse).

    now
    Verwenden Sie "quiesce now" nur, wenn Sie die Haltezeit definiert haben und vor Ablauf der Haltezeit neue Verbindungen an einen anderen als den stillgelegten Server gesendet werden sollen. Weitere Informationen finden Sie im Abschnitt Bearbeitung von Serververbindungen stilllegen.
    reach set
    Legt das Intervall, die Protokollstufe und die Protokollgröße für die Advisor-Funktion reach fest.
    refresh
    Legt die Anzahl von Intervallen fest, nach denen der Manager die Informationen über neue und aktive Verbindungen für den Executor aktualisiert.
    Aktualisierungszyklus
    Eine positive Zahl, die die Anzahl von Intervallen darstellt. Der Standardwert ist 2.
    report
    Zeigt eine statistische Momentaufnahme an.
    Cluster
    Die Adresse des Clusters, die im Bericht angezeigt werden soll. Die Adresse kann ein symbolischer Name oder eine Adresse im IP-Adressenformat sein. Der Standardwert ist ein Managerbericht, in dem alle Cluster angezeigt werden.
    Anmerkung:
    Zusätzliche Cluster werden durch ein Pluszeichen (+) getrennt.
    restart
    Startet alle Server (die nicht inaktiv sind) mit der Standardwertigkeit (1/2 der maximalen Wertigkeit).
    Nachricht
    Eine Nachricht, die in die Protokolldatei des Managers gestellt werden soll.
    sensitivity
    Legt die Mindestsensitivität für die Aktualisierung von Wertigkeiten fest. Diese Einstellung definiert, wann der Manager seine Serverwertigkeit ausgehend von externen Informationen ändern sollte.
    Wertigkeit
    Eine Zahl von 1 bis 100, die als prozentuale Wertigkeit verwendet werden soll. Der Standardwert 5 bewirkt eine Mindestsensitivität von 5 %.
    smoothing
    Festlegen eines Faktors, der Wertigkeitsabweichungen während des Lastausgleichs glättet. Ein höherer Glättungsfaktor führt zu einer weniger drastischen Änderung von Serverwertigkeiten bei Änderungen an den Netzbedingungen. Ein geringerer Glättungsfaktor führt zu einer drastischeren Änderung von Serverwertigkeiten.
    Index
    Eine positive Gleitkommazahl. Der Standardwert ist 1,5.
    start
    Den Manager starten.
    Protokolldatei
    Der Name der Datei, in der die Daten des Managers protokolliert werden. Jeder Eintrag im Protokoll wird mit einer Zeitmarke versehen.

    Die Standarddatei ist im Verzeichnis logs installiert. Weitere Informationen finden Sie in Anhang C. Beispielkonfigurationsdateien. Wollen Sie das Verzeichnis ändern, in dem die Protokolldateien gespeichert werden, lesen Sie die Informationen im Abschnitt Pfade für die Protokolldatei ändern.

    Metrikport
    Der von Metric Server für Meldungen zur Systembelastung verwendete Port. Wenn Sie einen Metrikport angeben, müssen Sie auch einen Protokolldateinamen angeben. Der Standardmetrikport ist 10004.
    status
    Zeigt den aktuellen Status aller Werte in dem Manager an, die global gesetzt werden können. Zudem werden die Standardwerte dieser Werte angezeigt.
    stop
    Den Manager stoppen.
    unquiesce
    Festlegung, dass der Manager einem zuvor stillgelegten Server an jedem Port, für den er definiert ist, eine Wertigkeit größer als null zuordnen kann.
    Server
    Die IP-Adresse des Servers als symbolischer Name oder in Schreibweise mit Trennzeichen.
    version
    Zeigt die aktuelle Version des Managers an.

    Beispiele

    dscontrol metric -- Systemmetriken konfigurieren

    >>-dscontrol--metric--+-add--Cluster+c2+...+cN:Metrik+Metrik1+...+MetrikN--------------+-><
                          +-remove--Cluster+c2+...+cN:Metrik+Metrik1+...+MetrikN-----------+
                          +-proportions--Cluster+c2+...+cN Proportion1 Prop2 Prop3...PropN-+
                          '-status--Cluster+c2+...+cN:Metrik+Metrik1+...+MetrikN-----------'
     
     
    

    add
    Hinzufügen der angegebenen Metrik.
    Cluster
    Die Adresse, zu der die Clients eine Verbindung herstellen. Die Adresse kann der Hostname der Maschine oder die IP-Adresse im IP-Adressenformat sein. Zusätzliche Cluster werden durch ein Pluszeichen (+) getrennt.
    Metrik
    Name der Systemmetrik. Es muss sich um den Namen einer ausführbaren Datei oder Scriptdatei im Verzeichnis von Metric Server handeln.
    remove
    Entfernen der angegebenen Metrik.
    proportions
    Festlegen der Proportionen für alle diesem Objekt zugeordneten Metriken.
    status
    Anzeigen der aktuellen Metrik.

    Beispiele

    dscontrol port -- Ports konfigurieren

    >>-dscontrol--port--+-add--Cluster:Port--+----------------------+-+-><
                        |                    +-crossport--anderer_Port-+ |
                        |                    +-maxservers--Größe-----+   |
                        |                    +-stickymask--Wert----+     |
                        |                    +-stickytime--Zeit-----+    |
                        |                    +-method--Typ---------+     |
                        |                    +-staletimeout--Wert--+     |
                        |                    +-weightbound--Wertigkeit--+|
                        |                    +-porttype--Typ-------+     |
                        |                    +-protocol--Typ-------+     |
                        |                    '-reset--Wert---------'     |
                        +-set--Cluster:Port--+-crossport--anderer_Port-+-+
                        |                    +-maxservers--Größe-----+   |
                        |                    +-stickymask--Wert----+     |
                        |                    +-stickytime--Zeit-----+    |
                        |                    +-staletimeout--Wert--+     |
                        |                    +-weightbound--Wertigkeit--+|
                        |                    +-porttype--Typ-------+     |
                        |                    +-maxhalfopen--Wert---+     |
                        |                    '-reset--Wert---------'     |
                        +-remove--Cluster:Port------------------------+
                        +-report--Cluster:Port------------------------+
                        +-status--Cluster:Port------------------------+
                        '-halfopenaddressreport--Cluster:Port---------'
     
     
    

    add
    Hinzufügen eines Ports zu einem Cluster. Sie müssen einen Port zu einem Cluster hinzufügen, bevor Sie Server zu diesem Port hinzufügen können. Sind keine Ports für einen Cluster vorhanden, werden alle Clientanforderungen lokal verarbeitet. Mit diesem Befehl können Sie mehrere Ports auf einmal hinzufügen.
    Cluster
    Die Adresse des Clusters als symbolischer Name oder im IP-Adressenformat. Sie können einen Doppelpunkt (:) als Platzhalter verwenden. Der Befehl dscontrol port add :80 bewirkt beispielsweise, dass Port 80 zu allen Clustern hinzugefügt wird.
    Anmerkung:
    Zusätzliche Cluster werden durch ein Pluszeichen (+) getrennt.
    Port
    Nummer des Ports. Mit der Portnummer 0 (null) kann ein Platzhalterport angegeben werden.
    Anmerkung:
    Zusätzliche Ports werden durch ein Pluszeichen (+) getrennt.
    crossport
    Mit "crossport" können Sie das Feature für Haltezeit/Affinität auf mehrere Ports ausdehnen, so dass künftige Anforderungen von Clients, deren Anforderungen an verschiedenen Ports empfangen werden, dennoch an einen Server gesendet werden können. Geben Sie als Wert für "crossport" die Nummer des anderen Ports an, der in die Crossport-Affinität einbezogen werden soll. Die Ports müssen die folgenden Bedingungen erfüllen, um diese Funktion verwenden zu können:

    Wenn Sie die Crossport-Affinität aufheben möchten, setzen Sie den Wert für "crossport" auf seine eigene Portnummer zurück. Weitere Informationen zum Feature "Crossport-Affinität" finden Sie im Abschnitt Crossport-Affinität.

    Anmerkung:
    "crossport" gilt nur für die Dispatcher-Weiterleitungsmethoden MAC und NAT/NATP.
    anderer_Port
    Der Wert von crossport. Der Standardwert entspricht der eigenen Portnummer.
    maxservers
    Die maximale Anzahl von Servern. Der Standardwert für maxservers ist 32.
    Größe
    Der Wert für maxservers.
    stickymask
    Mit dem Feature "Affinitätsadressmaske" werden eingehende Clientanforderungen auf der Basis gemeinsamer Teilnetzadressen zusammengefasst. Wenn eine Clientanforderung eine Verbindung zu dem Port hergestellt hat, werden alle nachfolgenden Anforderungen von Clients mit derselben (durch den maskierten Abschnitt der IP-Adresse angegebenen) Teilnetzadresse an denselben Server übertragen. Wenn Sie stickymask aktivieren möchten, muss stickytime für den Port einen Wert ungleich null haben. Weitere Informationen finden Sie im Abschnitt Affinitätsadressmaske (stickymask).
    Anmerkung:
    Das Schlüsselwort stickymask gilt nur für die Komponente Dispatcher.
    Wert
    Der Wert für stickymask ist die Anzahl der höherwertigen Bits der 32-Bit-IP-Adresse, die maskiert werden sollen. Gültige Werte sind: 8, 16, 24 und 32. Der Standardwert ist 32. Damit wird die Funktion der Affinitätsadressmaske inaktiviert.
    stickytime
    Das Intervall zwischen dem Schließen einer Verbindung und dem Öffnen einer neuen Verbindung. Innerhalb dieses Intervalls wird der Client an denselben Server wie bei der ersten Verbindung vermittelt. Nach Ablauf der Haltezeit kann der Client an einen anderen Server vermittelt werden.

    Für die Dispatcher-Komponente:

    Für die Komponente CBR: Wenn Sie die Haltezeit (stickytime) für den Port auf einen Wert ungleich null setzen, muss der Affinitätstyp der Regel auf den Standard (none) gesetzt sein. Die regelbasierte Affinität (passive Cookie-Affinität, URI-Affinität, aktive Cookie-Affinität) kann nicht gleichzeitig festgelegt werden, wenn die Haltezeit für den Port gesetzt ist.

    Zeit
    Die Zeit in Sekunden für die Weiterleitung der Anforderungen eines Clients an denselben Server. Null gibt an, dass die Anforderungen eines Clients nicht an denselben Server weitergeleitet werden.
    method
    Weiterleitungsmethode. Es gibt die Weiterleitungsmethoden mac und nat und die inhaltsabhängige Weiterleitung (cbr). Die Weiterleitungsmethode "nat" oder die inhaltsabhängige Weiterleitung (cbr) können Sie erst hinzufügen, nachdem Sie mit dem Parameter "clientgateway" des Befehls "dscontrol executor" eine IP-Adresse ungleich null angegeben haben. Weitere Informationen finden Sie in den Abschnitten Dispatcher-Weiterleitungsmethode NAT/NAPT und Dispatcher-Weiterleitungsmethode "cbr".

    Anmerkungen:

    1. Die Methode gilt nur für die Komponente Dispatcher.

    2. Wenn sich der Back-End-Server im selben Teilnetz wie die Rückkehradresse befindet und Sie die Weiterleitungsmethode "cbr" oder "nat" verwenden, müssen Sie als Router-Adresse die Adresse des Back-End-Servers definieren.

    3. Fügen Sie eine mac-Weiterleitungsmethode hinzu, werden Sie aufgefordert, für den Parameter "protocol" entweder HTTP oder SSL anzugeben.
    Typ
    Der Typ der Weiterleitungsmethode. Mögliche Werte sind "mac", "nat" und "cbr". Der Standardwert ist "mac".
    staletimeout
    Die Zeit der Inaktivität einer Verbindung in Sekunden, bevor die Verbindung entfernt wird. Für die Komponente Dispatcher lautet der Standardwert 900 für Port 21 (FTP) und 32.000.000 für Port 23 (Telnet). Für alle anderen Dispatcher-Ports und alle CBR-Ports ist der Standardwert 300. Das Inaktivitätszeitlimit kann auch auf Executor- oder Clusterebene gesetzt werden. Weitere Informationen finden Sie im Abschnitt Inaktivitätszeitlimit verwenden.
    Wert
    Der Wert für staletimeout in Sekunden.
    weightbound
    Legt die maximale Wertigkeit von Servern an diesem Port fest. Mit diesem Wert wird die Differenz festgelegt, die hinsichtlich der Anzahl der Anforderungen, die der Executor den einzelnen Servern zuordnet, gelten soll. Der Standardwert ist 20.
    Wertigkeit
    Eine Zahl zwischen 1 und 100, der die maximale Gewichtungsgrenze darstellt.
    porttype
    Der Porttyp.
    Anmerkung:
    Der Parameter "porttype" gilt nur für Dispatcher.
    Typ
    Gültige Werte sind tcp, udp und both. Der Standardwert ist both (tcp/udp).
    protocol
    Der Protokolltyp. Für die Komponente Dispatcher ist dies ein erforderlicher Parameter, sofern Sie für den Port eine cbr-Methode angeben. Wenn Sie für einen Port den Protokolltyp SSL auswählen, sollten Sie außerdem eine Haltezeit (stickytime) ungleich null angeben, um die SSL-ID-Affinität zu aktivieren. Bei Auswahl des Protokolls HTTP können Sie mit Inhaltsregeln die Serveraffinität konfigurieren. Weitere Informationen finden Sie im Abschnitt Dispatcher-Weiterleitungsmethode "cbr".
    Anmerkung:
    "protocol" gilt nur für die Weiterleitungsmethode "cbr" von Dispatcher.
    Typ
    Die gültigen Werte sind HTTP und SSL.
    maxhalfopen
    Der Schwellenwert für das Maximum halboffener Verbindungen. Verwenden Sie diesen Parameter, um mögliche DoS-Attacken festzustellen, die eine große Anzahl halboffener TCP-Verbindungen auf Servern nach sich ziehen.

    Ein positiver Wert gibt an, dass überprüft wird, ob die aktuelle Anzahl halboffener Verbindungen den Schwellenwert überschreitet. Wenn der aktuelle Wert über dem Schwellenwert liegt, wird ein Alert-Script aufgerufen. Weitere Informationen finden Sie im Abschnitt Erkennung von DoS-Attacken.

    Anmerkung:
    Der Parameter "maxhalfopen" gilt nur für Dispatcher.
    Wert
    Der Wert für maxhalfopen. Der Standardwert ist null (es findet keine Überprüfung statt).
    reset
    Mit reset können Sie angeben, ob Load Balancer an inaktive Server am Port eine TCP-Rücksetzanforderung senden soll. Eine TCP-Rücksetzanforderung bewirkt eine sofortige Beendigung der Verbindung. Weitere Informationen finden Sie im Abschnitt TCP-Rücksetzanforderung an einen inaktiven Server senden (nur Komponente Dispatcher).
    Anmerkung:
    Das Schlüsselwort reset gilt nur für die Komponente Dispatcher. Wenn Sie das Schlüsselwort "reset" verwenden möchten, muss der Parameter clientgateway des Befehls dscontrol executor auf eine Router-Adresse gesetzt sein.
    Wert
    Gültige Werte für reset sind yes und no. Der Standardwert ist no (es wird keine TCP-Rücksetzanforderung an inaktive Server gesendet). Wenn reset auf yes gesetzt ist, wird eine TCP-Rücksetzanforderung an inaktive Server gesendet.
    set
    Festlegen der Felder eines Ports.
    remove
    Entfernen dieses Ports.
    report
    Bericht zu diesem Port.
    status
    Anzeigen des Status für den Server an diesem Port. Wenn Sie den Status für alle Ports sehen möchten, geben Sie diesen Befehl ohne Port an. Vergessen Sie jedoch nicht den Doppelpunkt.
    Anzahl_Sekunden
    Die Zeit in Sekunden, nach der halboffene Verbindungen zurückgesetzt werden.
    halfopenaddressreport
    Generiert für alle Clientadressen (bis zu 8000 Adresspaare), deren Serverzugriff halboffene Verbindungen zur Folge hatten, Einträge im Protokoll (halfOpen.log). Außerdem werden statistische Daten an die Befehlszeile zurückgegeben. Dazu gehören unter anderem die Gesamtzahl, die größte Anzahl und die durchschnittliche Anzahl halboffener Verbindungen sowie die durchschnittliche Dauer halboffener Verbindungen (in Sekunden). Weitere Informationen finden Sie im Abschnitt Erkennung von DoS-Attacken.

    Beispiele

    dscontrol rule -- Regeln konfigurieren

    >>-dscontrol--rule--+-add--Cluster:Port:Regel--type--Typ--| Optionen |-+-><
                        +-dropserver--Cluster:Port:Regel--Server--------+
                        +-remove--Cluster:Port:Regel--------------------+
                        +-report--Cluster:Port:Regel--------------------+
                        +-set--Cluster:Port:Regel--| Optionen |-------------+
                        +-status--Cluster:Port:Regel--------------------+
                        '-useserver--Cluster:Port:Regel--Server+s2+...--'
     
    Optionen:
     
    |--+---------------------------------+--------------------------|
       +-beginrange--unterer_Grenzwert--endrange--oberer_Grenzwert-+
       +-priority--Stufe-----------------+
       +-pattern--Muster-----------------+
       +-tos--Wert-----------------------+
       +-stickytime--Zeit----------------+
       +-affinity--Affinitätstyp---------+
       +-cookiename--Wert----------------+
       +-evaluate--Stufe-----------------+
       '-sharelevel--Stufe---------------'
     
     
    

    add
    Diese Regel zu einem Port hinzufügen.
    Cluster
    Die Adresse des Clusters als symbolischer Name oder im IP-Adressenformat. Sie können einen Doppelpunkt (:) als Platzhalter verwenden. Der Befehl dscontrol rule add :80:RuleA type Typ bewirkt beispielsweise, dass RegelA für alle Cluster zu Port 80 hinzugefügt wird.
    Anmerkung:
    Zusätzliche Cluster werden durch ein Pluszeichen (+) getrennt.
    Port
    Nummer des Ports. Sie können einen Doppelpunkt (:) als Platzhalter verwenden. Der Befehl dscontrol rule add clusterA::RuleA type Typ bewirkt beispielsweise, dass RegelA zu allen Ports für ClusterA hinzugefügt wird.
    Anmerkung:
    Zusätzliche Ports werden durch ein Pluszeichen (+) getrennt.
    Regel
    Der für die Regel ausgewählte Name. Dieser Name kann eine beliebige Kombination aus alphanumerischen Zeichen, Unterstreichungszeichen, Silbentrennungsstrichen und Punkten sein. Der Name kann 1 bis 20 Zeichen lang sein und darf keine Leerzeichen enthalten.
    Anmerkung:
    Zusätzliche Regeln werden durch ein Pluszeichen (+) voneinander getrennt.
    type
    Der Regeltyp.
    Typ
    Die Auswahlmöglichkeiten für Typ sind:

    ip
    Die Regel basiert auf der Client-IP-Adresse.

    time
    Die Regel basiert auf der Uhrzeit.

    connection
    Die Regel basiert auf der Anzahl der Verbindungen pro Sekunde für den Port. Diese Regel kann nur verwendet werden, wenn der Manager aktiv ist.

    active
    Die Regel basiert auf der Gesamtzahl der aktiven Verbindungen für den Port. Diese Regel kann nur verwendet werden, wenn der Manager aktiv ist.

    port
    Die Regel basiert auf dem Clientport.
    Anmerkung:
    "port" gilt für die Komponente Dispatcher.

    service
    Diese Regel basiert auf dem Feld für die Service-Art (Type of Service = TOS) im IP-Header.
    Anmerkung:
    Service gilt nur für die Komponente Dispatcher.

    reservedbandwidth
    Diese Regel basiert auf der Bandbreite (in Kilobytes pro Sekunde), die von einer Servergruppe bereitgestellt wird. Weitere Informationen finden Sie in den Abschnitten Regeln auf der Basis der reservierten und gemeinsam benutzten Bandbreite verwenden und Regel "Reservierte Bandbreite".
    Anmerkung:
    Der Parameter "reservedbandwidth" gilt nur für die Komponente Dispatcher.

    sharedbandwidth
    Diese Regel basiert auf der Bandbreite (in Kilobytes pro Sekunde), die auf Executor- oder Clusterebene gemeinsam genutzt wird. Weitere Informationen finden Sie in den Abschnitten Regeln auf der Basis der reservierten und gemeinsam benutzten Bandbreite verwenden und Regel "Reservierte Bandbreite".
    Anmerkung:
    Der Parameter "sharedbandwidth" gilt nur für die Komponente Dispatcher.

    true
    Diese Regel ist immer wahr. Sie kann mit der Anweisung ELSE in der Programmierlogik verglichen werden.

    content
    Diese Regel beschreibt einen regulären Ausdruck, der mit den URLs verglichen wird, die vom Client angefordert werden. Dies gilt für Dispatcher und CBR.
    beginrange
    Der untere Wert des Bereichs, mit dem bestimmt wird, ob die Regel wahr ist oder nicht.
    unter_Grenzwert
    Hängt von der Art der Regel ab. Die Art des Werts und der Standardwert werden nachfolgend nach der Art der Regel aufgelistet:

    ip
    Die Adresse des Clients als symbolischer Name oder im IP-Adressenformat. Der Standardwert ist 0.0.0.0.

    time
    Eine ganze Zahl. Der Standardwert ist 0. Er stellt Mitternacht dar.

    connection
    Eine ganze Zahl. Der Standardwert ist 0.

    active
    Eine ganze Zahl. Der Standardwert ist 0.

    port
    Eine ganze Zahl. Der Standardwert ist 0.

    reservedbandwidth
    Eine ganze Zahl (Kilobytes pro Sekunde). Der Standardwert ist 0.
    endrange
    Der obere Wert des Bereichs, mit dem bestimmt wird, ob die Regel wahr ist oder nicht.
    oberer_Grenzwert
    Hängt von der Art der Regel ab. Die Art des Werts und der Standardwert werden nachfolgend nach der Art der Regel aufgelistet:

    ip
    Die Adresse des Clients als symbolischer Name oder im IP-Adressenformat. Der Standardwert ist 255.255.255.254.

    time
    Eine ganze Zahl. Der Standardwert ist 24. Er stellt Mitternacht dar.
    Anmerkung:
    Beim Definieren des Bereichsanfangs (beginrange) und Bereichsendes (endrange) der Zeitintervalle ist darauf zu achten, dass jeder Wert eine ganze Zahl sein muss, die nur den Stundenteil der Uhrzeit darstellt. Es werden keine Teilwerte einer Stunde angegeben. Soll beispielsweise die Stunde von 3 Uhr bis 4 Uhr angegeben werden, geben Sie für beginrange 3 und für endrange ebenfalls 3 an. Damit werden alle Minuten von 3 Uhr bis 3 Uhr 59 angegeben. Wird beginrange auf 3 und endrange auf 4 gesetzt, ergibt sich ein fast zweistündiger Zeitraum von 3.00 Uhr bis 4.59 Uhr.

    connections
    Eine ganze Zahl. Der Standardwert ist 2 hoch 32 minus 1.

    active
    Eine ganze Zahl. Der Standardwert ist 2 hoch 32 minus 1.

    port
    Eine ganze Zahl. Der Standardwert ist 65535.

    reservedbandwidth
    Eine ganze Zahl (Kilobytes pro Sekunde). Der Standardwert ist 2 hoch 32 minus 1.
    priority
    Die Reihenfolge, in der die Regeln überprüft werden.
    Stufe
    Eine ganze Zahl. Wird die Priorität der ersten hinzugefügten Regel nicht angegeben, wird sie von Dispatcher standardmäßig auf 1 gesetzt. Wird eine nachfolgende Regel hinzugefügt, wird ihre Priorität standardmäßig als 10 + der derzeit niedrigsten Priorität aller vorhandenen Regeln berechnet. Beispiel: Sie haben eine Regel mit der Priorität 30. Sie fügen eine neue Regel hinzu und setzen ihre Priorität auf 25ä1 (die, wie Sie wissen, eine höhere Priorität als 30 ist). Anschließend fügen Sie eine dritte Regel ohne Angabe einer Priorität hinzu. Die Priorität der dritten Regel wird wie folgt berechnet: 40 (30 + 10).
    pattern
    Gibt das Muster an, das für eine Regel der des Typs content verwendet werden soll.
    Muster
    Das zu verwendende Muster. Weitere Informationen zu den gültigen Werten finden Sie in Anhang B. Syntax für Inhaltsregeln (Muster).
    tos
    Gibt den Servicetyp an, der für die Regel des Typs Service verwendet wird.
    Anmerkung:
    TOS gilt nur für die Komponente Dispatcher.
    Wert
    Die aus 8 Zeichen bestehende Zeichenfolge, die für den tos-Wert verwendet werden soll. Gültige Zeichen sind: 0 (binäre Null), 1 (binäre Eins) und x (beliebig). Beispiel: 0xx1010x. Weitere Informationen finden Sie im Abschnitt Auf der Serviceart basierende Regeln verwenden.
    stickytime
    Gibt die für eine Regel zu verwendende Haltezeit an. Wenn der Parameter "affinity" des Befehls "rule" auf "activecookie" gesetzt wird, muss "stickytime" auf einen Wert ungleich null gesetzt werden, um diesen Affinitätstyp zu aktivieren. Die Haltezeit für die Regel gilt nicht für Regeln mit dem Affinitätstyp "passivecookie" oder "uri".

    Weitere Informationen finden Sie im Abschnitt Aktive Cookie-Affinität.

    Anmerkung:
    Der Parameter "stickytime" für Regeln gilt nur für die Komponente CBR.
    Zeit
    Zeit in Sekunden.
    affinity
    Gibt den für eine Regel zu verwendenden Affinitätstyp an: Aktive Cookie-Affinität, passive Cookie-Affinität, URI-Affinität oder Keine.

    Der Affinitätstyp activecookie aktiviert eine Lastverteilung des Webdatenverkehrs mit Affinität an einen Server. Die Affinität basiert auf Cookies, die von Load Balancer generiert werden.

    Der Affinitätstyp passivecookie aktiviert die Verteilung von Webdatenverkehr mit Affinität zu einem Server ausgehend von den Identifizierungs-Cookies, die von den Servern generiert werden. Für die passive Cookie-Affinität müssen Sie den Parameter "cookiename" verwenden.

    Der Affinitätstyp "URI" aktiviert den Lastausgleich für Webdatenverkehr auf Caching-Proxy-Servern mit effektiver Vergrößerung des Cache.

    Weitere Informationen finden Sie in den Abschnitten Aktive Cookie-Affinität, Passive Cookie-Affinität und URI-Affinität.

    Anmerkung:
    Die Affinität gilt für Regeln, die mit der Dispatcher-Weiterleitungsmethode "cbr" konfiguriert wurden, und für die Komponente CBR.
    Affinitätstyp
    Mögliche Werte für den Affinitätstyp sind: Keine (Standardwert), Aktives Cookie, Passives Cookie oder URI.
    cookiename
    Ein vom Administrator willkürlich festgelegter Name, der als Kennung für Load Balancer verwendet wird. Nach diesem Namen muss Load Balancer die HTTP-Header-Anforderung durchsuchen. Der Cookie-Name dient neben dem Cookie-Wert als Kennung für Load Balancer, so dass Load Balancer nachfolgende Anforderungen einer Website immer an dieselbe Servermaschine senden kann. Der Cookie-Name kann nur für die Affinität "Passives Cookie" angewendet werden.

    Weitere Informationen finden Sie im Abschnitt Passive Cookie-Affinität.

    Anmerkung:
    Der Cookie-Name gilt für Regeln, die mit der Dispatcher-Weiterleitungsmethode "cbr" konfiguriert wurden, und für die Komponente CBR.
    Wert
    Wert des Cookie-Namens.
    evaluate
    Diese Option ist nur für die Komponente Dispatcher verfügbar. Sie gibt an, ob die Regelbedingungen für alle Server an einem Port oder für alle Server in einer Regel ausgewertet werden sollen. Diese Option ist nur für Regeln gültig, die Entscheidungen ausgehend von den Kenndaten der Server treffen. Dazu gehören die Regeln "Aktive Verbindungen" und "Reservierte Bandbreite". Weitere Informationen finden Sie im Abschnitt Regeloption für Serverauswertung.

    Für Regeln des Typs connection können Sie auch eine Auswertungsoption (upserversonrule) angeben. Durch Angabe von upserversonrule können Sie sicherstellen, dass die übrigen Server, die dieser Regel unterliegen, nicht überlastet werden, wenn einige Server der Gruppe inaktiv sind.

    Stufe
    Mögliche Werte sind port, rule oder upserversonrule. Der Standardwert ist port. upserversonrule ist nur für den Regeltyp connection verfügbar.
    sharelevel
    Dieser Parameter gilt nur für die Regel "Gemeinsam genutzte Bandbreite". Er gibt an, ob die gemeinsame Nutzung von Bandbreite auf Cluster- oder Executor-Ebene stattfindet. Die gemeinsame Nutzung der Bandbreite auf Clusterebene ermöglicht Ports, einen maximalen Anteil der Bandbreite auf mehrere Ports in demselben Cluster zu verteilen. Bei der gemeinsamen Nutzung von Bandbreite auf Executor-Ebene steht für Cluster innerhalb der gesamten Dispatcher-Konfiguration eine maximale Bandbreite zur gemeinsamen Nutzung zur Verfügung. Weitere Informationen finden Sie im Abschnitt Regel "Gemeinsam genutzte Bandbreite".
    Stufe
    Mögliche Werte sind executor oder cluster.
    dropserver
    Einen Server aus einem Regelsatz entfernen.
    Server
    Die IP-Adresse der TCP-Servermaschine als symbolischer Name oder im IP-Adressenformat.

    Wenn Sie die Serverpartitionierung verwenden, geben Sie den eindeutigen Namen des logischen Servers an. Weitere Informationen finden Sie im Abschnitt Serverpartitionierung - Konfigurieren logischer Server für einen physischen Server (IP-Adresse).

    Anmerkung:
    Zusätzliche Server werden durch ein Pluszeichen (+) voneinander getrennt.
    remove
    Eine oder mehrere Regeln, die durch Pluszeichen voneinander getrennt sind, entfernen.
    report
    Die internen Werte einer oder mehrerer Regeln anzeigen.
    set
    Werte für diese Regel festlegen.
    status
    Die einstellbaren Werte einer oder mehrerer Regeln anzeigen.
    useserver
    Server in einen Regelsatz einfügen.

    Beispiele

    dscontrol server -- Server konfigurieren

    >>-dscontrol--server--+-add--Cluster:Port:Server--+-------------------------+-+-><
                          |                           +-address--Adresse--------+ |
                          |                           +-collocated--Wert--------+ |
                          |                           +-sticky--Wert------------+ |
                          |                           +-weight--Wert------------+ |
                          |                           +-fixedweight--Wert-------+ |
                          |                           +-cookievalue--Wert-------+ |
                          |                           +-mapport--Portwert-------+ |
                          |                           +-protocol--Wert----------+ |
                          |                           +-router--Adresse---------+ |
                          |                           +-returnaddress--Adresse--+ |
                          |                           +-advisorrequest--String--+ |
                          |                           '-advisorresponse--String-' |
                          +-set--Cluster:Port:Server--+-collocated--Wert--------+-+
                          |                           +-sticky--Wert------------+ |
                          |                           +-weight--Wert------------+ |
                          |                           +-fixedweight--Wert-------+ |
                          |                           +-cookievalue--Wert-------+ |
                          |                           +-protocol--Wert----------+ |
                          |                           +-router--Adresse---------+ |
                          |                           +-advisorrequest--String--+ |
                          |                           '-advisorresponse--String-' |
                          +-down--Cluster:Port:Server-----------------------------+
                          +-remove--Cluster:Port:Server---------------------------+
                          +-report--Cluster:Port:Server---------------------------+
                          +-up--Cluster:Port:Server-------------------------------+
                          '-status--Cluster:Port:Server---------------------------'
     
     
    

    add
    Diesen Server hinzufügen.
    Cluster
    Die Adresse des Clusters als symbolischer Name oder im IP-Adressenformat. Sie können einen Doppelpunkt (:) als Platzhalter verwenden. Der Befehl dscontrol server add :80:ServerA bewirkt beispielsweise, dass ServerA für alle Cluster zu Port 80 hinzugefügt wird.
    Anmerkung:
    Zusätzliche Cluster werden durch ein Pluszeichen (+) getrennt.
    Port
    Nummer des Ports. Sie können einen Doppelpunkt (:) als Platzhalter verwenden. Der Befehl dscontrol server add ::ServerA bewirkt beispielsweise, dass ServerA für alle Cluster zu allen Ports hinzugefügt wird.
    Anmerkung:
    Zusätzliche Ports werden durch ein Pluszeichen (+) getrennt.
    Server
    Der Server ist die eindeutige IP-Adresse der TCP-Servermaschine als symbolischer Name oder im IP-Adressenformat.

    Wenn Sie einen eindeutigen Namen verwenden, der nicht in eine IP-Adresse aufgelöst wird, müssen Sie den Befehl dscontrol server add mit dem Serverparameter address verwenden. Weitere Informationen finden Sie im Abschnitt Serverpartitionierung - Konfigurieren logischer Server für einen physischen Server (IP-Adresse).

    Anmerkung:
    Zusätzliche Server werden durch ein Pluszeichen (+) voneinander getrennt.
    address
    Die eindeutige IP-Adresse der TCP-Servermaschine als Hostname oder im IP-Adressenformat. Falls der Servername nicht aufgelöst werden kann, müssen Sie die Adresse der physischen Servermaschine angeben. Weitere Informationen finden Sie im Abschnitt Serverpartitionierung - Konfigurieren logischer Server für einen physischen Server (IP-Adresse).
    Adresse
    Wert für die Adresse des Servers.
    collocated
    Mit dem Parameter "collocated" können Sie angeben, ob der Dispatcher auf einer der Servermaschinen installiert ist, für die er den Lastausgleich durchführt.
    Anmerkung:
    Der Parameter "collocated" ist gültig, wenn die Dispatcher-Weiterleitungsmethode "mac", "nat" oder "cbr" verwendet wird. Site Selector und CBR können auf allen Plattformen verknüpft werden, erfordern jedoch nicht dieses Schlüsselwort. Weitere Informationen finden Sie im Abschnitt Verknüpfte Server verwenden.
    Wert
    Wert für collocated: ja oder nein. Der Standardwert ist Nein.
    sticky
    Ermöglicht einem Server, die Einstellung für stickytime an seinem Port zu überschreiben. Bei Verwendung des Standardwertes "yes" bleibt die normale normale Affinität wie für den Port definiert erhalten. Bei Verwendung des Wertes "no" wird der Client beim Absetzen der nächsten Anforderung an diesem Port nicht wieder an diesen Server verwiesen. Dies gilt unabhängig von der Einstellung für stickytime des Ports. Dies ist in bestimmten Situationen nützlich, wenn Regeln verwendet werden. Weitere Informationen finden Sie im Abschnitt Portaffinität außer Kraft setzen.
    Wert
    Wert für sticky: ja oder nein. Der Standardwert ist Ja.
    weight
    Eine Zahl zwischen 0 und 100 (die den angegebenen Wert für die Wertigkeitsgrenze des Ports nicht überschreiten darf) zur Angabe der Gewichtung dieses Servers. Wird die Wertigkeit auf 0 gesetzt, werden keine neuen Anforderungen an den Server gesendet, die derzeit aktiven Verbindungen zu diesem Server werden jedoch nicht beendet. Der Standardwert ist die Hälfte des angegebenen Maximalwerts für die Gewichtungsgrenze. Ist der Manager aktiv, wird diese Einstellung schnell überschrieben.
    Wert
    Wertigkeit des Servers.
    fixedweight
    Mit der Option "fixedweight" können Sie angeben, ob der Manager die Serverwertigkeit ändern soll. Wird der Wert für "fixedweight" auf "yes" gesetzt, kann der Manager die Serverwertigkeit nicht ändern. Weitere Informationen finden Sie im Abschnitt Feste Managerwertigkeiten.
    Wert
    Wert für fixedweight: ja oder nein. Der Standardwert ist Nein.
    cookievalue
    Der Parameter "cookievalue" ist ein zufälliger Wert, der die Serverseite des aus Cookie-Namen und Cookie-Wert bestehenden Paares. Der Cookie-Wert dient neben dem Cookie-Namen als Kennung, mit der Load Balancer nachfolgende Clientanforderungen an nur einen Server senden kann. Weitere Informationen finden Sie im Abschnitt Passive Cookie-Affinität.
    Anmerkung:
    Der Parameter "cookievalue" ist für Dispatcher (bei Verwendung der Weiterleitungsmethode "cbr") und CBR gültig.
    Wert
    Ein zufälliger Wert. Standardmäßig ist kein Cookie-Wert angegeben.
    mapport
    Zuordnen der Nummer des Zielports für die Clientanforderung (die für den Dispatcher angegeben ist) zur Nummer des Serverports, an dem der Dispatcher den Lastausgleich für die Clientanforderungen durchführt. Erlaubt Load Balancer, die Anforderung eines Clients an einem Port zu empfangen und sie an einen anderen Port auf der Servermaschine zu übertragen. Mit "mapport" können Sie den Lastausgleich für eine Clientanforderung auf einem Server durchführen, auf dem mehrere Serverdämonen aktiv sind.
    Anmerkung:
    Der Parameter "mapport" gilt für Dispatcher (bei Verwendung der Weiterleitungsmethode "nat" oder "cbr") und für CBR. Weitere Informationen finden Sie in den Abschnitten Dispatcher-Weiterleitungsmethode NAT/NAPT und Dispatcher-Weiterleitungsmethode "cbr". Informationen zu CBR finden Sie im Abschnitt Lastausgleich für SSL-Datenverkehr vom Client zum Proxy und HTTP-Datenverkehr vom Proxy zum Server.
    protocol
    Die gültigen Werte für protocol sind HTTP und HTTPS. Der Standardwert ist HTTP.
    Anmerkung:
    Der Parameter "protocol" gilt nur für die Komponente CBR.
    Portwert
    Nummer des zugeordneten Ports. Der Standardwert ist die Nummer des Zielports für die Clientanforderung.
    router
    Wenn Sie ein Weitverkehrsnetz konfigurieren, ist dies die Adresse des Routers zum fernen Server. Der Standardwert ist 0. Er gibt einen lokalen Server an. Wurde die Router-Adresse eines Servers einmal auf einen anderen Wert als null gesetzt (gibt einen fernen Server an), kann die Adresse nicht mehr auf null zurückgesetzt werden, um einen lokalen Server anzugeben. Der Server muss stattdessen entfernt und dann erneut ohne Angabe einer Router-Adresse hinzugefügt werden. Genauso kann ein als lokal definierter Server (Router-Adresse = 0) nicht als ferner Server definiert werden, indem die Router-Adresse geändert wird. Der Server muss entfernt und erneut hinzugefügt werden. Weitere Informationen finden Sie im Abschnitt Dispatcher-WAN-Unterstützung konfigurieren.
    Anmerkung:
    Der Parameter "router" gilt nur für Dispatcher. Wenn Sie die Weiterleitungsmethode "nat" oder "cbr" verwenden, müssen Sie beim Hinzufügen eines Servers zur Konfiguration die Router-Adresse angeben.
    Adresse
    Wert der Adresse des Routers.
    returnaddress
    Eine eindeutige IP-Adresse oder ein eindeutiger Hostname. Diese Adresse wird auf der Dispatcher-Maschine konfiguriert und wird vom Dispatcher bei der Lastverteilung der Clientanforderung an den Server als Quellenadresse verwendet. Auf diese Weise wird sichergestellt, dass der Server das Paket an die Dispatcher-Maschine zurückgibt und es nicht direkt an den Client sendet. (Der Dispatcher leitet das IP-Paket dann an den Client weiter.) Sie müssen den Wert für die Rückkehradresse beim Hinzufügen des Servers angeben. Die Rückkehradresse kann nur geändert werden, wenn Sie den Server entfernen und dann erneut hinzufügen. Die Rückkehradresse darf nicht mit dem Wert für Cluster, Server oder NFA übereinstimmen.
    Anmerkung:
    Der Parameter "returnaddress" gilt nur für Dispatcher. Wenn Sie die Weiterleitungsmethode "nat" oder "cbr" verwenden, müssen Sie eine Rückkehradresse für die Kommunikation zwischen Load Balancer und den Back-End-Servern definieren. Die Anzahl aktiver Verbindungen zwischen Load Balancer und dem Back-End-Server wird durch die Anzahl der Rückkehradressen beschränkt, die definiert sind. Load Balancer verwendet nur Ports, die auf der Rückkehradresse basieren, und keine Ports, die auf der Kombination von Rückkehradresse und Server basieren. Wenn alle verfügbaren Ports im Gebrauch sind, schlagen weitere Verbindungen fehl. Verwenden Sie in einer ausgelasteten Umgebung mehrere Rückkehradressen, um einen Engpass bei den verfügbaren Ports zu vermeiden.
    Adresse
    Wert der Rückkehradresse.
    advisorrequest
    eDie HTTP- oder HTTPS-Advisor-Funktion verwendet die Zeichenfolge advisorrequest, um den Status der Server abzufragen. Dieser Wert ist nur für die Server gültig, die mit der HTTP- oder HTTPS-Advisor-Funktion zusammenarbeiten. Zum Aktivieren dieses Wertes müssen Sie die HTTP- oder HTTPS-Advisor-Funktion starten. Weitere Informationen finden Sie im Abschnitt Option "Anforderung/Antwort (URL)" der HTTP- oder HTTPS-Advisor-Funktion konfigurieren.
    Anmerkung:
    Der Parameter "advisorrequest" gilt für die Komponenten Dispatcher und CBR.
    String
    Wert der Zeichenfolge, die von der HTTP- oder HTTPS-Advisor-Funktion verwendet wird. Der Standardwert ist HEAD / HTTP/1.0.
    Anmerkung:
    Wenn die Zeichenfolge ein Leerzeichen enthält, gilt Folgendes:
    • Bei Absetzen des Befehls von der Shell-Eingabeaufforderung dscontrol>> müssen Sie die Zeichenfolge in Anführungszeichen setzen. Beispiel: server set Cluster:Port:Server advisorrequest "head / http/1.0"
    • Beim Absetzen des Befehls dscontrol an der Eingabeaufforderung des Betriebssystems müssen Sie dem Text die Zeichen "\" voranstellen und den Text mit den Zeichen \"" beenden. Beispiel: dscontrol server set Cluster:Port:Server advisorrequest "\"head / http/1.0\""

    advisorresponse
    Die Antwortzeichenfolge der Advisor-Funktion, nach der die HTTP- oder HTTPS-Advisor-Funktion die HTTP-Antwort durchsucht. Dieser Wert ist nur für die Server gültig, die mit der HTTP- oder HTTPS-Advisor-Funktion zusammenarbeiten. Zum Aktivieren dieses Wertes müssen Sie die HTTP- oder HTTPS-Advisor-Funktion starten. Weitere Informationen finden Sie im Abschnitt Option "Anforderung/Antwort (URL)" der HTTP- oder HTTPS-Advisor-Funktion konfigurieren.
    Anmerkung:
    Der Parameter "advisorresponse" gilt für die Komponenten Dispatcher und CBR.
    String
    Wert der Zeichenfolge, die von der HTTP- oder HTTPS-Advisor-Funktion verwendet wird. Der Standardwert ist null.
    Anmerkung:
    Wenn die Zeichenfolge ein Leerzeichen enthält, gilt Folgendes:
    • Bei Absetzen des Befehls von der Shell-Eingabeaufforderung dscontrol>> müssen Sie die Zeichenfolge in Anführungszeichen setzen.
    • Beim Absetzen des Befehls dscontrol an der Eingabeaufforderung des Betriebssystems müssen Sie dem Text die Zeichen "\" voranstellen und den Text mit den Zeichen \"" beenden.
    down
    Diesen Server als inaktiv markieren. Durch diesen Befehl werden alle aktiven Verbindungen zu diesem Server unterbrochen, und es wird verhindert, dass weitere Verbindungen oder Pakete an diesen Server gesendet werden.

    Wenn Sie einen Server mit dem Befehl "server down" offline setzen und der stickytime-Wert für diesen Server ungleich null ist, werden vorhandene Clients weiter von diesem Server bedient, bis das stickytime-Intervall abläuft. Der Server wird erst nach Ablauf des stickytime-Invervalls heruntergefahren.

    remove
    Diesen Server entfernen.
    report
    Bericht über diesen Server erstellen. Der Bericht enthält zu jedem Server die folgenden Angaben: Anzahl gleichzeitiger Verbindungen pro Sekunde, innerhalb einer Sekunde übertragene Kilobytes, Summe der Verbindungen, Summe der aktiven Verbindungen, Anzahl der Verbindungen mit Beendigungsstatus (FIN) und Anzahl beendeter Verbindungen.
    set
    Werte für diesen Server festlegen.
    status
    Status der Server anzeigen.
    up
    Diesen Server als aktiv markieren. Der Dispatcher sendet jetzt neue Verbindungen zu diesem Server.

    Beispiele

    dscontrol set -- Serverprotokoll konfigurieren

    >>-dscontrol--set--+-loglevel--Stufe--------+------------------><
                       '-logsize--+-unlimited-+-'
                                  '-Größe------'
     
     
    

    loglevel
    Die Stufe für die Protokollierung von dsserver-Aktivitäten.
    Stufe
    Der Standardwert für loglevel ist 0. Der gültige Bereich ist 0 bis 5. Die folgenden Werte sind gültig: 0 für keine Einträge, 1 für eine minimale Protokollierung, 2 für eine Basisprotokollierung, 3 für eine normale, 4 für eine erweiterte und 5 für eine ausführliche Protokollierung.
    logsize
    Die maximale Anzahl von Byte, die in der Protokolldatei protokolliert werden können.
    Größe
    Der Standardwert für logsize ist 1 MB.

    dscontrol status -- display whether the manager and advisors are running

    >>-dscontrol--status-------------------------------------------><
     
     
    

    Beispiele

    dscontrol subagent -- SNMP-Subagenten konfigurieren

    Anmerkung:
    Die Befehlssyntax für dscontrol subagent gilt für die Komponente Dispatcher.
    >>-dscontrol--subagent--+-loglevel--Stufe---------------------------+-><
                            +-logsize--+-Bytes-----+--------------------+
                            |          '-unlimited-'                    |
                            +-report------------------------------------+
                            +-start--+--------------------------------+-+
                            |        '-Community-Name--Protokolldatei-' |
                            +-status------------------------------------+
                            +-stop--------------------------------------+
                            '-version-----------------------------------'
     
     
    

    loglevel
    Die Stufe, auf der der Subagent seine Aktivitäten in einer Datei protokolliert.
    Stufe
    Die Nummer der Stufe (0 bis 5). Je größer die Zahl, desto mehr Informationen werden in das Managerprotokoll geschrieben. Der Standardwert ist 1. Die folgenden Werte sind gültig: 0 für keine Einträge, 1 für eine minimale Protokollierung, 2 für eine Basisprotokollierung, 3 für eine normale, 4 für eine erweiterte und 5 für eine ausführliche Protokollierung.
    logsize
    Festlegen der Maximalen Größe des Subagentenprotokolls in Bytes. Der Standardwert ist 1 MB. Wenn Sie eine maximale Größe für die Protokolldatei festlegen, findet ein Dateiumlauf statt. Hat die Datei die angegebene Größe erreicht, werden alle weiteren Einträge wieder an den Anfang der Datei geschrieben und die dort befindlichen Einträge überschrieben. Die Protokollgröße kann nicht auf einen geringeren Wert als die aktuelle Dateigröße gesetzt werden. Protokolleinträge sind mit einer Zeitmarke versehen, damit Sie die Reihenfolge, in der sie geschrieben wurden, erkennen können. Je höher Sie die Protokollstufe setzen, desto vorsichtiger müssen Sie die Protokollgröße auswählen, da die Protokolldatei sehr schnell voll ist, wenn Sie eine Protokollierung auf einer höheren Stufe wählen.
    Bytes
    Die maximale Größe in Byte für die Protokolldatei des Subagenten. Sie können entweder eine positive Zahl, die größer als 0 sein muss, oder das Wort unlimited (unbegrenzt) angeben. Möglicherweise erreicht die Protokolldatei nicht genau die maximale Größe, bevor der Dateiumlauf stattfindet, da die Größe der Protokolleinträge variiert. Der Standardwert ist unlimited.
    report
    Zeigt eine statistische Momentaufnahme an.
    start
    Den Subagenten starten.
    Community-Name
    Der Name der SNMP-Community, den Sie als Sicherheitskennwort verwenden können. Der Standardwert ist public.

    Für Windows-Plattformen: Es wird der Name der Benutzergemeinschaft für das Betriebssystem verwendet.

    Protokolldatei
    Der Name der Datei, in der die Daten des SNMP-Subagenten protokolliert werden. Jeder Eintrag im Protokoll wird mit einer Zeitmarke versehen. Der Standardwert ist subagent.log. Die Standarddatei ist im Verzeichnis logs installiert. Weitere Informationen finden Sie in Anhang C. Beispielkonfigurationsdateien. Wollen Sie das Verzeichnis ändern, in dem die Protokolldateien gespeichert werden, lesen Sie die Informationen im Abschnitt Pfade für die Protokolldatei ändern.
    status
    Zeigt den aktuellen Status aller Werte in dem SNMP-Subagenten an, die global gesetzt werden können. Zudem werden die Standardwerte dieser Werte angezeigt.
    version
    Zeigt die aktuelle Version des Subagenten an.

    Beispiele


    Befehlsreferenz für Site Selector

    Dieses Kapitel beschreibt die Verwendung der folgenden sscontrol-Befehle für sscontrol:

    Sie können eine Minimalversion der Parameter für den Befehl "sscontrol" eingeben. Sie müssen nur die eindeutigen Buchstaben der Parameter eingeben. Beispiel: Wenn Sie Hilfe für den Befehl zum Speichern von Dateien aufrufen möchten, können Sie sscontrol he f an Stelle von sscontrol help file angeben.

    Anmerkung:
    Die Werte der Befehlsparameter müssen in englischen Zeichen eingegeben werden. Die einzige Ausnahme hiervon bilden Hostnamen (die in den Befehlen "cluster" und "server" verwendet werden) und (die in Dateibefehlen verwendeten) Dateinamen.

    sscontrol advisor -- Advisor-Funktion steuern


    >>-sscontrol--advisor--+-connecttimeout--Name--+-Port----------+--Sekunden------+-><
                           |                       '-Sitename:Port-'                |
                           +-interval--Name--+-Port----------+--Sekunden------------+
                           |                 '-Sitename:Port-'                      |
                           +-list---------------------------------------------------+
                           +-loglevel--Name--+-Port----------+--Stufe---------------+
                           |                 '-Sitename:Port-'                      |
                           +-logsize--Name--+-Port---------+--+-Größe | unlimited-+-+
                           |                '-Sitename:Port-'  '-Bytes------------' |
                           +-receivetimeout--Name--+-Port----------+--Sekunden------+
                           |                       '-Sitename:Port-'                |
                           +-report--Name--+-Port----------+------------------------+
                           |               '-Sitename:Port-'                        |
                           +-retries--Name--+-Port----------+--Wiederholungen-------+
                           |                '-Sitename:Port-'                       |
                           +-start--Name--+-Port----------+--+----------+-----------+
                           |              '-Sitename:Port-'  '-Protokolldatei-'     |
                           +-status--Name--+-Port----------+------------------------+
                           |               '-Sitename:Port-'                        |
                           +-stop--Name--+-Port----------+--------------------------+
                           |             '-Sitename:Port-'                          |
                           +-timeout--Name--+-Port----------+-----------------------+
                           |                '-Sitename:Port-'                       |
                           '-version--Name--+-Port----------+--Sekunden-------------'
                                            '-Sitename:Port-'
     
     
    

    connecttimeout
    Definiert, wie lange eine Advisor-Funktion wartet, bevor sie meldet, dass zu einem Server keine Verbindung hergestellt werden kann. Weitere Informationen finden Sie im Abschnitt Serververbindungs- und -empfangszeitlimit der Advisor-Funktion.
    Name
    Der Name der Advisor-Funktion. Die gültigen Werte sind http, https, ftp, sip, ssl, smtp, imap, pop3, ldap, nntp, telnet, connect, ping, WLM und WTE. Die Namen angepasster Advisor-Funktionen haben das Format xxxx, wobei ADV_xxxx der Name der Klasse ist, die die angepasste Advisor-Funktion implementiert.
    Port
    Die Nummer des Ports, der von der Advisor-Funktion überwacht wird.
    Sekunden
    Eine positive ganze Zahl, die die Zeit in Sekunden angibt, nach deren Ablauf die Advisor-Funktion meldet, dass zu einem Server keine Verbindung hergestellt werden kann. Dieser Wert liegt standardmäßig beim Dreifachen des für das Advisor-Intervall angegebenen Wertes.
    interval
    Legt fest, wie oft die Advisor-Funktion Informationen von den Servern abfragt.
    Sekunden
    Eine positive ganze Zahl, die die Zeit zwischen den an die Server gerichteten Statusabfragen in Sekunden angibt. Der Standardwert ist 7.
    list
    Zeigt eine Liste der Advisor-Funktionen an, die derzeit Informationen an den Manager liefern.
    loglevel
    Legt die Protokollstufe für ein Advisor-Protokoll fest.
    Stufe
    Die Nummer der Stufe (0 bis 5). Der Standardwert ist 1. Je größer die Zahl ist, desto mehr Informationen werden in das Advisor-Protokoll geschrieben. Gültige Werte:

    .

    logsize
    Legt die maximale Größe eines Advisor-Protokolls fest. Wenn Sie für die Protokolldatei eine maximale Größe festlegen, werden bei Erreichen der Größe die vorherigen Protokolleinträge überschrieben. Die Protokollgröße kann nicht auf einen geringeren Wert als die aktuelle Dateigröße gesetzt werden. Protokolleinträge sind mit einer Zeitmarke versehen, damit Sie die Reihenfolge, in der sie geschrieben wurden, erkennen können. Je höher Sie die Protokollstufe setzen, desto vorsichtiger müssen Sie die Protokollgröße auswählen, da die Protokolldatei sehr schnell voll ist, wenn Sie eine Protokollierung auf einer höheren Stufe wählen.
    Größe | unlimited
    Die maximale Größe der Advisor-Protokolldatei in Bytes. Sie können entweder eine positive Zahl, die größer als 0 sein muss, oder das Wort unlimited (unbegrenzt) angeben. Da die Protokolleinträge unterschiedlich lang sind, wird mit dem Überschreiben von Einträgen unter Umständen schon vor Erreichen der exakten maximalen Größe begonnen. Der Standardwert ist 1 MB.
    receivetimeout
    Definiert, wie lange eine Advisor-Funktion wartet, bevor sie meldet, dass von einem Server keine Daten empfangen werden können. Weitere Informationen finden Sie im Abschnitt Serververbindungs- und -empfangszeitlimit der Advisor-Funktion.
    Sekunden
    Eine positive ganze Zahl, die die Zeit in Sekunden angibt, nach deren Ablauf die Advisor-Funktion meldet, dass von einem Server keine Daten empfangen werden können. Dieser Wert liegt standardmäßig beim Dreifachen des für das Advisor-Intervall angegebenen Wertes.
    report
    Anzeigen eines Berichts zum Advisor-Status.
    retries
    Legt die Wiederholungsversuche einer Advisor-Funktion fest, bevor diese einen Server als inaktiv markiert.
    Wiederholungen
    Eine ganze Zahl größer als oder gleich null. Dieser Wert sollte nicht größer als 3 sein. Wenn das Schlüsselwort für Wiederholungen nicht konfiguriert ist, wird standardmäßig von null Wiederholungsversuchen ausgegangen.
    start
    Den Advisor starten. Für alle Protokolle stehen Advisor zur Verfügung. Die Standardports sind:
    Advisor-Name Protokoll Port
    Connect nicht zutreffend benutzerdefiniert
    db2 private 50000
    ftp FTP 21
    http HTTP 80
    https SSL 443
    imap IMAP 143
    ldap LDAP 389
    nntp NNTP 119
    PING PING nicht zutreffend
    pop3 POP3 110
    sip SIP 5060
    smtp SMTP 25
    ssl SSL 443
    telnet Telnet 23
    Name
    Der Name der Advisor-Funktion.
    Sitename:Port
    Der Wert "Sitename" ist in den advisor-Befehlen optional, der Wert "Port" jedoch erforderlich. Wird der Wert "Sitename" nicht angegeben, wird die Advisor-Funktion für alle verfügbaren konfigurierten Sitenamen ausgeführt. Bei Angabe eines Sitenamens wird die Advisor-Funktion nur für den von Ihnen angegebenen Sitenamen ausgeführt. Zusätzliche Sitenamen werden durch ein Pluszeichen (+) voneinander getrennt.
    Protokolldatei
    Der Name der Datei, in die die Verwaltungsdaten geschrieben werden. Jeder Eintrag des Protokolls ist mit einer Zeitmarke versehen.

    Die Standarddatei ist Advisor-Name_Port.log, z. B. http_80.log. Wollen Sie das Verzeichnis ändern, in dem die Protokolldateien gespeichert werden, lesen Sie die Informationen im Abschnitt Pfade für die Protokolldatei ändern.

    Sie können nur eine Advisor-Funktion pro Sitenamen starten.

    status
    Anzeigen des aktuellen Status sowie der Standardeinstellungen für alle globalen Werte einer Advisor-Funktion.
    stop
    Den Advisor stoppen.
    timeout
    Legt die Zeit in Sekunden fest, in der der Manager von der Advisor-Funktion erhaltene Informationen als gültig ansieht. Stellt der Manager fest, dass die Advisor-Informationen älter als dieses Zeitlimit sind, verwendet der Manager diese Informationen nicht zum Bestimmen Wertigkeiten für die Server am Port, die von der Advisor-Funktion überwacht werden. Dieses Zeitlimit gilt nicht, wenn die Advisor-Funktion den Manager darüber informiert hat, dass ein bestimmter Server inaktiv ist. Der Manager verwendet diese Informationen über den Server auch, nachdem die Advisor-Informationen das Zeitlimit überschritten haben.
    Sekunden
    Eine positive Zahl, die die Anzahl von Sekunden darstellt, oder das Wort unlimited (unbegrenzt). Der Standardwert ist "unlimited".
    version
    Zeigt die aktuelle Advisor-Version an.

    Beispiele

    sscontrol file -- Konfigurationsdateien verwalten

    >>-sscontrol--file--+-delete--Dateiname.Erw---------+----------><
                        +-appendload--Dateiname.Erw-----+
                        +-report------------------------+
                        +-save--Dateiname.Erw--+------+-+
                        |                     '-force-' |
                        '-newload--Dateiname.Erw--------'
     
     
    

    delete
    Die Datei löschen.
    Datei.Erw
    Eine Konfigurationsdatei.

    Die Dateierweiterung (.Erw) ist optional und kann beliebig gewählt werden.

    appendload
    Hinzufügen einer Konfigurationsdatei zur aktuellen Konfiguration und Laden der Datei in Site Selector.
    report
    Bericht über die verfügbare(n) Datei(en).
    save
    Sichern der aktuellen Konfiguration für Site Selector in der Datei.
    Anmerkung:
    Dateien werden in den nachfolgend genannten Verzeichnissen gespeichert und aus diesen geladen:
    • Linux- und UNIX-Systeme: /opt/ibm/edge/lb/servers/configurations/ss
    • Windows-Systeme: C:\Programme\ibm\edge\lb\servers\configurations\Komponente
    force
    Wenn Sie Ihre Datei in einer vorhandenen Datei mit demselben Namen speichern möchten, verwenden Sie force, um die vorhandene Datei vor dem Speichern der neuen Datei zu löschen. Bei Nichtverwendung der Option "force" wird die vorhandene Datei nicht überschrieben.
    newload
    Laden einer neuen Konfigurationsdatei in Site Selector. Die neue Konfigurationsdatei ersetzt die aktuelle Konfiguration.

    Beispiele

    sscontrol help -- Hilfetext für diesen Befehl anzeigen oder drucken

    >>-sscontrol--help--+-advisor----+-----------------------------><
                        +-file-------+
                        +-help-------+
                        +-host-------+
                        +-logstatus--+
                        +-manager----+
                        +-metric-----+
                        +-nameserver-+
                        +-rule-------+
                        +-server-----+
                        +-set--------+
                        +-sitename---+
                        '-status-----'
     
     
    

    Beispiele

    sscontrol logstatus -- Protokolleinstellungen des Servers anzeigen


    >>-sscontrol--logstatus----------------------------------------><
     
     
    

    logstatus
    Zeigt die Einstellungen des Serverprotokolls (Name der Protokolldatei, Protokollstufe und -größe) an.

    sscontrol manager -- Manager steuern


    >>-sscontrol--manager--+-interval--Sekunden---------------------+-><
                           +-loglevel--Stufe------------------------+
                           +-logsize--+-unlimited-+-----------------+
                           |          '-Bytes-----'                 |
                           +-metric set--+-loglevel--Stufe--------+-+
                           |             '-logsize--+-unlimited-+-' |
                           |                        '-Bytes-----'   |
                           +-reach set--+-interval--Sekunden-----+--+
                           |            +-loglevel--Stufe--------+  |
                           |            '-logsize--+-unlimited-+-'  |
                           |                       '-Bytes-----'    |
                           +-report--Sitename+sn2+...+snN-----------+
                           +-restart--Nachricht---------------------+
                           +-sensitivity--Wertigkeit----------------+
                           +-smoothing--Glättungsfaktor-------------+
                           +-start--+----------------------+--------+
                           |        '-Protokolldatei--Metrikport-'        |
                           +-status---------------------------------+
                           +-stop-----------------------------------+
                           '-version--------------------------------'
     
     
    

    interval
    Legt fest, wie oft der Manager die Wertigkeit der Server aktualisiert.
    Sekunden
    Eine positive Zahl, die in Sekunden darstellt, wie oft der Manager Wertigkeiten aktualisiert. Der Standardwert ist 2.
    loglevel
    Legt die Protokollstufe für das Protokoll des Managers fest.
    Stufe
    Die Nummer der Stufe (0 bis 5). Je größer die Zahl, desto mehr Informationen werden in das Managerprotokoll geschrieben. Der Standardwert ist 1. Die gültigen Werte sind:
    logsize
    Legt die maximale Größe des Protokolls des Managers fest. Wenn Sie für die Protokolldatei eine maximale Größe festlegen, wird die Protokollierung bei Erreichen der Größe am Anfang der Datei fortgesetzt, so dass die vorherigen Protokolleinträge überschrieben werden. Die Protokollgröße kann nicht auf einen geringeren Wert als die aktuelle Dateigröße gesetzt werden. Protokolleinträge sind mit einer Zeitmarke versehen, damit Sie die Reihenfolge, in der sie geschrieben wurden, erkennen können. Je höher Sie die Protokollstufe setzen, desto vorsichtiger müssen Sie die Protokollgröße auswählen, da die Protokolldatei sehr schnell voll ist, wenn Sie eine Protokollierung auf einer höheren Stufe wählen.
    Bytes
    Die maximale Größe in Byte für die Protokolldatei des Managers. Sie können entweder eine positive Zahl, die größer als 0 sein muss, oder das Wort unlimited (unbegrenzt) angeben. Da die Protokolleinträge unterschiedlich lang sind, wird mit dem Überschreiben von Einträgen unter Umständen schon vor Erreichen der exakten maximalen Größe begonnen. Der Standardwert ist 1 MB.
    metric set
    Legt die Werte für loglevel und logsize für das Metriküberwachungsprotokoll fest. Der Wert für loglevel ist die Stufe für die Protokollierung der Metriküberwachung (0 - Keine, 1 - Minimal, 2 - Grundlegend, 3 - Mäßig, 4 - Erweitert oder 5 - Ausführlich). Die Standardprotokollstufe ist 1. Der Wert für logsize ist die Datenmenge (in Bytes), die maximal in der Protokolldatei für Metriküberwachung erfasst wird. Sie können entweder eine positive Zahl, die größer als 0 sein muss, oder unlimited (unbegrenzt) angeben. Die Standardprotokollgröße ist 1.
    reach set
    Legt das Intervall, die Protokollstufe und die Protokollgröße für die Advisor-Funktion reach fest.
    report
    Zeigt eine statistische Momentaufnahme an.
    Sitename
    Der Sitename, der im Bericht angezeigt werden soll. Dies ist ein nicht auflösbarer Hostname, den der Client abfragt. Der Sitename muss ein vollständig qualifizierter Domänenname sein.
    Anmerkung:
    Zusätzliche Sitenamen werden durch ein Pluszeichen (+) voneinander getrennt.
    restart
    Startet alle Server (die nicht inaktiv sind) mit der Standardwertigkeit (1/2 der maximalen Wertigkeit).
    Nachricht
    Eine Nachricht, die in die Protokolldatei des Managers gestellt werden soll.
    sensitivity
    Legt die Mindestsensitivität für die Aktualisierung von Wertigkeiten fest. Diese Einstellung definiert, wann der Manager seine Serverwertigkeit ausgehend von externen Informationen ändern sollte.
    Wertigkeit
    Eine Zahl von 0 bis 100, die als prozentuale Wertigkeit verwendet wird. Der Standardwert 5 bewirkt eine Mindestsensitivität von 5 %.
    smoothing
    Festlegen eines Faktors, der Wertigkeitsabweichungen während des Lastausgleichs glättet. Ein höherer Glättungsfaktor führt zu einer weniger drastischen Änderung von Serverwertigkeiten bei Veränderten Netzwerkbedingungen. Ein geringerer Glättungsfaktor führt zu einer drastischeren Änderung der Serverwertigkeiten.
    Index
    Eine positive Gleitkommazahl. Der Standardwert ist 1,5.
    start
    Den Manager starten.
    Protokolldatei
    Der Name der Datei, in der die Daten des Managers protokolliert werden. Jeder Eintrag des Protokolls ist mit einer Zeitmarke versehen.

    Die Standarddatei ist im Verzeichnis logs installiert. Weitere Informationen finden Sie in Anhang C. Beispielkonfigurationsdateien. Wollen Sie das Verzeichnis ändern, in dem die Protokolldateien gespeichert werden, lesen Sie die Informationen im Abschnitt Pfade für die Protokolldatei ändern.

    Metrikport
    Der von Metric Server für Meldungen zur Systembelastung verwendete Port. Wenn Sie einen Metrikport angeben, müssen Sie auch einen Protokolldateinamen angeben. Der Standardmetrikport ist 10004.
    status
    Anzeigen des aktuellen Status sowie der Standardeinstellungen für alle globalen Werte des Managers.
    stop
    Den Manager stoppen.
    version
    Zeigt die aktuelle Version des Managers an.

    Beispiele

    sscontrol metric -- Systemmetriken konfigurieren

    >>-sscontrol--metric--+-add--Sitename+sn2+...+snN:Metrik+Metrik1+...+MetricN--------------+-><
                          +-remove--Sitename+sn2+...+snN:Metrik+Metrik1+...+MetrikN-----------+
                          +-proportions--Sitename+sn2+...+snN:Proportion1 Prop2 Prop3...PropN-+
                          '-status--Sitename+sn2+...+snN Metrik+Metrik1+...+MetrikN-----------'
     
     
    

    add
    Hinzufügen der angegebenen Metrik.
    Sitename
    Der konfigurierte Sitename. Zusätzliche Sitenamen werden durch ein Pluszeichen (+) voneinander getrennt.
    Metrik
    Name der Systemmetrik. Es muss sich um den Namen einer ausführbaren Datei oder Scriptdatei im Verzeichnis von Metric Server handeln.
    remove
    Entfernen der angegebenen Metrik.
    proportions
    Der Parameter "proportions" gibt die Wichtigkeit an, die jeder Metrik, verglichen mit anderen, zugeordnet wird, wenn die Metriken kombiniert werden, um die Systembelastung eines Servers zu ermitteln.
    status
    Anzeigen der aktuellen Serverwerte für diese Metrik.

    Beispiele

    sscontrol nameserver -- Namensserver steuern

    >>-sscontrol--nameserver--+-start--+----------------------+-+--><
                              |        '-bindaddress--Adresse-' |
                              +-stop----------------------------+
                              '-status--------------------------'
     
     
    

    start
    Starten des Namensservers.
    bindaddress
    Startet den Namensserver, der an die angegebene Adresse gebunden ist. Der Namensserver antwortet nur auf Anfragen, die an diese Adresse gerichtet sind.
    Adresse
    Eine auf der Maschine mit Site Selector konfigurierte Adresse (IP-Adresse oder symbolischer Name).
    stop
    Stoppt den Namensserver.
    status
    Zeigt den Status des Namensservers an.

    sscontrol rule -- Regeln konfigurieren

    >>-sscontrol--rule--+-add--Sitename+sn2+...+snN:Regel+r2+...+rN--type--Wert--| value |--| Optionen |-+-><
                        +-dropserver--Sitename+sn2+...+snN:Regel+r2+...+rN--Server+s2+...+snN---------+
                        +-remove--Sitename+sn2+...+snN:Regel+r2+...+rN--------------------------------+
                        +-set--Sitename+sn2+...+snN:Regel+r2+...+rN--| value |--| opts |--------------+
                        +-status--Sitename+sn2+...+snN:Regel+r2+...+rN--------------------------------+
                        '-useserver--Sitename+sn2+...+snN:Regel+r2+...+rN--Server+s2+...+snN----------'
     
    Optionen:
     
    |--+---------------------------------+--------------------------|
       +-beginrange--unterer_Grenzwert--endrange--oberer_Grenzwert-+
       +-priority--Wert-----------------+
       '-metricname--Wert---------------'
     
     
    

    add
    Diese Regel zu einem Sitenamen hinzufügen.
    Sitename
    Ein nicht auflösbarer Hostname, den der Client abfragt. Der Sitename muss ein vollständig qualifizierter Domänenname sein. Zusätzliche Sitenamen werden durch ein Pluszeichen (+) voneinander getrennt.
    Regel
    Der für die Regel ausgewählte Name. Dieser Name kann eine beliebige Kombination aus alphanumerischen Zeichen, Unterstreichungszeichen, Silbentrennungsstrichen und Punkten sein. Der Name kann 1 bis 20 Zeichen lang sein und darf keine Leerzeichen enthalten.
    Anmerkung:
    Zusätzliche Regeln werden durch ein Pluszeichen (+) voneinander getrennt.
    type
    Der Regeltyp.
    Typ
    Die gültigen Optionen für Typ sind:

    ip
    Die Regel basiert auf der Client-IP-Adresse.

    metricall
    Die Regel basiert auf der aktuellen Metrik für alle Server der Gruppe.

    metricavg
    Die Regel basiert auf dem Durchschnitt der aktuellen Metriken für alle Server der Gruppe.

    time
    Die Regel basiert auf der Uhrzeit.

    true
    Diese Regel ist immer wahr. Sie kann mit der Anweisung ELSE in der Programmierlogik verglichen werden.
    beginrange
    Der untere Wert des Bereichs, mit dem bestimmt wird, ob die Regel wahr ist oder nicht.
    unter_Grenzwert
    Hängt von der Art der Regel ab. Die Art des Werts und der Standardwert werden nachfolgend nach der Art der Regel aufgelistet:

    ip
    Die Adresse des Clients als symbolischer Name oder im IP-Adressenformat. Der Standardwert ist 0.0.0.0.

    time
    Eine ganze Zahl. Der Standardwert ist 0. Er stellt Mitternacht dar.

    metricall
    Eine ganze Zahl. Der Standardwert ist 100.

    metricavg
    Eine ganze Zahl. Der Standardwert ist 100.
    endrange
    Der obere Wert des Bereichs, mit dem bestimmt wird, ob die Regel wahr ist oder nicht.
    oberer_Grenzwert
    Hängt von der Art der Regel ab. Die Art des Werts und der Standardwert werden nachfolgend nach der Art der Regel aufgelistet:

    ip
    Die Adresse des Clients als symbolischer Name oder im IP-Adressenformat. Der Standardwert ist 255.255.255.254.

    time
    Eine ganze Zahl. Der Standardwert ist 24. Er stellt Mitternacht dar.
    Anmerkung:
    Beim Definieren des Bereichsanfangs (beginrange) und Bereichsendes (endrange) der Zeitintervalle ist darauf zu achten, dass jeder Wert eine ganze Zahl sein muss, die nur den Stundenteil der Uhrzeit darstellt. Es werden keine Teilwerte einer Stunde angegeben. Soll beispielsweise die Stunde von 3 Uhr bis 4 Uhr angegeben werden, geben Sie für beginrange 3 und für endrange ebenfalls 3 an. Damit werden alle Minuten von 3 Uhr bis 3 Uhr 59 angegeben. Wird beginrange auf 3 und endrange auf 4 gesetzt, ergibt sich ein fast zweistündiger Zeitraum von 3.00 Uhr bis 4.59 Uhr.

    metricall
    Eine ganze Zahl. Der Standardwert ist 2 hoch 32 minus 1.

    metricavg
    Eine ganze Zahl. Der Standardwert ist 2 hoch 32 minus 1.
    priority
    Die Reihenfolge, in der die Regeln überprüft werden.
    Stufe
    Eine ganze Zahl. Wenn Sie für die erste Regel, die Sie hinzufügen, keine Priorität angeben, setzt Site Selector die Priorität standardmäßig auf 1. Wird eine weitere Regel hinzugefügt, wird deren Priorität standardmäßig mit der folgenden Formel errechnet: 10 + derzeit niedrigste Priorität für alle vorhandenen Regeln. Beispiel: Sie haben eine Regel mit der Priorität 30. Sie fügen nun eine neue Regel hinzu und setzen deren Priorität auf 25 (also auf eine höhere Priorität als 30). Anschließend fügen Sie eine dritte Regel ohne Angabe einer Priorität hinzu. Als +Priorität der dritten Regel wird 40 ermittelt (30 + 10).
    metricname
    Name der für eine Regel gemessenen Metrik.
    dropserver
    Einen Server aus einem Regelsatz entfernen.
    Server
    Die IP-Adresse der TCP-Servermaschine als symbolischer Name oder im IP-Adressenformat.
    Anmerkung:
    Zusätzliche Sitenamen werden durch ein Pluszeichen (+) voneinander getrennt.
    remove
    Eine oder mehrere Regeln, die durch Pluszeichen voneinander getrennt sind, entfernen.
    set
    Werte für diese Regel festlegen.
    status
    Anzeigen aller Werte für eine oder mehrere Regel(n).
    useserver
    Server in einen Regelsatz einfügen.

    Beispiele

    sscontrol server -- Server konfigurieren

    >>-sscontrol--server--+-add--Sitename+sn2+...+snN:Server+s2+...+sN--+------------------------+-+-><
                          |                                             +-metricaddress--Adresse-+ |
                          |                                             '-weight--Wert-----------' |
                          +-down--Sitename+sn2+...+snN:Server+s2+...+sN----------------------------+
                          +-remove--Sitename+sn2+...+snN:Server+s2+...+sN--------------------------+
                          +-set--Sitename+sn2+...+snN:Server+s2+...+sN--+------------------------+-+
                          |                                             +-metricaddress--Adresse-+ |
                          |                                             '-weight--Wert-----------' |
                          +-status--Sitename+sn2+...+snN:Server+s2+...+sN--------------------------+
                          '-up--Sitename+sn2+...+snN:Server+s2+...+sN------------------------------'
     
     
    

    add
    Diesen Server hinzufügen.
    Sitename
    Ein nicht auflösbarer Hostname, den der Client abfragt. Der Sitename muss ein vollständig qualifizierter Domänenname sein. Zusätzliche Sitenamen werden durch ein Pluszeichen (+) voneinander getrennt.
    Server
    Die IP-Adresse der TCP-Servermaschine als symbolischer Name oder im IP-Adressenformat.
    Anmerkung:
    Zusätzliche Server werden durch ein Pluszeichen (+) voneinander getrennt.
    metricaddress
    Die Adresse des Metric-Servers.
    Adresse
    Die Adresse des Servers als symbolischer Name oder im IP-Adressenformat.
    weight
    Eine Zahl zwischen 0 und 100 (die den Wert für die Wertigkeitsobergrenze des angegebenen Sitenamens nicht überschreiten darf) zur Angabe der Gewichtung dieses Servers. Wird die Wertigkeit auf 0 gesetzt, werden keine neuen Anforderungen an den Server gesendet. Der Standardwert ist die Hälfte des angegebenen Maximalwerts für die Gewichtungsgrenze des Sitenamens. Ist der Manager aktiv, wird diese Einstellung schnell überschrieben.
    Wert
    Die Wertigkeit des Servers.
    down
    Diesen Server als inaktiv markieren. Dieser Befehl verhindert, das weitere Anforderungen an diesen Server übergeben werden.
    remove
    Diesen Server entfernen.
    set
    Werte für diesen Server festlegen.
    status
    Status der Server anzeigen.
    up
    Diesen Server als aktiv markieren. Site Selector übergibt neue Anforderungen an diesen Server.

    Beispiele

    sscontrol set -- Serverprotokoll konfigurieren

    >>-sscontrol--set--+-loglevel--Stufe--------+------------------><
                       '-logsize--+-unlimited-+-'
                                  '-Größe------'
     
     
    

    loglevel
    Die Stufe für die Protokollierung von ssserver-Aktivitäten.
    Stufe
    Der Standardwert für loglevel ist 0. Gültige Werte sind:
    logsize
    Die maximale Anzahl von Byte, die in der Protokolldatei protokolliert werden können.
    Größe
    Der Standardwert für logsize ist 1 MB.

    sscontrol sitename -- Sitenamen konfigurieren

    >>-sscontrol--sitename--+-add--Sitename+sn2+...+snN--+----------------------------------------+-+-><
                            |                            +-cachelife--Wert------------------------+ |
                            |                            +-networkproximity--yes | no-------------+ |
                            |                            +-proportions--CPU--Speicher-Port-Metrik-+ |
                            |                            +-proximitypercentage--Wert-------------+ |
                            |                            +-stickytime--Zeit-----------------------+ |
                            |                            +-ttl--Zeit------------------------------+ |
                            |                            +-waitforallresponses--yes | no----------+ |
                            |                            '-weightbound--Wertigkeit----------------' |
                            +-remove--Sitename+sn2+...+snN------------------------------------------+
                            +-set--Sitename+sn2+...+snN--+----------------------------------------+-+
                            |                            +-cachelife--Wert------------------------+ |
                            |                            +-networkproximity--yes | no-------------+ |
                            |                            +-proportions--CPU--Speicher-Port-Metrik-+ |
                            |                            +-proximitypercentage--Wert--------------+ |
                            |                            +-stickytime--Zeit-----------------------+ |
                            |                            +-ttl--Zeit------------------------------+ |
                            |                            +-waitforallresponses--yes | no----------+ |
                            |                            '-weightbound--Wertigkeit----------------' |
                            '-status--Sitename+sn2+...+snN------------------------------------------'
     
     
    

    add
    Hinzufügen eines neuen Sitenamens.
    Sitename
    Ein nicht auflösbarer Hostname, der vom Client angefragt wird. Zusätzliche Sitenamen werden durch ein Pluszeichen (+) voneinander getrennt.
    cachelife
    Die Zeitperiode, während der eine Proximitätsantwort gültig und im Cache gespeichert ist. Der Standardwert ist 1800. Weitere Informationen finden Sie im Abschnitt Netzproximität verwenden.
    Wert
    Eine positive Zahl, die angibt, wie viele Sekunden eine Proximitätsantwort gültig ist und im Cache gespeichert wird.
    networkproximity
    Legt die Netzproximität des Servers zum anfordernden Client fest. Verwenden Sie diese Proximitätsantwort bei der Lastausgleichsentscheidung. Die Proximität ist "Ein" oder "Aus". Weitere Informationen finden Sie im Abschnitt Netzproximität verwenden.
    Wert
    Zur Auswahl stehen yes oder no. Der Standardwert no bedeutet, dass die Netzproximität inaktiviert ist.
    proportions
    Festlegen der proportionalen Bedeutung von CPU, Speicher, Port (Advisor-Informationen) und Systemmetriken für den Metric Server. Anhand dieser Proportionen legt der Manager die Serverwertigkeiten fest. Jeder dieser Werte wird als Prozentsatz der Summe angegeben, die immer bei 100 liegt.

    CPU
    Prozentsatz der auf jeder am Lastausgleich beteiligten Servermaschine genutzten CPU (Vorgabe vom Agenten Metric Server).

    Speicher
    Prozentsatz des auf jeder am Lastausgleich beteiligten Servermaschine genutzten Speichers (Vorgabe vom Agenten Metric Server).

    Port
    Vorgaben von den am Port empfangsbereiten Advisor-Funktionen.

    System
    Die Eingabe von Metric Server.
    proximitypercentage
    Legt die Bedeutung der Proximitätsantwort, gemessen am Status des Servers (Wertigkeit vom Manager), fest. Weitere Informationen finden Sie im Abschnitt Netzproximität verwenden.
    Wert
    Der Standardwert ist 50.
    stickytime
    Das Intervall, in dem ein Client dieselbe Server-ID empfängt, die zuvor auf die erste Anfrage zurückgegeben wurde. Der Standardwert für stickytime ist 0 und bedeutet, dass für den Sitenamen keine Haltezeit gilt.
    Zeit
    Eine positive Zahl ungleich null, die die Zeit in Sekunden angibt, in der der Client dieselbe Server-ID empfängt, die zuvor auf die erste Anfrage zurückgegeben wurde.
    ttl
    Legt die Lebensdauer fest. Dieser Parameter gibt an, wie lange ein anderer Namensserver die aufgelöste Antwort zwischenspeichert. Der Standardwert ist 5.
    Wert
    Eine positive Zahl, die angibt, wie viele Sekunden der Namensserver die aufgelöste Antwort zwischenspeichert.
    waitforallresponses
    Legt fest, ob vor der Beantwortung der Clientanforderung auf alle Proximitätsantworten der Server gewartet werden soll. Weitere Informationen finden Sie im Abschnitt Netzproximität verwenden.
    Wert
    Zur Auswahl stehen yes oder no. Der Standardwert ist yes.
    weightbound
    Eine Zahl, die die maximale Wertigkeit angibt, die für Server dieser Site festgelegt werden kann. Der für den Sitenamen festgelegte weightbound-Wert kann mit server weight für einzelne Server überschrieben werden. Der Standardwert für "sitename weightbound" ist 20.
    Wertigkeit
    Die Wertigkeitsgrenze.
    set
    Festlegen der Eigenschaften für den Sitenamen.
    remove
    Entfernen dieses Sitenamens.
    status
    Anzeigen des aktuellen Status für einen bestimmten Sitenamen.

    Beispiele

    sscontrol status -- Aktivitätsanzeige für Manager und Advisor-Funktionen

    >>-sscontrol--status-------------------------------------------><
     
     
    

    Beispiele


    Befehlsreferenz für Cisco CSS Controller

    Dieses Kapitel beschreibt die Verwendung der folgenden ccocontrol-Befehle für Cisco CSS Controller:

    Für die Parameter des Befehls "ccocontrol" können Sie die abgekürzte Form verwenden. Sie müssen nur die eindeutigen Buchstaben der Parameter eingeben. Beispiel: Wenn Sie Hilfe für den Befehl zum Speichern von Dateien aufrufen möchten, können Sie ccocontrol he f an Stelle von ccocontrol help file angeben.

    Geben Sie zum Aufrufen der ccocontrol-Eingabeaufforderung ccocontrol ein.

    Sie können die Befehlszeilenschnittstelle verlassen, indem Sie den Befehl exit oder quit absetzen.

    Anmerkung:
    Für alle Parameterwerte des Befehls müssen Sie die englischen Zeichen verwenden. Die einzige Ausnahme hiervon bilden Hostnamen (die in den server-Befehlen verwendet werden) und (die in Dateibefehlen verwendeten) Dateinamen.

    ccocontrol consultant -- Consultant konfigurieren und steuern

    >>-ccocontrol--consultant--+-add--scID--address--swIPAddr--community--CommName-+-><
                               +-binarylog--scID+scID2...--+-report-------------+--+
                               |                           +-set--+-Intervall-+-+  |
                               |                           |      '-Sicherung-' |  |
                               |                           +-start--------------+  |
                               |                           '-stop---------------'  |
                               +-remove--scID+scID2...-----------------------------+
                               +-report--scID+scID2...-----------------------------+
                               +-set--+-loglevel--Stufe----------------+-----------+
                               |      +-logsize--+-Größe------+---------+          |
                               |      |          '-unlimited-'         |           |
                               |      +-sensitivity-Wertigkeit_Prozent-+           |
                               |      '-sleeptime--Sek-----------------'           |
                               +-start--scID+scID2...------------------------------+
                               '-stop--scID+scID2...-------------------------------'
     
     
    

    add
    Fügt einen Switch-Consultant hinzu.
    scID (Switch-Consultant-ID)
    Eine benutzerdefinierte Zeichenfolge, die sich auf den Consultant bezieht.
    address
    Die IP-Adresse des Cisco CSS Switch, für den der Consultant Wertigkeiten bereitstellt.
    swIPAddr (IP-Adresse des Switch)
    Die IP-Adresse des Switch.
    community
    Der in SNMP für das Anfordern und Festlegen der Kommunikation mit dem Cisco CSS Switch verwendete Name.
    CommName
    Der Name der Community mit Schreib-/Lesezugriff für den Cisco CSS Switch.
    binarylog
    Steuert die binäre Protokollierung für einen Consultant.
    report
    Berichte mit den Kenndaten der binären Protokollierung.
    set
    Legt fest, wie oft (alle wie viel Sekunden) Daten in die binären Protokolle geschrieben werden. Die binäre Protokollierung ermöglicht das Speichern von Informationen zu jedem in der Konfiguration definierten Service in binären Protokolldateien. Die Daten werden nur in die Protokolle geschrieben, wenn seit dem Schreiben des letzten Protokolleintrags die für das Protokollintervall angegebene Zeit in Sekunden verstrichen ist. Das Standardintervall für binäre Protokollierung ist 60.
    Intervall
    Gibt in Sekunden die Zeit zwischen den Einträgen im binären Protokoll an.
    Sicherung
    Legt die Zeit in Stunden fest, die binäre Protokolldateien aufbewahrt werden.
    start
    Startet die binäre Protokollierung.
    stop
    Stoppt die binäre Protokollierung.
    remove
    Entfernt einen Switch-Consultant.
    report
    Berichte mit den Kenndaten von Switch-Consultants.
    set
    Legt die Kenndaten von Switch-Consultants fest.
    loglevel
    Legt die Protokollstufe fest, auf der der Switch-Consultant Aktivitäten protokolliert. Der Standardwert ist 1.
    Stufe
    Die Nummer der Stufe von 0 bis 5. Die Standardeinstellung ist 1. Gültige Werte sind:

    0 = Keine

    1 = Minimal

    2 = Grundlegend

    3 = Mäßig

    4 = Erweitert

    5 = Ausführlich

    logsize
    Legt die maximale Anzahl Bytes fest, die in der Protokolldatei protokolliert werden. Der Standardwert ist 1048576. Wenn Sie für die Protokolldatei eine maximale Größe festlegen, wird die Protokollierung bei Erreichen der Größe am Anfang der Datei fortgesetzt, so dass die vorherigen Protokolleinträge überschrieben werden. Die Protokollgröße kann nicht auf einen geringeren Wert als die aktuelle Dateigröße gesetzt werden. Protokolleinträge sind mit einer Zeitmarke versehen, damit Sie die Reihenfolge, in der sie geschrieben wurden, erkennen können. Je höher Sie die Protokollstufe setzen, desto vorsichtiger müssen Sie die Protokollgröße auswählen, da die Protokolldatei sehr schnell voll ist, wenn Sie eine Protokollierung auf einer höheren Stufe wählen.
    Größe
    Die maximale Anzahl Bytes, die im Consultant-Protokoll protokolliert werden. Sie können entweder eine positive Zahl, die größer als 0 sein muss, oder das Wort unlimited (unbegrenzt) angeben. Da die Protokolleinträge unterschiedlich lang sind, wird mit dem Überschreiben von Einträgen unter Umständen schon vor Erreichen der exakten maximalen Größe begonnen.
    sensitivity
    Gibt an, in welchem Maße sich eine Wertigkeit ändern muss, damit die Änderung als relevant angesehen wird. Der Unterschied zwischen der neuen und der alten Wertigkeit muss größer als der hier festgelegte Prozentsatz sein, bevor die Wertigkeit geändert wird. Der gültige Bereich liegt zwischen 0 und 100. Der Standardwert ist 5.
    Wertigkeit_Prozent
    Eine ganze Zahl von 0 bis 100 zur Angabe der Sensitivität.
    sleeptime
    Legt die Zeit der Inaktivität zwischen den Definitionszyklen für die Wertigkeit in Sekunden fest. Der Standardwert ist 7.
    Sek
    Eine ganze Zahl, die die Inaktivität in Sekunden angibt. Der gültige Bereich beginnt mit 0 und endet mit 2.147.460.
    start
    Startet das Erfassen von Metriken und das Definieren von Wertigkeiten.
    stop
    Stoppt das Erfassen von Metriken und das Definieren von Wertigkeiten.

    Beispiele

    ccocontrol controller -- Controller verwalten

    >>-ccocontrol--controller--+-report--------------------------+-><
                               '-set--+------------------------+-'
                                      +-loglevel--Stufe--------+
                                      '-logsize--+-Größe-----+-'
                                                 '-unlimited-'
     
     
    

    report
    Anzeigen der Kenndaten des Controllers. Dieser Bericht enthält auch die Versionsnummer.
    set
    Festlegen der Kenndaten des Controllers.
    loglevel
    Legt die Protokollstufe fest, auf der der Controller Aktivitäten protokolliert. Der Standardwert ist 1.
    Stufe
    Die Nummer der Stufe von 0 bis 5. Die Standardeinstellung ist 1. Gültige Werte sind:

    0 = Keine

    1 = Minimal

    2 = Grundlegend

    3 = Mäßig

    4 = Erweitert

    5 = Ausführlich

    logsize
    Legt die maximale Anzahl Bytes fest, die in der Protokolldatei protokolliert werden. Der Standardwert ist 1048576. Wenn Sie für die Protokolldatei eine maximale Größe festlegen, wird die Protokollierung bei Erreichen der Größe am Anfang der Datei fortgesetzt, so dass die vorherigen Protokolleinträge überschrieben werden. Die Protokollgröße kann nicht auf einen geringeren Wert als die aktuelle Dateigröße gesetzt werden. Protokolleinträge sind mit einer Zeitmarke versehen, damit Sie die Reihenfolge, in der sie geschrieben wurden, erkennen können. Je höher Sie die Protokollstufe setzen, desto vorsichtiger müssen Sie die Protokollgröße auswählen, da die Protokolldatei sehr schnell voll ist, wenn Sie eine Protokollierung auf einer höheren Stufe wählen.
    Größe | unlimited
    Die maximale Anzahl Bytes, die im Consultant-Protokoll protokolliert werden. Sie können entweder eine positive Zahl, die größer als 0 sein muss, oder das Wort unlimited (unbegrenzt) angeben. Da die Protokolleinträge unterschiedlich lang sind, wird mit dem Überschreiben von Einträgen unter Umständen schon vor Erreichen der exakten maximalen Größe begonnen.

    Beispiele

    ccocontrol file -- Konfigurationsdateien verwalten

    >>-ccocontrol--file--+-delete--Dateiname---------+-------------><
                         +-load--Dateiname-----------+
                         +-report--------------------+
                         '-save--Dateiname--+------+-'
                                           '-force-'
     
     
    

    delete
    Löschen der angegebenen Konfigurationsdatei.
    Dateiname
    Eine Konfigurationsdatei. Die Dateierweiterung muss .xml lauten. Wenn diese Erweiterung nicht angegeben wird, wird sie vorausgesetzt.
    load
    Laden der in der angegebenen Datei gespeicherten Konfiguration.
    Anmerkung:
    Beim Laden einer Datei wird die darin gespeicherte Konfiguration an die aktive Konfiguration angehängt. Wenn Sie eine neue Konfiguration laden möchten, müssen Sie vor dem Laden der Datei den Server beenden und neu starten.
    report
    Auflisten der Konfigurationsdateien.
    save
    Sichern der aktuellen Konfiguration in der angegebenen Datei.
    Anmerkung:
    Dateien werden in den nachfolgend genannten Verzeichnissen gespeichert und aus diesen geladen:
    • AIX-Systeme: /opt/ibm/edge/lb/servers/configurations/cco
    • Linux-Systeme: /opt/ibm/edge/lb//servers/configurations/cco
    • Solaris-Systeme: /opt/ibm/edge/lb/servers/configurations/cco
    • Windows-Systeme:

      (Standard-)Installationsverzeichnis: C:\Programme\ibm\edge\lb\servers\configurations\cco

    force
    Speichern in einer vorhandenen Datei.

    Beispiele

    ccocontrol help -- Hilfetext für diesen Befehl anzeigen oder drucken

    >>-ccocontrol--help--+-controller-------+----------------------><
                         +-consultant-------+
                         +-file-------------+
                         +-help-------------+
                         +-highavailability-+
                         +-metriccollector--+
                         +-ownercontent-----+
                         '-service----------'
     
     
    

    Beispiele

    ccocontrol highavailability -- Hohe Verfügbarkeit steuern


    >>-ccocontrol--highavailability--+-add--+-address--Adresse---------------+-+-><
                                     |      +-partneraddress--Partneradresse-+ |
                                     |      +-port--Port---------------------+ |
                                     |      '-role--+-primary---+------------' |
                                     |              '-secondary-'              |
                                     +-dropreach--Adresse----------------------+
                                     +-remove----------------------------------+
                                     +-report----------------------------------+
                                     +-set--+-beatinterval--Zeit-----+---------+
                                     |      +-takeoverinterval--Zeit-+         |
                                     |      +-loglevel--Stufe--------+         |
                                     |      '-logsize--+-Größe-----+-'         |
                                     |                 '-unlimited-'           |
                                     +-start--+-auto---+-----------------------+
                                     |        '-manual-'                       |
                                     +-stop------------------------------------+
                                     +-takeover--------------------------------+
                                     '-usereach--Adresse-----------------------'
     
     
    

    add
    Konfigurieren eines Knotens mit hoher Verfügbarkeit, des zugehörigen Partners und von Erreichbarkeitszielen.
    address
    Die Adresse, von der Überwachungssignale empfangen werden sollen.
    Adresse
    Die IP-Adresse des Knotens mit hoher Verfügbarkeit.
    partneraddress
    Die Adresse, an die Überwachungssignale gesendet werden sollen. Dies ist die IP-Adresse oder der Hostname, die bzw. der für den Partnerknoten konfiguriert wurde. Diese Adresse wird verwendet, um mit der Partnermaschine für hohe Verfügbarkeit zu kommunizieren.
    Adresse
    Die IP-Adresse der Partnermaschine.
    port
    Der für die Kommunikation mit dem Partner verwendete Port. Der Standardwert ist 12345.
    Port
    Die Portnummer.
    role
    Die Rolle für hohe Verfügbarkeit.
    primary | secondary
    Die primäre oder sekundäre Rolle.
    dropreach
    Entfernen dieses Erreichbarkeitsziels aus den Kriterien für hohe Verfügbarkeit.
    Adresse
    Die IP-Adresse des Erreichbarkeitsziels.
    remove
    Entfernen des Knotens, des Partners und des Erreichbarkeitsziels aus der Konfiguration für hohe Verfügbarkeit. Vor Verwendung dieses Befehls muss die hohe Verfügbarkeit inaktiviert werden.
    report
    Anzeigen von Informationen zur hohen Verfügbarkeit.
    set
    Festlegen der Kenndaten für die hohe Verfügbarkeit.
    beatinterval
    Legt fest, in welchem Abstand (in Millisekunden) Überwachungssignale an den Partner gesendet werden. Der Standardwert ist 500.
    Zeit
    Eine positive ganze Zahl, die das Intervall für die Signale in Millisekunden angibt.
    takeoverinterval
    Legt die Zeit in Millisekunden fest, nach der eine Übernahme erfolgt. (Während dieser Zeit werden keine Überwachungssignale empfangen.) Der Standardwert ist 2000.
    Zeit
    Eine positive ganze Zahl, die das Übernahmeintervall in Millisekunden angibt.
    loglevel
    Legt die Stufe fest, auf der Aktivitäten protokolliert werden. Der Standardwert ist 1.
    Stufe
    Die Nummer der Stufe von 0 bis 5. Die Standardeinstellung ist 1. Gültige Werte sind:

    0 = Keine

    1 = Minimal

    2 = Grundlegend

    3 = Mäßig

    4 = Erweitert

    5 = Ausführlich

    logsize
    Legt die maximale Anzahl Bytes fest, die in der Protokolldatei für hohe Verfügbarkeit protokolliert werden. Der Standardwert ist 1048576. Wenn Sie für die Protokolldatei eine maximale Größe festlegen, wird die Protokollierung bei Erreichen der Größe am Anfang der Datei fortgesetzt, so dass die vorherigen Protokolleinträge überschrieben werden. Die Protokollgröße kann nicht auf einen geringeren Wert als die aktuelle Dateigröße gesetzt werden. Protokolleinträge sind mit einer Zeitmarke versehen, damit Sie die Reihenfolge, in der sie geschrieben wurden, erkennen können. Je höher Sie die Protokollstufe setzen, desto vorsichtiger müssen Sie die Protokollgröße auswählen, da die Protokolldatei sehr schnell voll ist, wenn Sie eine Protokollierung auf einer höheren Stufe wählen.
    Größe | unlimited
    Die maximale Anzahl Bytes, die im Protokoll für hohe Verfügbarkeit protokolliert werden. Sie können entweder eine positive Zahl, die größer als 0 sein muss, oder das Wort unlimited (unbegrenzt) angeben. Da die Protokolleinträge unterschiedlich lang sind, wird mit dem Überschreiben von Einträgen unter Umständen schon vor Erreichen der exakten maximalen Größe begonnen.
    start
    Aktiviert die hohe Verfügbarkeit. Vor Verwendung dieses Befehls müssen Sie einen Knoten mit hoher Verfügbarkeit, den zugehörigen Partner und ein Erreichbarkeitsziel konfiguriert haben.
    auto | manual
    Legt fest, ob die hohe Verfügbarkeit mit automatischer oder manueller Wiederherstellung aktiviert werden soll.
    stop
    Inaktiviert die hohe Verfügbarkeit.
    takeover
    Der Knoten mit hoher Verfügbarkeit gibt die Steuerung ab.
    usereach
    Die Adresse des Erreichbarkeitsziels, an dem die hohe Verfügbarkeit aktiviert wird. Fügen Sie ein Erreichbarkeitsziel hinzu, dass mit ping erreicht werden kann, damit die Partner für hohe Verfügbarkeit feststellen können, ob ihre Zieladressen tatsächlich erreichbar sind.
    Adresse
    Die IP-Adresse des Erreichbarkeitsziels.

    Beispiele

    ccocontrol metriccollector -- Metrik-Collector konfigurieren

    >>-ccocontrol--metriccollector--+-report--scID+scID2+...:mN+mN2...--------------------------+-><
                                    '-set--scID+scID2+...:mN+mN2...--+-timeoutconnect--Sek----+-'
                                                                     +-loglevel--Stufe--------+
                                                                     +-logsize--+-Größe-----+-+
                                                                     |          '-unlimited-' |
                                                                     +-timeoutreceive--Sek----+
                                                                     '-sleeptime--Sek---------'
     
     
    

    report
    Anzeigen der Kenndaten eines Metrik-Collectors.
    scID (Switch-Consultant-ID)
    Eine benutzerdefinierte Zeichenfolge, die sich auf den Consultant bezieht.
    mN (Metrikname)
    Ein Name, der die vorgegebene oder angepasste Metrik bezeichnet.
    set
    Festlegen der Kenndaten eines Metrik-Collectors.
    timeoutconnect
    Festlegen der Zeit, nach deren Ablauf ein Metrik-Collector meldet, dass eine Verbindung unterbrochen ist.
    Sek
    Eine positive ganze Zahl, die die Zeit in Sekunden angibt, nach deren Ablauf der Metrik-Collector meldet, dass zu einem Service keine Verbindung hergestellt werden kann.
    loglevel
    Legt die Protokollstufe fest, auf der der angegebene Consultant Aktivitäten protokolliert. Der Standardwert ist 1.
    Stufe
    Die Nummer der Stufe. Der Standardwert ist 1. Je größer die Zahl ist, desto mehr Informationen werden in das Consultant-Protokoll geschrieben. Gültige Werte:

    0 = Keine

    1 = Minimal

    2 = Grundlegend

    3 = Mäßig

    4 = Erweitert

    5 = Ausführlich

    logsize
    Legt die maximale Anzahl Bytes fest, die in der Protokolldatei protokolliert werden. Der Standardwert ist 1048576. Wenn Sie für die Protokolldatei eine maximale Größe festlegen, wird die Protokollierung bei Erreichen der Größe am Anfang der Datei fortgesetzt, so dass die vorherigen Protokolleinträge überschrieben werden. Die Protokollgröße kann nicht auf einen geringeren Wert als die aktuelle Dateigröße gesetzt werden. Protokolleinträge sind mit einer Zeitmarke versehen, damit Sie die Reihenfolge, in der sie geschrieben wurden, erkennen können. Je höher Sie die Protokollstufe setzen, desto vorsichtiger müssen Sie die Protokollgröße auswählen, da die Protokolldatei sehr schnell voll ist, wenn Sie eine Protokollierung auf einer höheren Stufe wählen.
    Größe | unlimited
    Die maximale Anzahl Bytes, die im Consultant-Protokoll protokolliert werden. Sie können entweder eine positive Zahl, die größer als 0 sein muss, oder das Wort unlimited (unbegrenzt) angeben. Da die Protokolleinträge unterschiedlich lang sind, wird mit dem Überschreiben von Einträgen unter Umständen schon vor Erreichen der exakten maximalen Größe begonnen.
    timeoutreceive
    Legt die Zeit fest, nach deren Ablauf der Consultant meldet, dass von einem Service keine Daten empfangen werden können.
    Sek
    Eine positive ganze Zahl, die die Zeit in Sekunden angibt, nach deren Ablauf der Consultant meldet, dass von einem Service keine Daten empfangen werden können.
    sleeptime
    Legt für den Metrik-Collector die Zeit der Inaktivität zwischen den Erfassungszyklen in Sekunden fest.
    Eine positive ganze Zahl, die die Inaktivitätszeit in Sekunden angibt.

    Beispiele

    ccocontrol ownercontent -- Eigenernamen und Inhaltsregel steuern

    >>-ccocontrol--ownerContent--+-add--scID:ocN--ownername--oN--contentrule--cN------------------------------+-><
                                 +-metrics--scID+scID2...:ocN+ocN2...--mN--Bedeutung---mN2--i2----------------+
                                 +-refresh--scID+scID2...:ocN+ocN2...-----------------------------------------+
                                 +-remove--scID+scID2...:ocN+ocN2...------------------------------------------+
                                 +-report--scID+scID2...:ocN+ocN2...------------------------------------------+
                                 '-set--scID+scID2...:ocN+ocN2...----metric--mN--+------------------------+---'
                                                                                 +-requeststring--String--+
                                                                                 +-responsestring--String-+
                                                                                 '-retry--Wiederholungen--'
     
     
    

    add
    Fügt Eignerangaben zum angegebenen Consultant hinzu.
    scID (Switch-Consultant-ID)
    Eine benutzerdefinierte Zeichenfolge, die den Consultant bezeichnet.
    OCName (Name der Eignerangaben)
    Eine benutzerdefinierte Zeichenfolge, die für den Switch den Eignernamen und die Inhaltsregel repräsentiert.
    ownername
    Der auf dem Switch für die Eignerkonfiguration definierte Name.
    oN (Eignername)
    Eine eindeutige Zeichenfolge ohne Leerzeichen. Der Eignername muss mit dem auf dem Cisco-Switch angegebenen übereinstimmen.
    contentrule
    Der auf dem Switch für die Inhaltsregel des Eigners definierte Name.
    cN (Inhaltsname)
    Eine eindeutige Zeichenfolge ohne Leerzeichen. Der content-Name muss mit dem auf dem Cisco-Switch angegebenen übereinstimmen.
    metrics
    Gibt die Metriken an, die für die Berechnung der Wertigkeiten herangezogen werden sollen, sowie die Gewichtung der einzelnen Metriken. Die Gewichtung wird als Prozentsatz ausgedrückt. Die Summe aller Gewichtungen muss 100 ergeben. Die Metriken können eine beliebige Kombinationen von Metriken für Verbindungsdaten, für Advisor-Funktionen der Anwendung und für Metric Server sein. Die Standardmetriken sind activeconn (aktive Verbindungen) und connrate (Verbindungsrate) mit einer Gewichtung von jeweils 50 %.
    mN (Metrikname)
    Name des Metrik-Collectors, der die Metriken für die Bestimmung der Serverwertigkeit erfasst.

    Nachfolgend sehen Sie eine Liste gültiger Metriknamen mit den zugehörigen Ports.

    Advisor-NameProtokoll Port
    connectICMP12345
    db2private 50000
    dnsDNS53
    ftpFTP21
    httpHTTP80
    httpsSSL 443
    cachingproxy HTTP (über Caching Proxy)80
    imapIMAP143
    ldapLDAP389
    nntpNNTP119
    pingPING0
    pop3POP3110
    sipSIP5060
    smtpSMTP25
    sslSSL 443
    telnetTelnet23
    WLMprivate 10007
    activeconnnicht anwendbar nicht anwendbar
    connratenicht anwendbar nicht anwendbar
    cpuloadnicht anwendbar nicht anwendbar
    memloadnicht anwendbar nicht anwendbar
    Bedeutung
    Eine Zahl von 0 bis 100, die die Bedeutung dieser Metrik für die Berechnung der Serverwertigkeiten angibt.
    refresh
    Aktualisiert die konfigurierten Services mit der Konfiguration vom Cisco CSS Switch.
    remove
    Entfernen von Eignerangaben.
    report
    Ausgeben eines Berichts mit den Kenndaten der Eignerangaben.
    set
    Festlegen der Kenndaten von Eignerangaben.
    metric
    Festlegen der Kenndaten einer Metrik.
    mN
    Der Name der gewünschten Metrik.
    requeststring
    Festlegen einer Anfragezeichenfolge für die angegebene Metrik. Diese Zeichenfolge repräsentiert die Anfrage, die ein Erfassungsprogramm zum Abrufen von Messdaten sendet.
    String
    Die vom Metrik-Collector an den Server gesendete Anfragezeichenfolge.
    responsestring
    Festlegen einer Antwortzeichenfolge für die angegebene Metrik. Die angegebene Antwortzeichenfolge vergleicht der Metrik-Collector mit den Antworten, die er von den Servern empfängt, und ermittelt daraufhin die Serververfügbarkeit.
    String
    Die Antwortzeichenfolge, mit der der Metrik-Collector vom Server empfangene Antworten vergleicht.
    retry
    Der Parameter "retry" legt die Wiederholungsversuche fest, bevor ein Server als inaktiv markiert wird.
    Wiederholungen
    Eine ganze Zahl größer als oder gleich null. Dieser Wert sollte nicht größer als 3 sein. Wenn das Schlüsselwort retry nicht konfiguriert ist, wird standardmäßig von null Wiederholungsversuchen ausgegangen.

    Beispiele

    ccocontrol service -- Service konfigurieren

    >>-ccocontrol--service--+-report--scID+scID2...:ocN+ocN2...:svc+svc2...---------------------------------+-><
                            '---set--scID+scID2...:ocN+ocN2...:svc+svc2...--+---------------------------+---'
                                                                            +-fixedweight--+-Integer-+--+
                                                                            |              '-off-----'  |
                                                                            +-requestsourceip--IPAd-----+
                                                                            +-metricserveraddress--IPAd-+
                                                                            '-metricserverport--portN---'
     
     
    

    report
    Anzeigen der Kenndaten von Services.
    scID (Switch-Consultant-ID)
    Eine benutzerdefinierte Zeichenfolge, die den Consultant bezeichnet.
    OCName (Name der Eignerangaben)
    Eine benutzerdefinierte Zeichenfolge, die für den Switch den Eignernamen und die Inhaltsregel repräsentiert.
    svc (Service)
    Eine benutzerdefinierte Zeichenfolge auf dem Switch, die den Service repräsentiert.
    set
    Festlegen der Kenndaten von Services.
    fixedweight
    Definieren einer festen Wertigkeit für diesen Service. Der Standardwert ist off.
    Integer | off
    Eine positive ganze Zahl von 0 bis 10, die die feste Wertigkeit für diesen Service angibt, oder das Wort off, um anzugeben, dass es keine fest Wertigkeit gibt.
    requestsourceip
    Festlegen der Adresse, von der aus Anwendungsanfragen an den Service zu richten sind.
    IPAd (IP-Adresse)
    Die IP-Adresse, von der aus der Kontakt zum Service hergestellt werden soll, als symbolischer Name oder im IP-Adressenformat.
    metricserveraddress
    Festlegen der Adresse, unter der der Service für Anfragen an Metric Server erreichbar ist.
    IPAd (IP-Adresse)
    Die IP-Adresse von Metric Server als symbolischer Name oder im IP-Adressenformat.
    metricserverport
    Festlegen des Ports, von dem aus der Kontakt zum Metric Server hergestellt werden soll.
    portN (Portnummer)
    Die Nummer des Ports, von dem aus der Kontakt zum Metric Server hergestellt wird.

    Beispiele


    Befehlsreferenz für Nortel Alteon Controller

    Dieses Kapitel beschreibt die Verwendung der folgenden nalcontrol-Befehle für Nortel Alteon Controller:

    Für die Parameter des Befehls "nalcontrol" können Sie die abgekürzte Form verwenden. Sie müssen nur die eindeutigen Buchstaben der Parameter eingeben. Beispiel: Wenn Sie Hilfe für den Befehl zum Speichern von Dateien aufrufen möchten, können Sie nalcontrol he f an Stelle von nalcontrol help file angeben.

    Geben Sie zum Aufrufen der nalcontrol-Eingabeaufforderung nalcontrol ein.

    Sie können die Befehlszeilenschnittstelle verlassen, indem Sie den Befehl exit oder quit absetzen.

    Anmerkung:
    Für alle Parameterwerte des Befehls müssen Sie die englischen Zeichen verwenden. Die einzige Ausnahme hiervon bilden Hostnamen (die in den server-Befehlen verwendet werden) und (die in Dateibefehlen verwendeten) Dateinamen.

    nalcontrol consultant -- Consultant konfigurieren und steuern

    >>-nalcontrol--consultant--+-add--scID--address--swIPAddr--+---------------------------+-+-><
                               |                               +-rcommunity--readCommName--+ |
                               |                               '-wcommunity--writeCommName-' |
                               +-binarylog--scID+scID2...--+-report------------------------+-+
                               |                           +-set--+-interval--Intervall--+-+ |
                               |                           |      '-retention--Sicherung-' | |
                               |                           +-start-------------------------+ |
                               |                           '-stop--------------------------' |
                               +-remove--scID+scID2...---------------------------------------+
                               +-report--scID+scID2...---------------------------------------+
                               +-set--+--------------------------------+---------------------+
                               |      +-loglevel--Stufe----------------+                     |
                               |      +-logsize--+-Größe-----+---------+                     |
                               |      |          '-unlimited-'         |                     |
                               |      +-sensitivity-Wertigkeit_Prozent-+                     |
                               |      '-sleeptime--Sek-----------------'                     |
                               +-start--scID+scID2...----------------------------------------+
                               '-stop--scID+scID2...-----------------------------------------'
     
     
    

    add
    Fügt einen Switch-Consultant hinzu.
    scID
    Eine benutzerdefinierte Zeichenfolge, die sich auf den Consultant bezieht.
    address
    Die IP-Adresse des Nortel Alteon Web Switch, für den der Consultant Wertigkeiten bereitstellt.
    swIPAddr
    Die IP-Adresse des Switch.
    rcommunity
    Der für SNMP-Kommunikation mit dem Nortel Alteon Web Switch verwendete Name der Benutzergemeinschaft mit Lesezugriff. Der Standardwert ist public.
    readCommName
    Die Zeichenfolge für den Namen der Benutzergemeinschaft mit Lesezugriff, wie sie für den Nortel Alteon Web Switch konfiguriert ist. Der Standardwert ist public.
    wcommunity
    Der für SNMP-Kommunikation verwendete Name der Community mit Schreibzugriff.
    writeCommName
    Die Zeichenfolge für den Namen der Community mit Schreibzugriff, wie sie für den Nortel Alteon Web Switch konfiguriert ist. Der Standardwert ist "private".
    binarylog
    Steuert die binäre Protokollierung für einen Consultant.
    report
    Berichte mit den Kenndaten der binären Protokollierung.
    set
    Legt fest, wie oft (alle wie viel Sekunden) Daten in die binären Protokolle geschrieben werden. Die binäre Protokollierung ermöglicht das Speichern von Informationen zu jedem in der Konfiguration definierten Service in binären Protokolldateien. Die Daten werden nur in die Protokolle geschrieben, wenn seit dem Schreiben des letzten Protokolleintrags die für das Protokollintervall angegebene Zeit in Sekunden verstrichen ist. Das Standardintervall für binäre Protokollierung ist 60.
    interval
    Gibt in Sekunden die Zeit zwischen den Einträgen im binären Protokoll an.
    retention
    Legt die Zeit in Stunden fest, die binäre Protokolldateien aufbewahrt werden.
    start
    Startet die binäre Protokollierung.
    stop
    Stoppt die binäre Protokollierung.
    remove
    Entfernt einen Switch-Consultant.
    report
    Berichte mit den Kenndaten von Switch-Consultants.
    set
    Legt die Kenndaten von Switch-Consultants fest.
    loglevel
    Legt die Protokollstufe fest, auf der der Switch-Consultant Aktivitäten protokolliert. Der Standardwert ist 1.
    Stufe
    Die Nummer der Stufe von 0 bis 5. Die Standardeinstellung ist 1. Gültige Werte sind:

    0 = Keine

    1 = Minimal

    2 = Grundlegend

    3 = Mäßig

    4 = Erweitert

    5 = Ausführlich

    logsize
    Legt die maximale Anzahl Bytes fest, die in der Protokolldatei protokolliert werden. Der Standardwert ist 1048576. Wenn Sie für die Protokolldatei eine maximale Größe festlegen, wird die Protokollierung bei Erreichen der Größe am Anfang der Datei fortgesetzt, so dass die vorherigen Protokolleinträge überschrieben werden. Die Protokollgröße kann nicht auf einen geringeren Wert als die aktuelle Dateigröße gesetzt werden. Protokolleinträge sind mit einer Zeitmarke versehen, damit Sie die Reihenfolge, in der sie geschrieben wurden, erkennen können. Je höher Sie die Protokollstufe setzen, desto vorsichtiger müssen Sie die Protokollgröße auswählen, da die Protokolldatei sehr schnell voll ist, wenn Sie eine Protokollierung auf einer höheren Stufe wählen.
    Größe
    Die maximale Anzahl Bytes, die im Consultant-Protokoll protokolliert werden. Sie können entweder eine positive Zahl, die größer als 0 sein muss, oder das Wort unlimited (unbegrenzt) angeben. Da die Protokolleinträge unterschiedlich lang sind, wird mit dem Überschreiben von Einträgen unter Umständen schon vor Erreichen der exakten maximalen Größe begonnen.
    sensitivity
    Gibt an, in welchem Maße sich eine Wertigkeit ändern muss, damit die Änderung als relevant angesehen wird. Der Unterschied zwischen der neuen und der alten Wertigkeit muss größer als der hier festgelegte Prozentsatz sein, bevor die Wertigkeit geändert wird. Der gültige Bereich liegt zwischen 0 und 100. Der Standardwert ist 5.
    Wertigkeit_Prozent
    Eine ganze Zahl von 0 bis 100 zur Angabe der Sensitivität.
    sleeptime
    Legt die Zeit der Inaktivität zwischen den Definitionszyklen für die Wertigkeit in Sekunden fest. Der Standardwert ist 7.
    Sekunden
    Eine ganze Zahl, die die Inaktivität in Sekunden angibt. Der gültige Bereich beginnt mit 0 und endet mit 2.147.460.
    start
    Startet das Erfassen von Metriken und das Definieren von Wertigkeiten.
    stop
    Stoppt das Erfassen von Metriken und das Definieren von Wertigkeiten.

    Beispiele

    nalcontrol controller -- Controller verwalten

    >>-nalcontrol--controller--+-report--------------------------+-><
                               '-set--+------------------------+-'
                                      +-loglevel--Stufe--------+
                                      '-logsize--+-Größe------+-'
                                                 '-unlimited-'
     
     
    

    report
    Anzeigen der Kenndaten des Controllers. Dieser Bericht enthält auch die Versionsnummer.
    set
    Festlegen der Kenndaten des Controllers.
    loglevel
    Legt die Protokollstufe fest, auf der der Controller Aktivitäten protokolliert. Der Standardwert ist 1.
    Stufe
    Die Nummer der Stufe von 0 bis 5. Die Standardeinstellung ist 1. Gültige Werte sind:

    0 = Keine

    1 = Minimal

    2 = Grundlegend

    3 = Mäßig

    4 = Erweitert

    5 = Ausführlich

    logsize
    Legt die maximale Anzahl Bytes fest, die in der Protokolldatei protokolliert werden. Der Standardwert ist 1048576. Wenn Sie für die Protokolldatei eine maximale Größe festlegen, wird die Protokollierung bei Erreichen der Größe am Anfang der Datei fortgesetzt, so dass die vorherigen Protokolleinträge überschrieben werden. Die Protokollgröße kann nicht auf einen geringeren Wert als die aktuelle Dateigröße gesetzt werden. Protokolleinträge sind mit einer Zeitmarke versehen, damit Sie die Reihenfolge, in der sie geschrieben wurden, erkennen können. Je höher Sie die Protokollstufe setzen, desto vorsichtiger müssen Sie die Protokollgröße auswählen, da die Protokolldatei sehr schnell voll ist, wenn Sie eine Protokollierung auf einer höheren Stufe wählen.
    Größe | unlimited
    Die maximale Anzahl Bytes, die im Consultant-Protokoll protokolliert werden. Sie können entweder eine positive Zahl, die größer als 0 sein muss, oder das Wort unlimited (unbegrenzt) angeben. Da die Protokolleinträge unterschiedlich lang sind, wird mit dem Überschreiben von Einträgen unter Umständen schon vor Erreichen der exakten maximalen Größe begonnen.

    Beispiele

    nalcontrol file -- Konfigurationsdateien verwalten

    >>-nalcontrol--file--+-delete--Dateiname-+----------------------><
                         +-load--Dateiname---+
                         +-report-----------+
                         '-save--Dateiname---'
     
     
    

    delete
    Löschen der angegebenen Konfigurationsdatei.
    Dateiname
    Eine Konfigurationsdatei. Die Dateierweiterung muss .xml lauten. Wenn diese Erweiterung nicht angegeben wird, wird sie vorausgesetzt.
    load
    Laden der in der angegebenen Datei gespeicherten Konfiguration.
    Anmerkung:
    Beim Laden einer Datei wird die darin gespeicherte Konfiguration an die aktive Konfiguration angehängt. Wenn Sie eine neue Konfiguration laden möchten, müssen Sie vor dem Laden der Datei den Server beenden und neu starten.
    report
    Auflisten der Konfigurationsdateien.
    save
    Sichern der aktuellen Konfiguration in der angegebenen Datei.
    Anmerkung:
    Dateien werden in den nachfolgend genannten Verzeichnissen gespeichert und aus diesen geladen:
    • AIX-Systeme: /opt/ibm/edge/lb/servers/configurations/nal
    • Linux-Systeme: /opt/ibm/edge/lb//servers/configurations/nal
    • Solaris-Systeme: /opt/ibm/edge/lb/servers/configurations/nal
    • Windows-Systeme:

      Allgemeiner Installationsverzeichnispfad -- C:\Programme\ibm\edge\lb\servers\configurations\nal

      Nativer Installationsverzeichnispfad -- C:\Programme\ibm\lb\servers\configurations\nal

    Beispiele

    nalcontrol help -- Hilfetext für diesen Befehl anzeigen oder drucken

    >>-nalcontrol--help--+-controller-------+----------------------><
                         +-consultant-------+
                         +-file-------------+
                         +-help-------------+
                         +-highavailability-+
                         +-metrinalllector--+
                         +-ownercontent-----+
                         '-service----------'
     
     
    

    Beispiele

    nalcontrol highavailability -- Hohe Verfügbarkeit steuern


    >>-nalcontrol--highavailability--+-add--+-address--Adresse---------------+-+-><
                                     |      +-partneraddress--Partneradresse-+ |
                                     |      +-port--Port---------------------+ |
                                     |      '-role--+-primary---+------------' |
                                     |              '-secondary-'              |
                                     +-dropreach--Adresse----------------------+
                                     +-remove----------------------------------+
                                     +-report----------------------------------+
                                     +-set--+-beatinterval--Zeit-----+---------+
                                     |      +-takeoverinterval--Zeit-+         |
                                     |      +-loglevel--Stufe--------+         |
                                     |      '-logsize--+-Größe------+-'        |
                                     |                 '-unlimited-'           |
                                     +-start--+-auto---+-----------------------+
                                     |        '-manual-'                       |
                                     +-stop------------------------------------+
                                     +-takeover--------------------------------+
                                     '-usereach--Adresse-----------------------'
     
     
    

    add
    Konfigurieren eines Knotens mit hoher Verfügbarkeit, des zugehörigen Partners und von Erreichbarkeitszielen.
    address
    Die Adresse, von der Überwachungssignale empfangen werden sollen.
    Adresse
    Die IP-Adresse des Knotens mit hoher Verfügbarkeit.
    partneraddress
    Die Adresse, an die Überwachungssignale gesendet werden sollen. Dies ist die IP-Adresse oder der Hostname, die bzw. der für den Partnerknoten konfiguriert wurde. Diese Adresse wird verwendet, um mit der Partnermaschine für hohe Verfügbarkeit zu kommunizieren.
    Adresse
    Die IP-Adresse der Partnermaschine.
    port
    Der für die Kommunikation mit dem Partner verwendete Port. Der Standardwert ist 12345.
    Port
    Die Portnummer.
    role
    Die Rolle für hohe Verfügbarkeit.
    primary | secondary
    Die primäre oder sekundäre Rolle.
    dropreach
    Entfernen dieses Erreichbarkeitsziels aus den Kriterien für hohe Verfügbarkeit.
    Adresse
    Die IP-Adresse des Erreichbarkeitsziels.
    remove
    Entfernen des Knotens, des Partners und des Erreichbarkeitsziels aus der Konfiguration für hohe Verfügbarkeit. Vor Verwendung dieses Befehls muss die hohe Verfügbarkeit inaktiviert werden.
    report
    Anzeigen von Informationen zur hohen Verfügbarkeit.
    set
    Festlegen der Kenndaten für die hohe Verfügbarkeit.
    beatinterval
    Legt fest, in welchem Abstand (in Millisekunden) Überwachungssignale an den Partner gesendet werden. Der Standardwert ist 500.
    Zeit
    Eine positive ganze Zahl, die das Intervall für die Signale in Millisekunden angibt.
    takeoverinterval
    Legt die Zeit in Millisekunden fest, nach der eine Übernahme erfolgt. (Während dieser Zeit werden keine Überwachungssignale empfangen.) Der Standardwert ist 2000.
    Zeit
    Eine positive ganze Zahl, die das Übernahmeintervall in Millisekunden angibt.
    loglevel
    Legt die Stufe fest, auf der Aktivitäten protokolliert werden. Der Standardwert ist 1.
    Stufe
    Die Nummer der Stufe von 0 bis 5. Die Standardeinstellung ist 1. Gültige Werte sind:

    0 = Keine

    1 = Minimal

    2 = Grundlegend

    3 = Mäßig

    4 = Erweitert

    5 = Ausführlich

    logsize
    Legt die maximale Anzahl Bytes fest, die in der Protokolldatei für hohe Verfügbarkeit protokolliert werden. Der Standardwert ist 1048576. Wenn Sie für die Protokolldatei eine maximale Größe festlegen, wird die Protokollierung bei Erreichen der Größe am Anfang der Datei fortgesetzt, so dass die vorherigen Protokolleinträge überschrieben werden. Die Protokollgröße kann nicht auf einen geringeren Wert als die aktuelle Dateigröße gesetzt werden. Protokolleinträge sind mit einer Zeitmarke versehen, damit Sie die Reihenfolge, in der sie geschrieben wurden, erkennen können. Je höher Sie die Protokollstufe setzen, desto vorsichtiger müssen Sie die Protokollgröße auswählen, da die Protokolldatei sehr schnell voll ist, wenn Sie eine Protokollierung auf einer höheren Stufe wählen.
    Größe | unlimited
    Die maximale Anzahl Bytes, die im Protokoll für hohe Verfügbarkeit protokolliert werden. Sie können entweder eine positive Zahl, die größer als 0 sein muss, oder das Wort unlimited (unbegrenzt) angeben. Da die Protokolleinträge unterschiedlich lang sind, wird mit dem Überschreiben von Einträgen unter Umständen schon vor Erreichen der exakten maximalen Größe begonnen.
    start
    Aktiviert die hohe Verfügbarkeit. Vor Verwendung dieses Befehls müssen Sie einen Knoten mit hoher Verfügbarkeit, den zugehörigen Partner und ein Erreichbarkeitsziel konfiguriert haben.
    auto | manual
    Legt fest, ob die hohe Verfügbarkeit mit automatischer oder manueller Wiederherstellung aktiviert werden soll.
    stop
    Inaktiviert die hohe Verfügbarkeit.
    takeover
    Der Knoten mit hoher Verfügbarkeit gibt die Steuerung ab.
    usereach
    Die Adresse des Erreichbarkeitsziels, an dem die hohe Verfügbarkeit aktiviert wird. Fügen Sie ein Erreichbarkeitsziel hinzu, dass mit ping erreicht werden kann, damit die Partner für hohe Verfügbarkeit feststellen können, ob ihre Zieladressen tatsächlich erreichbar sind.
    Adresse
    Die IP-Adresse des Erreichbarkeitsziels.

    Beispiele

    nalcontrol metriccollector -- Metrik-Collector konfigurieren

    >>-nalcontrol--metricollector--+-report--scID+scID2+...:mN+mN2...--------------------------+-><
                                   '-set--scID+scID2+...:mN+mN2...--+-connecttimeout--Sek----+-'
                                                                    +-loglevel--Stufe--------+
                                                                    +-logsize--+-Größe-----+-+
                                                                    |          '-unlimited-' |
                                                                    +-receivetimeout--Sek----+
                                                                    '-sleeptime--Sek---------'
     
     
    

    report
    Anzeigen der Kenndaten eines Metrik-Collectors.
    scID (Switch-Consultant-ID)
    Eine benutzerdefinierte Zeichenfolge, die sich auf den Consultant bezieht.
    mN (Metrikname)
    Ein Name, der die vorgegebene oder angepasste Metrik bezeichnet.
    set
    Festlegen der Kenndaten eines Metrik-Collectors.
    connecttimeout
    Festlegen der Zeit, nach deren Ablauf ein Metrik-Collector meldet, dass eine Verbindung unterbrochen ist.
    Sek
    Eine positive ganze Zahl, die die Zeit in Sekunden angibt, nach deren Ablauf der Metrik-Collector meldet, dass zu einem Service keine Verbindung hergestellt werden kann.
    loglevel
    Legt die Protokollstufe fest, auf der der angegebene Consultant Aktivitäten protokolliert. Der Standardwert ist 1.
    Stufe
    Die Nummer der Stufe. Der Standardwert ist 1. Je größer die Zahl ist, desto mehr Informationen werden in das Consultant-Protokoll geschrieben. Gültige Werte:

    0 = Keine

    1 = Minimal

    2 = Grundlegend

    3 = Mäßig

    4 = Erweitert

    5 = Ausführlich

    logsize
    Legt die maximale Anzahl Bytes fest, die in der Protokolldatei protokolliert werden. Der Standardwert ist 1048576. Wenn Sie für die Protokolldatei eine maximale Größe festlegen, wird die Protokollierung bei Erreichen der Größe am Anfang der Datei fortgesetzt, so dass die vorherigen Protokolleinträge überschrieben werden. Die Protokollgröße kann nicht auf einen geringeren Wert als die aktuelle Dateigröße gesetzt werden. Protokolleinträge sind mit einer Zeitmarke versehen, damit Sie die Reihenfolge, in der sie geschrieben wurden, erkennen können. Je höher Sie die Protokollstufe setzen, desto vorsichtiger müssen Sie die Protokollgröße auswählen, da die Protokolldatei sehr schnell voll ist, wenn Sie eine Protokollierung auf einer höheren Stufe wählen.
    Größe | unlimited
    Die maximale Anzahl Bytes, die im Consultant-Protokoll protokolliert werden. Sie können entweder eine positive Zahl, die größer als 0 sein muss, oder das Wort unlimited (unbegrenzt) angeben. Da die Protokolleinträge unterschiedlich lang sind, wird mit dem Überschreiben von Einträgen unter Umständen schon vor Erreichen der exakten maximalen Größe begonnen.
    receivetimeout
    Legt die Zeit fest, nach deren Ablauf der Consultant meldet, dass von einem Service keine Daten empfangen werden können.
    Sek
    Eine positive ganze Zahl, die die Zeit in Sekunden angibt, nach deren Ablauf der Consultant meldet, dass von einem Service keine Daten empfangen werden können.
    sleeptime
    Legt für den Metrik-Collector die Zeit der Inaktivität zwischen den Erfassungszyklen in Sekunden fest.
    Sek
    Eine positive ganze Zahl, die die Inaktivitätszeit in Sekunden angibt.

    Beispiele

    nalcontrol server -- Server konfigurieren

    >>-nalcontrol--serer--+-report--scID+scID2...:svcID+svcID2...:serverID+svrID2...-----------------------------------+-><
                          '---set--scID+scID2...:svcID+svcID2...:serverID+svrID2--+--------------------------------+---'
                                                                                  +-fixedweight--+-Integer-+-------+
                                                                                  |              '-off-----'       |
                                                                                  +-requestsourceip--IP-Adresse----+
                                                                                  +-metricserveraddress--IP-Adresse+
                                                                                  '-metricserverport--Portnummer---'
     
     
    

    report
    Anzeigen der Kenndaten von Servern.
    scID
    Eine benutzerdefinierte Zeichenfolge, die den Consultant bezeichnet.
    svcID
    Eine benutzerdefinierte Zeichenfolge für die Kennung des virtuellen Services und die Nummer des virtuellen Ports auf dem Switch.
    Server-ID
    Eine ganze Zahl, die den Server auf dem Switch repräsentiert.
    set
    Festlegen der Kenndaten von Servern.
    fixedweight
    Definieren einer festen Wertigkeit für diesen Server. Der Standardwert ist off. Der Maximalwert für fixedweight ist 48.
    Integer | off
    Eine positive ganze Zahl, die die feste Wertigkeit für diesen Server angibt, oder das Wort off, um anzugeben, dass es keine fest Wertigkeit gibt.
    requestsourceip
    Festlegen der Adresse, von der aus Anwendungsanfragen an den Server zu richten sind.
    IP-Adresse
    Die IP-Adresse, von der aus der Kontakt zum Server hergestellt werden soll, als symbolischer Name oder im IP-Adressenformat.
    metricserveraddress
    Festlegen der Adresse, von der aus Metric-Server-Anfragen an den Server zu richten sind.
    IP-Adresse
    Die IP-Adresse von Metric Server als symbolischer Name oder im IP-Adressenformat.
    metricserverport
    Festlegen des Ports, von dem aus der Kontakt zum Metric Server hergestellt werden soll.
    Portnummer
    Die Nummer des Ports, von dem aus der Kontakt zum Metric Server hergestellt wird.

    Beispiele

    nalcontrol service -- Service konfigurieren

    >>-nalcontrol--service--+-add--scID+scID2...:serviceID+svcID2...--vsid--virSvrID--vport--virPortNum------+-><
                            +-metrics--scID+scID2...:svcID+svcID2...--mN--Bedeutung--mCN2--i2----------------+
                            +-refresh--scID+scID2...:svcID+svcID2...-----------------------------------------+
                            +-remove--scID+scID2...:svcID+svcID2...------------------------------------------+
                            +-report--scID+scID2...:svcID+svcID2...------------------------------------------+
                            '-set--scID+scID2...:svcID+svcID2...----metric--mN----+-requeststring--String--+-'
                                                                                  +-responsestring--String-+
                                                                                  '-retry--Wiederholungen--'
     
     
    

    add
    Fügt einen Service zum angegebenen Consultant hinzu.
    scID (Switch-Consultant-ID)
    Eine benutzerdefinierte Zeichenfolge, die sich auf den Consultant bezieht.
    svcID (Service-ID)
    Eine benutzerdefinierte Zeichenfolge, die den Service bezeichnet.
    vsid
    Das Schlüsselwort, das den virtuellen Service bezeichnet.
    virSvrID (ID des virtuellen Servers)
    Die Zahl, die auf dem Switch den virtuellen Server repräsentiert.
    vport
    Das Schlüsselwort für den virtuellen Port.
    virPortNum (Nummer des virtuellen Ports)
    Die derzeit auf dem Switch konfigurierte Portnummer für den Service.
    metrics
    Gibt die Metriken an, die für die Berechnung der Wertigkeiten herangezogen werden sollen, sowie die Gewichtung der einzelnen Metriken. Die Gewichtung wird als Prozentsatz ausgedrückt. Die Summe aller Gewichtungen muss 100 ergeben. Die Metriken können eine beliebige Kombinationen von Metriken für Verbindungsdaten, für Advisor-Funktionen der Anwendung und für Metric Server sein. Die Standardmetriken sind activeconn (aktive Verbindungen) und connrate (Verbindungsrate) mit einer Gewichtung von jeweils 50 %.
    mN (Metrikname)
    Name des Metrik-Collectors, der die Metriken für die Bestimmung der Serverwertigkeit erfasst.

    Nachfolgend sehen Sie eine Liste gültiger Metriknamen mit den zugehörigen Ports.

    Advisor-NameProtokoll Port
    connectICMP12345
    db2private 50000
    dnsDNS53
    ftpFTP21
    httpHTTP80
    httpsSSL 443
    cachingproxy HTTP (über Caching Proxy)80
    imapIMAP143
    ldapLDAP389
    nntpNNTP119
    pingPING0
    pop3POP3110
    sipSIP5060
    smtpSMTP25
    sslSSL 443
    telnetTelnet23
    WLMprivate 10007
    activeconnnicht anwendbar nicht anwendbar
    connratenicht anwendbar nicht anwendbar
    cpuloadnicht anwendbar nicht anwendbar
    memloadnicht anwendbar nicht anwendbar
    Bedeutung
    Eine Zahl von 0 bis 100, die die Bedeutung dieser Metrik für die Berechnung der Serverwertigkeiten angibt.
    refresh
    Aktualisieren eines Services mit Informationen vom Nortel Alteon Web Switch.
    remove
    Entfernen eines Services.
    report
    Ausgeben eines Berichts mit den Kenndaten eines Services.
    set
    Festlegen der Kenndaten eines Services.
    metric
    Festlegen der Kenndaten einer konfigurierten Metrik.
    mN (Metrikname)
    Der Name der gewünschten Metrik.
    requeststring
    Festlegen einer Anfragezeichenfolge für die angegebene Metrik. Diese Zeichenfolge repräsentiert die Anfrage, die ein Metrik-Collector sendet.
    Zeichenfolge
    Die vom Metrik-Collector an den Server gesendete Anfragezeichenfolge.
    responsestring
    Festlegen einer Antwortzeichenfolge für die angegebene Metrik. Die angegebene Antwortzeichenfolge vergleicht der Metrik-Collector mit den Antworten, die er von den Servern empfängt, und ermittelt daraufhin die Serververfügbarkeit.
    Zeichenfolge
    Die Antwortzeichenfolge, mit der der Metrik-Collector vom Server empfangene Antworten vergleicht.
    retry
    Der Parameter "retry" legt die Wiederholungsversuche fest, bevor ein Server als inaktiv markiert wird.
    Wiederholungen
    Eine ganze Zahl größer als oder gleich null. Dieser Wert sollte nicht größer als 3 sein. Wenn das Schlüsselwort für Wiederholungen nicht konfiguriert ist, wird standardmäßig von null Wiederholungsversuchen ausgegangen.

    Beispiele


    Anhänge


    Anhang A. Allgemeine Anweisungen zur grafischen Benutzerschnittstelle

    Auf der grafischen Benutzerschnittstelle (GUI) von Load Balancer erscheint auf der linken Seite der Anzeige eine Baumstruktur mit Load Balancer als Ausgangsebene und Dispatcher, Content Based Routing (CBR), Site Selektor, Cisco CSS Controller und Nortel Alteon Controller als Komponenten.

    Abbildung 41. GUI mit der erweiterten Anzeige der Baumstruktur für die Komponente Dispatcher

    Grafische Benutzerschnittstelle von Load Balancer, in der die Erweiterung der GUI-Baumstruktur für die Komponente Dispatcher angezeigt wird.

    Abbildung 42. GUI mit der erweiterten Anzeige der Baumstruktur für die Komponente CBR

    Grafische Benutzerschnittstelle von Load Balancer, in der die Erweiterung der GUI-Baumstruktur für die Komponente CBR angezeigt wird.

    Abbildung 43. GUI mit der erweiterten Anzeige der Baumstruktur für die Komponente Site Selector

    Grafische Benutzerschnittstelle von Load Balancer, in der die Erweiteurng der GUI-Baumstruktur für die Komponente Site Selector angezeigt wird.

    Abbildung 44. GUI mit der erweiterten Anzeige der Baumstruktur für die Komponente Cisco CSS Controller

    Grafische Benutzerschnittstelle von Load Balancer, in der die Erweiterung der GUI-Baumstruktur für die Komponente Cisco CSS Controller angezeigt wird.

    Abbildung 45. GUI mit der erweiterten Anzeige der Baumstruktur für die Komponente Nortel Alteon Controller

    Grafische Benutzerschnittstelle von Load Balancer, in der die Erweiterung der GUI-Baumstruktur für die Komponente Nortel Alteon Controller angezeigt wird.

    Alle Komponenten können auf der GUI konfiguriert werden. Sie können Elemente in der Baumstruktur auswählen, indem Sie mit der ersten Maustaste (normalerweise der linken Maustaste) darauf klicken. Zum Aufrufen von Popup-Menüs müssen Sie die zweite Maustaste (normalerweise die rechte Maustaste) drücken. Auf die Popup-Menüs für die Baumstrukturelemente kann auch über die Menüleiste zugegriffen werden, die sich oben in der Anzeige befindet.

    Durch Klicken auf das Plus- oder Minuszeichen können Sie die Elemente der Baumstruktur ein- bzw. ausblenden.

    Wenn Sie einen Befehl über die grafische Benutzerschnittstelle ausführen möchten, gehen Sie wie folgt vor: Heben Sie in der GUI-Baumstruktur den Hostknoten hervor, und wählen Sie im Popup-Menü "Host" Befehl senden... aus. Geben Sie im Befehlseingabefeld den gewünschten Befehl ein, z. B. executor report. In einem Fenster sehen Sie die Ergebnisse und die Historie der in der aktuellen Sitzung ausgeführten Befehle.

    Auf der rechten Seite der Anzeige erscheinen Registerkarten mit Statusanzeigen für das derzeit ausgewählte Element.

    Falls Sie Hilfe benötigen, klicken Sie oben rechts im Load-Balancer-Fenster auf das Fragezeichen (?).


    Anhang B. Syntax für Inhaltsregeln (Muster)

    Dieser Anhang beschreibt die Syntax der Inhaltsregel (des Musters) für die Komponente CBR und die Weiterleitungsmethode "cbr" der Komponente Dispatcher sowie Szenarien und Beispiele für ihre Verwendung.


    Syntax für Inhaltsregeln (Muster):

    Diese Angaben gelten nur, wenn Sie als Regeltyp content ausgewählt haben.

    Beachten Sie bei der Syntax des gewünschten Musters die folgenden Einschränkungen:

    Reservierte Schlüsselwörter

    Auf reservierte Schlüsselwörter folgt immer ein Gleichheitszeichen (=).

    Method
    HTTP-Methode in der Anforderung, z. B. GET, POST usw.

    URI
    Pfad der URL-Anforderung (Groß-/Kleinschreibung muss beachtet werden)

    Version
    Spezifische Version der Anforderung, entweder HTTP/1.0 oder HTTP/1.1

    Host
    Wert vom Host: Header (Groß-/Kleinschreibung kann ignoriert werden)
    Anmerkung:
    In HTTP/1.0-Protokollen optional.

    <Schlüssel>
    Ein gültiger HTTP-Header-Name, nach dem Dispatcher suchen kann. Beispiele für HTTP-Header sind User-Agent, Connection, Referer usw.

    Ein Browser, der http://www.firma.com/pfad/webseite.htm aufruft, kann folgende Werte ergeben:

    Method=GET
    URI=/pfad/webseite.htm
    Version=HTTP/1.1
    Host=www.firma.com
    Connection=Keep-Alive
    Referer=http://www.firma.com/pfad/elternwebseite.htm
    Anmerkung:
    Die Shell des Betriebssystems interpretiert Sonderzeichen wie "&" unter Umständen und konvertiert sie in alternativen Text, bevor sie von cbrcontrol ausgewertet werden. Wenn Sie den Befehl über dscontrol, cbrcontrol oder eine Konfigurationsdatei eingeben, setzen Sie die Sonderzeichen in doppelte Anführungsanzeichen (" ").

    Der folgende Befehl ist nur gültig, wenn Sie die cbrcontrol>>-Eingabeaufforderung oder eine Konfigurationsdatei verwenden:

    rule add 10.1.203.4:80:cbr_prod_rule_ek type content
      pattern "uri=/nipoek/*"

    Wenn Sie Sonderzeichen verwenden und derselbe Befehl über die Eingabeaufforderung des Betriebssystems funktionieren soll, müssen Sie den vollständigen Befehl in doppelte Anführungszeichen setzen:

    cbrcontrol "rule add 10.1.203.4:80:cbr_prod_rule_ek type content
      pattern uri=/nipoek/*"
    

    Fehlen die Anführungszeichen, könnte beim Speichern der Regel in CBR ein Teil des Musters abgeschnitten werden.

    Nachfolgend finden Sie eine Zusammenstellung möglicher Szenarien und Beispiele für die Mustersyntax.

    Szenario 1:

    Zur Konfiguration für einen Clusternamen gehört eine Gruppe von Webservern für standardmäßigen HTML-Inhalt, eine weitere Gruppe von Webservern mit WebSphere Application Server für Servlet-Anforderungen, eine dritte Gruppe von Lotus-Notes-Servern für NSF-Dateien usw. Der Zugriff auf die Clientdaten ist erforderlich, um zwischen den angeforderten Seiten unterscheiden zu können. Die Daten müssen außerdem an die jeweils geeigneten Server gesendet werden. Die Erkennungsregeln für das content-Muster ermöglichen die für diese Tasks notwendige Trennung. Es wird eine Reihe von Regeln konfiguriert, die die nötige Trennung der Anforderungen automatisch vornehmen. Mit den folgenden Befehlen können Sie die genannte Trennung in drei Gruppen erreichen:

    >>rule add cluster1:80:servlets type content pattern "uri=*/servlet/*" priority 1
    >>rule uses cluster1:80:servlets server1+server2
    
    >>rule add cluster1:80:notes type content pattern "uri=*.nsf*" priority 2
    >>rule uses cluster1:80:notes server3+server4
    
    >>rule add cluster1:80:regular type true priority 3
    >>rule uses cluster1:80:regular server5+server6
    

    Wenn Load Balancer eine Anforderung für eine NSF-Datei empfängt, wird zuerst die servlets-Regel angewendet, bei der jedoch keine Übereinstimmung gefunden wird. Anschließend wird die Anforderung mit der notes-Regel abgeglichen und eine Übereinstimmung festgestellt. Die Clientdaten werden auf Server3 und Server4 verteilt.

    Szenario 2

    Ein weiteres allgemeines Szenario ist die Steuerung unterschiedlicher interner Gruppen durch die Hauptwebsite. www.firma.com/software bezieht beispielsweise verschiedene Server und Inhalte aus dem Bereich www.firma.com/hardware ein. Da alle Anforderungen vom Root-Cluster www.company.com ausgehen, sind Inhaltsregeln erforderlich, um die URI-Unterscheidung für den Lastausgleich vorzunehmen. Die Regel für dieses Szenario würde etwa wie folgt aussehen:

    >>rule add cluster1:80:div1 type content pattern "uri=/software/*" priority 1
    >>rule uses cluster1:80:div1 server1+server2
    
    >>rule add cluster1:80:div2 type content pattern "uri=/hardware/*" priority 2
    >>rule uses cluster1:80:div2 server3+server4
    

    Szenario 3

    Bei bestimmten Kombinationen ist die Reihenfolge wichtig, in der die Regeln durchsucht werden. Im Szenario 2 wurden die Clients beispielsweise ausgehend von einem Verzeichnis in ihrem Anforderungspfad aufgeteilt. Der Zielverzeichnispfad kann jedoch auf verschiedenen Ebenen dieses Pfades vorhanden sein und dort jeweils zu anderen Ergebnissen führen. So ist das Ziel www.company.com/pcs/fixes/software beispielsweise von www.firma.com/mainframe/fixes/software verschieden. Die Regeln müssen dieser Möglichkeit Rechnung tragen und so konfiguriert werden, dass die nicht zu vielen Szenarien gleichzeitig gerecht werden. Die Platzhaltersuche "uri=*/software/*" wäre in diesem Falle zu breit angelegt. Alternative Regeln könnten wie folgt strukturiert sein:

    Mit einer kombinierten Suche kann hier eine Eingrenzung vorgenommen werden:

    >>rule add cluster1:80:pcs type content pattern "(uri=/pcs/*)&(uri=*/software/*)"
    >>rule uses cluster 1:80:pcs server1
    

    In Fällen, wo keine Kombinationen anwendbar sind, ist die Reihenfolge wichtig:

    >>rule add cluster1:80:pc1 type content pattern "uri=/pcs/*"
    >>rule uses cluster1:80:pc1 server2
    

    Die zweite Regel wird angewendet, wenn "pcs" im Verzeichnis nicht an erster Stelle, sondern an einer späteren Stelle erscheint.

    >>rule add cluster1:80:pc2 type content pattern "uri=/*/pcs/*"
    >>rule uses cluster1:80:pc2 server3
    

    In fast allen Fällen empfiehlt es sich, die Regeln durch eine Regel zu ersetzen, die immer wahr ist (always true) und damit für alles gilt, was nicht unter die übrigen Regeln fällt. In Szenarios, in denen alle Server für einen bestimmten Client nicht in Frage kommen, könnte dies auch ein Server mit der Antwort "Die Site ist derzeit nicht verfügbar, versuchen Sie es später erneut" sein.

    >>rule add cluster1:80:sorry type true priority 100
    >>rule uses cluster1:80:sorry server5
    

    Anhang C. Beispielkonfigurationsdateien

    Dieser Anhang enthält Beispielkonfigurationsdateien für die Komponente Dispatcher von Load Balancer.


    Beispielkonfigurationsdateien für Load Balancer

    Die Beispieldateien finden Sie im Verzeichnis "...ibm/edge/lb/servers/samples/".

    Dispatcher-Konfigurationsdatei -- AIX-, Linux- und Solaris-Systeme

    #!/bin/bash
    #
    # configuration.sample - Beispielkonfigurationsdatei für die
    # Komponente Dispatcher
    #
    #
    # Dieses Script muss von Root ausgeführt werden.
    #
    # iam=`wer bin ich`
     
    # if [ "$iam" != "root" ]if [ "$iam" != "root" ]
    #  then 
    #  echo "Sie müssen sich zum Ausführen dieses Scripts als Root anmelden"
    #   exit 2
    # fi 
     
    #
    # Starten Sie zunächst den Server
    #
    # dsserver start
    # sleep 5
     
    #
    # Starten Sie dann den Executor.
    #
    # dscontrol executor start
     
    #
    # Der Dispatcher kann vor dem Löschen der Dispatcher-Software
    # jederzeit mit den Befehlen "dscontrol executor stop" und
    # "dsserver stop" zum Stoppen von Executor und Server entfernt
    # werden.
    #
    # Der nächste Konfigurationsschritt für den Dispatcher ist das
    # Festlegen der NFA und der Clusteradresse(n).
    #
    # Die NFA wird für den Fernzugriff auf die Dispatcher-Maschine
    # zu Verwaltungs- oder Konfigurationszwecken verwendet. Diese
    # Adresse ist erforderlich, da der Dispatcher Pakete an die
    # Clusteradresse(n) weiterleitet.
    # 
    # Die CLUSTER-Adresse ist der Hostname (oder die IP-Adresse)
    # zu dem (bzw. zu der) ferne Clients eine Verbindung herstellen.
    #
    # Hostnamen und IP-Adressen sind an jeder Stelle dieser
    # Datei beliebig gegeneinander austauschbar.
    #
     
    # NFA=Hostname.Domäne.Name
    # CLUSTER=www.IhreFirma.com
    # echo "NFA wird geladen"
    # dscontrol executor set nfa $NFA
    
    #
    # Der nächste Konfigurationsschritt für den Dispatcher ist
    # das Erstellen eines Clusters. Der Dispatcher leitet an die
    # Clusteradresse gesendete Anforderungen an die entsprechenden,
    # für diesen Cluster definierten Servermaschinen weiter. Mit
    # Dispatcher können Sie mehrere Clusteradressen konfigurieren
    # und bedienen.
     
    # Verwenden Sie für CLUSTER2, CLUSTER3 usw. eine ähnliche Konfiguration.
    #
     
    # echo "Erste Clusteradresse wird geladen"
    # dscontrol cluster add $CLUSTER
    
    #
    # Jetzt müssen die Ports definiert werden, die dieser Cluster
    # verwendet. Alle vom Dispatcher an einem definierten Port
    # empfangenen Anforderungen werden an den entsprechenden Port
    # einer der Servermaschinen weitergeleitet.
    #
     
    # echo "Ports für CLUSTER: $CLUSTER werden erstellt"
     
    # dscontrol port add $CLUSTER:20+21+80
     
    #
    # Der letzte Schritt ist das Hinzufügen der einzelnen Servermaschinen
    # zu den Ports dieses Clusters.
    # Auch hier können Sie entweder den Hostnamen oder die IP-Adresse der
    # Servermaschinen verwenden.
    #
     
    # SERVER1=Servername1.Domäne.Name
    # SERVER2=Servername2.Domäne.Name
    # SERVER3=Servername3.Domäne.Name
     
    # echo "Servermaschinen werden hinzugefügt"
    # dscontrol server add $CLUSTER:20+21+80:
    # $SERVER1+$SERVER2+$SERVER3
     
    #
    # Jetzt werden die Lastausgleichskomponenten von Dispatcher
    # gestartet. Die Hauptkomponente ist der Manager. Die
    # sekundären Komponenten sind die Advisor-Funktionen. Sind
    # Manager und Advisor-Funktionen nicht aktiv, sendet der
    # Dispatcher Anforderungen in einem Round-Robin-Format.
    # Sobald der Manager gestartet ist, werden Wertigkeitsentscheidungen
    # auf der Grundlage der Anzahl neuer und aktiver Verbindungen
    # getroffen und eingehende Anforderungen an den am besten geeigneten
    # Server gesendet. Die Advisor-Funktionen geben dem Manager
    # Einblick in die Fähigkeit eines Servers, Anforderungen zu bedienen,
    # und können feststellen, ob ein Server aktiv ist. Erkennt eine
    # Advisor-Funktion, dass ein Server inaktiv ist, wird dieser
    # entsprechend markiert (sofern die Managerproportionen
    # auf das Einbeziehen von Advisor-Eingaben gesetzt sind) und es
    # werden keine weiteren Anforderungen an den Server weitergeleitet.
     
    # Der letzte Schritt beim Konfigurieren der Lastausgleichskomponenten
    # ist das Festlegen der Managerproportionen. Der Manager aktualisiert
    # die Wertigkeit der Server ausgehend von vier verschiedenen Ansätzen:
    # 1. Anzahl aktiver Verbindungen auf jedem Server.
    # 2. Anzahl neuer Verbindungen zu jedem Server.
    # 3. Eingabe von den Advisor-Funktionen.
    # 4. Eingabe von der System-Advisor-Funktion.
    # Diese Proportionen müssen in der Summe 100 ergeben. Sie können
    # die Managerproportionen beispielsweise wie folgt festlegen:
    #    dscontrol manager proportions 48 48 4 0
    # Damit fließen die aktiven und neuen Verbindungen mit jeweils 48 %
    # in die Gewichtungsentscheidung ein. Die Advisor-Funktionen fließen
    # zu 4 % ein und die Systemeingaben werden nicht berücksichtigt.
    #
    # ANMERKUNG: Standardmäßig sind die Managerproportionen auf 50 50 0 0 gesetzt.
    #
     
    # echo "Manager wird gestartet..."
    # dscontrol manager start
    # echo "FTP-Advisor-Funktion wird an Port 21 gestartet ..."
    # dscontrol advisor start ftp 21
    # echo "HTTP-Advisor-Funktion wird an Port 80 gestartet ..."
    # dscontrol advisor start http 80
    # echo "Telnet-Advisor-Funktion wird an Port 23 gestartet ..."
    # dscontrol advisor start telnet 23
    # echo "SMTP-Advisor-Funktion wird an Port 25 gestartet ..."
    # dscontrol advisor start smtp 25
    # echo "POP3-Advisor-Funktion wird an Port 110 gestartet ..."
    # dscontrol advisor start pop3 110
    # echo "NNTP-Advisor-Funktion wird an Port 119 gestartet ..."
    # dscontrol advisor start nntp 119
    # echo "SSL-Advisor-Funktion wird an Port 443 gestartet ..."
    # dscontrol advisor start ssl 443
    #
    
    # echo "Managerproportionen werden festgelegt..."
    # dscontrol manager proportions 58 40 2 0
    #
    # Der letzte Konfigurationsschritt für die Dispatcher-Maschine
    # ist das Festlegen eines Aliasnamens auf der Netzschnittstellenkarte (NIC).
    #
    # ANMERKUNG: Verwenden Sie diesen Befehl NICHT in einer Umgebung mit hoher
    # Verfügbarkeit. Die NIC und die Loopback-Adresse werden von den
    # go*-Scripts konfiguriert.
     
    # dscontrol executor configure $CLUSTER 
    
     
    # Wenn die Clusteradresse sich auf einer von der NFA abweichenden
    # NIC oder in einem abweichenden Teilnetz befindet, verwenden Sie für
    # den Befehl "cluster configure" das folgende Format:
    #  dscontrol executor configure $CLUSTER tr0 0xfffff800
    # tr0 ist hier die NIC (tr1 die zweite Token-Ring-Karte, en0
    # die erste Ethernet-Karte) und 0xfffff800 ist eine für
    # Ihre Site gültige Teilnetzmaske.
    
     
    #
    # Die folgenden Befehle aktivieren die Standardwerte.
    # Verwenden Sie diese Befehle als Ausgangspunkt für Änderungen der Standardwerte.
    #  dscontrol manager loglevel    1
    #  dscontrol manager logsize     1048576
    #  dscontrol manager sensitivity 5
    #  dscontrol manager interval    2
    #  dscontrol manager refresh     2
    #
    #  dscontrol advisor interval ftp  21  5
    #  dscontrol advisor loglevel ftp  21  1
    #  dscontrol advisor logsize  ftp  21  1048576
    #  dscontrol advisor timeout  ftp  21  unlimited
    #  dscontrol advisor interval telnet 23 5
    #  dscontrol advisor loglevel telnet 23 1
    #  dscontrol advisor logsize  telnet 23 1048576
    #  dscontrol advisor timeout  telnet 23 unlimited
    #  dscontrol advisor interval smtp 25  5
    #  dscontrol advisor loglevel smtp 25  1
    #  dscontrol advisor logsize  smtp 25  1048576
    #  dscontrol advisor timeout  smtp 25  unlimited
    #  dscontrol advisor interval http 80  5
    #  dscontrol advisor loglevel http 80  1
    #  dscontrol advisor logsize  http 80  1048576
    #  dscontrol advisor timeout  http 80  unlimited
    #  dscontrol advisor interval pop3 110 5 
    #  dscontrol advisor loglevel pop3 110 1
    #  dscontrol advisor logsize  pop3 110 1048576
    #  dscontrol advisor timeout  pop3 110 unlimited
    #  dscontrol advisor interval nntp 119 5
    #  dscontrol advisor loglevel nntp 119 1
    #  dscontrol advisor logsize  nntp 119 1048576
    #  dscontrol advisor timeout  nntp 119 unlimited
    #  dscontrol advisor interval ssl  443 5
    #  dscontrol advisor loglevel ssl  443 1
    #  dscontrol advisor logsize  ssl  443 1048576
    #  dscontrol advisor timeout  ssl  443 unlimited
    #
     
    

    Dispatcher-Konfigurationsdatei -- Windows-Systeme

    Die folgende Load-Balancer-Beispielkonfigurationsdatei mit dem Namen configuration.cmd.sample ist für die Verwendung auf Windows-Maschinen bestimmt.

    @echo off
    rem configuration.cmd.sample - Beispielkonfigurationsdatei für die
    rem Komponente Dispatcher.
    rem 
     
    rem dsserver muss im Fenster "Dienste" gestartet werden.
     
    rem 
     
    rem 
    rem Starten Sie dann den Executor.
    rem 
    rem call dscontrol executor start
     
    rem 
     
    rem Der nächste Konfigurationsschritt für den Dispatcher
    rem ist das Festlegen der NFA und der Clusteradresse(n).
    rem 
     
    rem Die NFA wird für den Fernzugriff auf die Dispatcher-Maschine
    rem zu Verwaltungs- oder Konfigurationszwecken verwendet. Diese
    rem Adresse ist erforderlich, da der Dispatcher Pakete an die
    rem Clusteradresse(n) weiterleitet.
     
    rem 
    rem Die CLUSTER-Adresse ist der Hostname (oder die IP-Adresse)
    rem zu dem (bzw. zu der) ferne Clients eine Verbindung herstellen.
    rem 
     
    rem Hostnamen und IP-Adressen sind an jeder Stelle dieser
    rem Datei beliebig gegeneinander austauschbar.
    rem  NFA=[Non-Forwarding Address]
    rem  CLUSTER=[Clustername]
    rem 
     
    rem set NFA=Hostname.Domäne.Name
    rem set CLUSTER=www.IhreFirma.com
     
    rem echo "NFA wird geladen"
    rem call dscontrol executor set nfa %NFA%
    rem 
    rem Die folgenden Befehle aktivieren die Standardwerte.
    rem Verwenden Sie diese Befehle zum Ändern der Standardwerte.
     
    rem  call dscontrol executor set fintimeout 30
    rem 
    rem Der nächste Konfigurationsschritt für den Dispatcher ist
    rem das Erstellen eines Clusters. Der Dispatcher leitet an die
    rem Clusteradresse gesendete Anforderungen an die entsprechenden,
    rem für diesen Cluster definierten Servermaschinen weiter. Mit
    rem Dispatcher können Sie mehrere Clusteradressen konfigurieren
    rem und bedienen.
    rem Verwenden Sie für CLUSTER2, CLUSTER3 usw. eine ähnliche Konfiguration.
    rem 
     
    rem echo "Erste Clusteradresse wird geladen"
    rem call dscontrol cluster add %CLUSTER%
     
    rem 
    rem Jetzt müssen die Ports definiert werden, die dieser Cluster
    rem verwendet. Alle vom Dispatcher an einem definierten Port
    rem empfangenen Anforderungen werden an den entsprechenden Port
    rem einer der Servermaschinen weitergeleitet.
    rem 
     
    rem echo "Ports für CLUSTER %CLUSTER% werden erstellt"
    rem call dscontrol port add %CLUSTER%:20+21+80
    rem 
    rem Der letzte Schritt ist das Hinzufügen der einzelnen Servermaschinen
    rem zu den Ports dieses Clusters. Auch hier können Sie entweder den
    rem Hostnamen oder die IP-Adresse der Servermaschinen verwenden.
    rem 
     
    rem set SERVER1=Servername1.Domäne.Name
    rem set SERVER2=Servername2.Domäne.Name
    rem set SERVER3=Servername3.Domäne.Name
     
    rem echo "Servermaschinen werden hinzugefügt"
    rem call dscontrol server add %CLUSTER%:20+21+80:
    rem %SERVER1%+%SERVER2%+%SERVER3%
     
    rem 
    rem Jetzt werden die Lastausgleichskomponenten von Dispatcher
    rem gestartet. Die Hauptkomponente ist der Manager. Die
    rem sekundären Komponenten sind die Advisor-Funktionen. Sind
    rem Manager und Advisor-Funktionen nicht aktiv, sendet der
    rem Dispatcher Anforderungen in einem Round-Robin-Format.
    rem Sobald der Manager gestartet ist, werden Wertigkeitsentscheidungen
    rem auf der Grundlage der Anzahl neuer und aktiver Verbindungen
    rem getroffen und eingehende Anforderungen an den am besten geeigneten
    rem Server gesendet. Die Advisor-Funktionen geben dem Manager
    rem Einblick in die Fähigkeit eines Servers, Anforderungen zu bedienen,
    rem und können feststellen, ob ein Server aktiv ist. Erkennt eine
    rem Advisor-Funktion, dass ein Server inaktiv ist, wird dieser
    rem entsprechend markiert (sofern die Managerproportionen
    rem auf das Einbeziehen von Advisor-Eingaben gesetzt sind) und es
    rem werden keine weiteren Anforderungen an den Server weitergeleitet.
    rem Der letzte Schritt beim Konfigurieren der Lastausgleichskomponenten
    rem ist das Festlegen der Managerproportionen. Der Manager aktualisiert
    rem die Wertigkeit der Server ausgehend von vier verschiedenen Ansätzen:
    rem   1. Anzahl der aktiven Verbindungen für jeden Server.
    rem   2. Anzahl der neuen Verbindungen zu jedem Server.
    rem   3. Eingaben von den Advisor-Funktionen.
    rem   4. Eingaben von der Advisor-Funktion auf Systemebene.
    rem
    rem 
    rem  Diese Proportionen müssen in der Summe 100 ergeben. Sie können
    rem  die Managerproportionen beispielsweise wie folgt festlegen:
    rem      dscontrol cluster set <Cluster> proportions 48 48 4 0
    rem  Damit fließen die aktiven und neuen Verbindungen mit jeweils 48 %
    rem  in die Gewichtungsentscheidung ein. Die Advisor-Funktionen fließen
    rem  zu 4 % ein und die Systemeingaben werden nicht berücksichtigt.
    rem
    rem ANMERKUNG: Standardmäßig sind die Managerproportionen auf
    rem 50 50 0 0 gesetzt.
     
    rem echo "Manager wird gestartet..."
    rem call dscontrol manager start
    rem echo "FTP-Advisor-Funktion wird an Port 21 gestartet ..."
    rem call dscontrol advisor start ftp 21
    rem echo "HTTP-Advisor-Funktion wird an Port 80 gestartet ..."
    rem call dscontrol advisor start http 80
    rem echo "Telnet-Advisor-Funktion wird an Port 23 gestartet ..."
    rem call dscontrol advisor start telnet 23
    rem echo "SMTP-Advisor-Funktion wird an Port 25 gestartet ..."
    rem call dscontrol advisor start smtp 25
    rem echo "POP3-Advisor-Funktion wird an Port 110 gestartet ..."
    rem call dscontrol advisor start pop3 110
    rem echo "NNTP-Advisor-Funktion wird an Port 119 gestartet ..."
    rem call dscontrol advisor start nntp 119
    rem echo "SSL-Advisor-Funktion wird an Port 443 gestartet ..."
    rem call dscontrol advisor start ssl 443 
    
    rem 
     
    rem echo "Clusterproportionen werden festgelegt..."
    rem call dscontrol cluster set %CLUSTER% proportions 58 40 2 0
    rem 
    rem Der letzte Konfigurationsschritt für die Dispatcher-Maschine
    rem ist das Festlegen eines Aliasnamens auf der Netzschnittstellenkarte (NIC).
    rem 
    rem ANMERKUNG: Verwenden Sie diesen Befehl NICHT in einer Umgebung mit hoher
    rem Verfügbarkeit. Die NIC und die Loopback-Adresse werden von den
    rem go*-Scripts konfiguriert.
    rem 
    rem dscontrol executor configure %CLUSTER%
     
    rem Wenn die Clusteradresse sich auf einer von der NFA abweichenden
    rem NIC oder in einem abweichenden Teilnetz befindet, verwenden Sie für
    rem den Befehl "cluster configure" das folgende Format:
    rem  dscontrol executor configure %CLUSTER% tr0 0xfffff800
    rem tr0 ist hier die NIC (tr1 die zweite Token-Ring-Karte, en0
    rem die erste Ethernet-Karte) und 0xfffff800 ist eine für
    rem Ihre Site gültige Teilnetzmaske.
    rem 
     
    rem 
    rem Mit den folgenden Befehlen werden die Standardwerte festgelegt.
    rem Verwenden Sie diese Befehle als Ausgangspunkt zum Ändern der Standardwerte.
    rem call dscontrol manager loglevel    1
    rem call dscontrol manager logsize     1048576
    rem call dscontrol manager sensitivity 5
    rem call dscontrol manager interval    2
    rem call dscontrol manager refresh     2
    rem 
    rem call dscontrol advisor interval ftp  21  5
    rem call dscontrol advisor loglevel ftp  21  1
    rem call dscontrol advisor logsize  ftp  21  1048576
    rem call dscontrol advisor timeout  ftp  21  unlimited
    rem call dscontrol advisor interval telnet 23 5
    rem call dscontrol advisor loglevel telnet 23 1
    rem call dscontrol advisor logsize  telnet 23 1048576
    rem call dscontrol advisor timeout  telnet 23 unlimited
    rem call dscontrol advisor interval smtp 25  5
    rem call dscontrol advisor loglevel smtp 25  1
    rem call dscontrol advisor logsize  smtp 25  1048576
    rem call dscontrol advisor timeout  smtp 25  unlimited
    rem call dscontrol advisor interval http 80  5
    rem call dscontrol advisor loglevel http 80  1
    rem call dscontrol advisor logsize  http 80  1048576
    rem call dscontrol advisor timeout  http 80  unlimited
    rem call dscontrol advisor interval pop3 110 5
    rem call dscontrol advisor loglevel pop3 110 1
    rem call dscontrol advisor logsize  pop3 110 1048576
    rem call dscontrol advisor timeout  pop3 110 unlimited
    rem call dscontrol advisor interval nntp 119 5
    rem call dscontrol advisor loglevel nntp 119 1
    rem call dscontrol advisor logsize  nntp 119 1048576
    rem call dscontrol advisor timeout  nntp 119 unlimited
    rem call dscontrol advisor interval ssl  443 5
    rem call dscontrol advisor loglevel ssl  443 1
    rem call dscontrol advisor logsize  ssl  443 1048576
    rem call dscontrol advisor timeout  ssl  443 unlimited
    rem 
     
    

    Beispiel-Advisor-Funktion

    Nachfolgend ist die Advisor-Beispieldatei ADV_sample wiedergegeben.

    /**
     * ADV_sample: HTTP-Advisor-Funktion von Load Balancer
     * 
     * 
     * Diese Klasse definiert eine angepasste Beispiel-Advisor-Funktion für Load
     * Balancer. Wie alle Advisor-Funktionen erweitert diese angepasste Advisor-Funktion
     * die Funktionalität des Advisor-Basiscodes (ADV_Base). Der Advisor-Basiscode führt die
     * meisten Advisor-Funktionen aus, z. B. die Rückmeldung der Arbeitslasten an
     * Load Balancer, die dann für den Gewichtungsalgorithmus von Load Balancer
     * verwendet werden. Der Advisor-Basiscode öffnet und schließt Sockets und stellt
     * Sende- und Empfangsmethoden für die Advisor-Funktion bereit. Die Advisor-Funktion
     * selbst wird nur für das Senden und Empfangen von Daten über den Port des empfohlenen
     * Servers verwendet. TCP-Methoden innerhalb des Advisor-Basiscodes sind zeitlich gesteuert,
     * um die Last zu berechnen. Mit einem Flag der Methode "constructor" in
     * "ADV_base" kann bei Bedarf die vorhandene Last mit der neuen, von der Advisor-Funktion
     * zurückgegebenen Last überschrieben werden.
     *
     * Anmerkung: Der Advisor-Basiscode stellt in angegebenen Intervallen
     * die Last ausgehend von einem in der Methode "constructor" gesetzten
     * Wert für den Wertigkeitsalgorithmus bereit. Ist die eigentliche
     * Advisor-Funktion noch nicht abgeschlossen, so dass sie keinen gültigen
     * Lastwert zurückgegeben kann, verwendet der Advisor-Basiscode die
     * bisherige Last.
     * 
     * NAMING 
     * 
     * Es gilt die folgende Namenskonvention:
     *
     *  - Die Datei muss sich in den folgenden Load-Balancer-Verzeichnissen befinden:
     * 
     *    lb/servers/lib/CustomAdvisors/ (Windows: lb\servers\lib\CustomAdvisors)
     *
     * - Der Name der Advisor-Funktion muss das Präfix ADV_ haben. Zum Starten
     *   der Advisor-Funktion genügt jedoch der Name. Die Advisor-Funktion
     *   ADV_sample kann beispielsweise mit sample gestartet werden.
     *
     * - Der Name der Advisor-Funktion muss in Kleinbuchstaben angegeben werden.
     *
     *  Unter Beachtung dieser Regeln wird auf dieses Beispiel wie folgt verwiesen:
     * 
     *             <Basisverzeichnis>/lib/CustomAdvisors/ADV_sample.class
     *
     *
     
    
     * Advisor-Funktionen müssen, wie für Load Balancer generell gültig,
     * mit der erforderlichen Java-Version kompiliert werden. Um den Zugriff auf
     * die Load-Balancer-Klassen zu gewährleisten, müssen Sie sicherstellen, dass die
     * Datei "ibmlb.jar" (aus dem Unterverzeichnis "lib" des Basisverzeichnisses) im CLASSPATH
     * des Systems enthalten ist.
     *
     * Von ADV_Base bereitgestellte Methoden:
     * 
     * - ADV_Base (Constructor):
     *
     *   - Parameter
     *     - String sName = Name der Advisor-Funktion
     *     - String sVersion = Version der Advisor-Funktion
     *     - int iDefaultPort = Standardportnummer für die Advisor-Funktion
     *     - int iInterval = Intervall für die Ausführung der Advisor-Funktion
     *                       auf den Servern
     *     - String sDefaultName = Nicht verwendet; muss als "" übergeben werden.
     *     - boolean replace = True - Den vom Advisor-Basiscode berechneten Lastwert
     *                                ersetzen
     *	                        False - Zu dem vom Advisor-Basiscode berechneten Lastwert
     *                                 addieren
     *   - Rückgabe
     *     - constructor-Methoden haben keine Rückgabewerte.
     *
     * Da der Advisor-Basiscode auf Threads basiert, stehen verschiedene andere
     * Methoden für Advisor-Funktionen zur Verfügung. Auf diese kann mit dem von
     * getLoad() übergebenen Parameter CALLER verwiesen werden.
     *
     * Es handelt sich um die folgenden Methoden:
     * 
     * - send - Informationspaket über die eingerichtete Socket-Verbindung
     *          an den Server am angegebenen Port senden.
     *   - Parameter
     *     - String sDataString - Daten werden in Form einer Zeichenfolge
     *                            gesendet
     *   - Rückgabe
     *     - int RC - Null gibt unabhängig vom erfolgreichen/gescheiterten Senden
     *                der Daten an, dass die Daten gesendet wurden. Eine negative
     *                ganze Zahl zeigt einen Fehler an.
     * 
     * - receive - Empfang von Informationen von der Socket-Verbindung.
     *   - Parameter
     *     - StringBuffer sbDataBuffer - Die während des Aufrufs von receive
     *                                   empfangenen Daten
     *   - Rückgabe
     *     - int RC - Null gibt unabhängig vom erfolgreichen/gescheiterten Empfang
     *                der Daten an, dass die Daten gesendet wurden. Eine negative
     *                ganze Zahl zeigt einen Fehler an.
     *
     * Falls die vom Advisor-Basiscode bereitgestellte Funktionalität nicht
     * ausreicht, können Sie die gewünschte Funktion innerhalb des Advisors
     * erstellen. Die vom Advisor-Basiscode bereitgestellten Methoden werden
     * dann ignoriert.
     *
     * Eine wichtige Frage hinsichtlich der zurückgegebenen Last ist, ob
     * sie auf die vom Advisor-Basiscode generierte Last angewendet oder
     * diese ersetzen soll. Es gibt gültige Instanzen für beide Situationen.
     * 
     * Dieses sehr einfache Beispiel entspricht im Wesentlichen der
     * HTTP-Advisor-Funktion von Load Balancer.
     * Es wird eine Sendeanforderung (HTTP HEAD) abgesetzt. Beim Empfang einer
     * Antwort wird die Methode "getLoad" beendet und der Advisor-Basiscode
     * angewiesen, die Ablaufsteuerung der Anforderung zu stoppen. Die Methode
     * ist damit abgeschlossen. Die zurückgegebenen Informationen werden keiner
     * Syntaxanalyse unterzogen. Die Last basiert auf der für das Senden und
     * Empfangen benötigten Zeit.
     */
     
    package CustomAdvisors;
    import com.ibm.internet.nd.advisors.*;
     
    public class ADV_sample extends ADV_Base implements ADV_MethodInterface
    {
      String COPYRIGHT = 
                "(C) Copyright IBM Corporation 1997. Alle Rechte vorbehalten.
     
      static final String  ADV_NAME              = "Sample";
      static final int     ADV_DEF_ADV_ON_PORT   = 80;
      static final int     ADV_DEF_INTERVAL      = 7;
     
      // Anmerkung: Die meisten Serverprotokolle erfordern am Ende von Nachrichten
      // eine Zeilenschaltung ("\r") und einen Zeilenvorschub ("\n"). Sollte dies
      // für Sie zutreffen, nehmen Sie sie an dieser Stelle in Ihre Zeichenfolge
      // auf.
      static final String  ADV_SEND_REQUEST      = 
        "HEAD / HTTP/1.0\r\nAccept: */*\r\nUser-Agent: " +
        "IBM_Load_Balancer_HTTP_Advisor\r\n\r\n";
     
      /**
       * Constructor.
       *
       * Parameter: Keine. An die Methode "constructor" in "ADV_Base" müssen
       * jedoch mehrere Parameter übergeben werden.
       *
       */
      public ADV_sample()
      {
        super( ADV_NAME,
    		   "2.0.0.0-03.27.98",
               ADV_DEF_ADV_ON_PORT,
               ADV_DEF_INTERVAL,
               "",     // not used
               false);
        super.setAdvisor( this );
      }
     
     
      /**
       * ADV_AdvisorInitialize
       *
       * Eine Advisor-spezifische Initialisierung, die nach dem Start der
       * Advisor-Funktion stattfinden muss. Diese Methode wird nur einmal aufgerufen
       * und in der Regel nicht verwendet.
       */
      public void ADV_AdvisorInitialize()
      {
        return;
      }
     
     
      /**
       * getLoad()
       *
       * Diese Methode wird vom Advisor-Basiscode aufgerufen, um die Operation der
       * Advisor-Funktion auf der Grundlage protokollspezifischer Details zu beenden.
       * In diesem Beispiel sind nur eine Sende- und eine Empfangsoperation
       * notwendig. Wenn eine komplexere Logik erforderlich ist, können mehrere
       * Sende- und Empfangsoperationen ausgeführt werden.
       * Es könnte beispielsweise eine Antwort empfangen werden. Die sich aus der
       * Syntaxanalyse dieser Antwort ergebenden Informationen könnten eine
       * weitere Sende- und Empfangsoperation nach sich ziehen.
       *
       * Parameter:
       * 
       * - iConnectTime - Derzeitige Last entsprechend der Zeit, die für das Herstellen
       *                  der Verbindung zum Server über den angegebenen Port benötigt
       *                  wurde.
       *
       * - caller - Verweis auf die Advisor-Basisklasse, wo die von Load
       *            Balancer bereitgestellten Methoden einfache TCP-Anforderungen
       *            wie Sende- und Empfangsaufrufe durchführen sollen.
       *
       * Ergebnisse:
       *
       * - Last: Ein in Millisekunden angegebener Wert, der entsprechend dem
       *   Flag "replace" der Methode "constructor" zur vorhandenen Last
       *   addiert wird oder die vorhandene Last ersetzt.
       *
       *   Je größer die Last ist, desto länger benötigte der Server für die
       *   Antwort. Um so geringer wird auch die Wertigkeit in Load Balancer
       *   ausfallen.
       *
       *   Wenn der Wert negativ ist, wird von einem Fehler ausgegangen. Ein Fehler
       *   von einer Advisor-Funktion zeigt an, dass der Server, den die
       *   Advisor-Funktion zu erreichen versucht, nicht zugänglich und inaktiv ist.
       *   versucht nicht, einen inaktiven Server am Lastausgleich zu
       *   beteiligen. Der Server wird erst wieder in den Lastausgleich einbezogen,
       *   wenn ein positiver Wert empfangen wird.
       *
       */
      public int getLoad(int iConnectTime, ADV_Thread caller)
      {
    	int iRc;
    	int iLoad = ADV_HOST_INACCESSIBLE;  // -1
     
    	// TCP-Anforderung senden
    	iRc = caller.send(ADV_SEND_REQUEST);
        if (iRc >= 0)
        {
    		// Empfang ausführen
    		StringBuffer sbReceiveData = new StringBuffer("");
    		iRc = caller.receive(sbReceiveData);
     
          /**
          *  Im normalen Advisor-Modus (Flag "replace" ist auf "false" gesetzt),
          *  wird der Lastwert 0 oder 1 zurückgegeben, um anzugeben, ob der Server
          *  aktiv oder inaktiv ist.
    		    *  Bei erfolgreichem Empfang wird als Lastwert null zurückgegeben, um
          *  anzuzeigen, dass der von der Basis-Advisor-Funktion ermittelte
          *  Lastwert verwendet werden soll.
          * 
          *  Andernfalls (Flag "replace" ist auf "true" gesetzt) müssen Sie
          *  den gewünschten Lastwert zurückgeben.
          */
     
          if (iRc >= 0)
          {
    			iLoad = 0;
          }
        }
    	return iLoad;
      }
     
    } // Ende von ADV_sample
     
    

    Anhang D. Beispiel für eine Client/Server-Konfiguration mit hoher Verfügbarkeit unter Verwendung von Dispatcher, CBR und Caching Proxy

    Dieser Anhang beschreibt das Einrichten einer Client/Server-Konfiguration mit hoher Verfügbarkeit, die das Leistungsspektrum der Komponenten von Load Balancer (Dispatcher und CBR) mit dem von Caching Proxy verbindet.


    Servermaschine einrichten

    Abbildung 46. Beispiel für eine Client/Server-Konfiguration mit hoher Verfügbarkeit unter Verwendung von Dispatcher, CBR und Caching Proxy

    Konfiguration für hohe Verfügbarkeit mit Dispatcher, CBR und Caching Proxy

    Die Servermaschine in Abbildung 46 ist wie folgt konfiguriert:

    Abbildung 46 zeigt eine grundlegende Darstellung mehrerer Server (EdgeServer1, EdgeServer2, EdgeServer3), die die Last auf mehrere Back-End-Webserver verteilen. Die Komponente CBR verwendet Caching Proxy für eine vom Inhalt des URL abhängige Weiterleitung von Anforderungen an die Back-End-Webserver. Die Komponente Dispatcher verteilt die Last der CBR-Komponenten auf alle Edge-Server. Die Dispatcher-Funktion für hohe Verfügbarkeit stellt sicher, dass Anforderungen an die Back-End-Server auch dann möglich sind, wenn die primäre Maschine mit hoher Verfügbarkeit (EdgeServer1) ausfällt.

    Basisrichtlinien für die Konfiguration:

    Anmerkung:
    1. Wenn Sie vermeiden möchten, dass die Back-End-Serveradressen auf einem Client im URL angezeigt werden, müssen Sie für jede Back-End-Serveradresse die Anweisung ReversePass in der Konfigurationsdatei von Caching Proxy setzen.
    2. Sie können sicherstellen, dass das Webspeicher-Caching effizient genutzt wird, indem Sie in der Konfigurationsdatei von Caching Proxy die Anweisung "Caching" auf "ON" und den Wert für die Anweisung "CacheMemory" auf die erforderliche Größe setzen.
    3. Beispielzeilen zu den obigen Anmerkungen 1-2:
      Caching              ON
      CacheMemory          128000 K
      ReversePass /* http://websrvA.firma.com/* http://www.firma.com/*
      
    4. Vergessen Sie nicht, auf der Netzschnittstellenkarte für EdgeServer1 und auf den Loopback-Einheiten der übrigen Edge-Server einen Aliasnamen für die Clusteradresse festzulegen.
    5. Wenn Sie die Edge-Server auf einer Linux-Plattform verwenden, müssen Sie einen Patch-Code für den Linux-Kernel installieren oder eine alternative Methode nutzen, um auf der Loopback-Einheit einen Aliasnamen festzulegen. Weitere Informationen finden Sie im Abschnitt Alternativen für die Festlegung eines Loopback-Aliasnamens unter Linux bei Verwendung der Load-Balancer-Weiterleitungsmethode "mac".
    6. Wenn Sie CBR mit Inhaltsregeln verwenden, dürfen Sie nicht die Portaffinität (stickytime) anwenden, da andernfalls die Inhaltsregeln beim Verarbeiten von Anforderungen an die Back-End-Webserver nicht erfüllt werden.

    Beispielkonfigurationsdateien:

    Die folgenden Beispielkonfigurationsdateien gleichen den Dateien, die beim Einrichten einer Edge-Components-Konfiguration, wie sie in Abbildung 46 dargestellt ist, erstellt werden. Die Beispielkonfigurationsdateien sind Dateien für die Load-Balancer-Komponenten Dispatcher und CBR. In der Beispielkonfiguration wird für jede Edge-Server-Maschine ein Ethernet-Adapter verwendet und alle Adressen befinden sich innerhalb eines privaten Teilnetzes. In den Beispielkonfigurationsdateien sind für die angegebenen Maschinen die folgenden IP-Adressen angegeben:

    Beispielkonfigurationsdatei für die Komponente Dispatcher auf dem primären Edge-Server mit hoher Verfügbarkeit:

    dscontrol executor start
     
    dscontrol cluster add 192.168.1.11 primaryhost 192.168.1.10
     
    dscontrol port add 192.168.1.11:80
     
    dscontrol server add 192.168.1.11:80:edgeserver1 address 192.168.1.10
     
    dscontrol server add 192.168.1.11:80:edgeserver2 address 192.168.1.20
     
    dscontrol server add 192.168.1.11:80:edgeserver3 address 192.168.1.30
     
    dscontrol manager start manager.log 10004
     
    dscontrol highavailability heartbeat add 192.168.1.10 192.168.1.20
    dscontrol highavailability backup add primary auto 4567
     
     
    

    Beispielkonfigurationsdatei für die Komponente CBR auf den Edge-Servern:

    cbrcontrol set loglevel 1
    cbrcontrol executor start
     
    cbrcontrol cluster add 192.168.1.11
     
    cbrcontrol port add 192.168.1.11:80
     
    cbrcontrol server add 192.168.1.11:80:webserverA address 192.168.1.71
     
    cbrcontrol server add 192.168.1.11:80:webserverB address 192.168.1.72
     
    cbrcontrol server add 192.168.1.11:80:webserverC address 192.168.1.73
     
    cbrcontrol rule add 192.168.1.11:80:webA_rule type content 
      pattern (URI=*WSA*)|(URI=*wsA*) priority 21 
    cbrcontrol rule useserver 192.168.1.11:80:webA_Regel webserverA
     
    cbrcontrol rule add 192.168.1.11:80:webB_rule type content 
      pattern (URI=/WS_B*) priority 22 
    cbrcontrol rule useserver 192.168.1.11:80:webB_Regel webserverB
     
    cbrcontrol rule add 192.168.1.11:80:webC_rule type content 
      pattern URI=*webC* priority 23 
    cbrcontrol rule useserver 192.168.1.21:80:webC_Regel webserverC
     
    

    Anhang E. Bemerkungen

    Die vorliegenden Informationen wurden für Produkte und Services entwickelt, die auf dem deutschen Markt angeboten werden.

    Möglicherweise bietet IBM die in dieser Dokumentation beschriebenen Produkte, Services oder Funktionen in anderen Ländern nicht an. Informationen über die gegenwärtig im jeweiligen Land verfügbaren Produkte und Services sind beim zuständigen IBM Ansprechpartner erhältlich. Hinweise auf IBM Lizenzprogramme oder andere IBM Produkte bedeuten nicht, dass nur Programme, Produkte oder Services von IBM verwendet werden können. An Stelle der Produkte, Programme oder Services können auch andere, ihnen äquivalente Produkte, Programme oder Services verwendet werden, solange diese keine gewerblichen oder anderen Schutzrechte der IBM verletzen. Die Verantwortung für den Betrieb von Produkten, Programmen und Services anderer Anbieter liegt beim Kunden.

    Für in diesem Handbuch beschriebene Erzeugnisse und Verfahren kann es IBM Patente oder Patentanmeldungen geben. Mit der Auslieferung dieses Handbuchs ist keine Lizenzierung dieser Patente verbunden. Lizenzanforderungen sind schriftlich an folgende Adresse zu richten (Anfragen an diese Adresse müssen auf Englisch formuliert werden):
    IBM Director of Licensing
    IBM Europe, Middle East & Africa
    Tour Descartes 2, avenue Gambetta
    92066 Paris La Defense
    France

    Trotz sorgfältiger Bearbeitung können technische Ungenauigkeiten oder Druckfehler in dieser Veröffentlichung nicht ausgeschlossen werden. Die Angaben in diesem Handbuch werden in regelmäßigen Zeitabständen aktualisiert. Die Änderungen werden in Überarbeitungen oder in Technical News Letters (TNLs) bekannt gegeben. IBM kann jederzeit Verbesserungen und/oder Änderungen an den in dieser Veröffentlichung beschriebenen Produkten und/oder Programmen vornehmen.

    Verweise in diesen Informationen auf Websites anderer Anbieter werden lediglich als Service für den Kunden bereitgestellt und stellen keinerlei Billigung des Inhalts dieser Websites dar. Das über diese Websites verfügbare Material ist nicht Bestandteil des Materials für dieses IBM Produkt. Die Verwendung dieser Websites geschieht auf eigene Verantwortung.

    Werden an IBM Informationen eingesandt, können diese beliebig verwendet werden, ohne dass eine Verpflichtung gegenüber dem Einsender entsteht.

    Lizenznehmer des Programms, die Informationen zu diesem Produkt wünschen mit der Zielsetzung: (i) den Austausch von Informationen zwischen unabhängig voneinander erstellten Programmen und anderen Programmen (einschließlich des vorliegenden Programms) sowie (ii) die gemeinsame Nutzung der ausgetauschten Informationen zu ermöglichen, wenden sich an folgende Adresse:
    IBM Corporation
    Attn.: G7IA./503.
    P.O. Box 12195
    3039 Cornwallis Rd.
    Research Triangle Park, N.C. 27709-2195
    U.S.A.

    Die Bereitstellung dieser Informationen kann unter Umständen von bestimmten Bedingungen - in einigen Fällen auch von der Zahlung einer Gebühr - abhängig sein.

    Die Lieferung des im Dokument aufgeführten Lizenzprogramms sowie des zugehörigen Lizenzmaterials erfolgt auf der Basis der Allgemeinen Geschäftsbedingungen von IBM, der IBM Internationalen Nutzungsbedingungen für Programmpakete oder einer äquivalenten Vereinbarung.

    Alle in diesem Dokument enthaltenen Leistungsdaten stammen aus einer kontrollierten Umgebung. Die Ergebnisse, die in anderen Betriebsumgebungen erzielt werden, können daher erheblich von den hier erzielten Ergebnissen abweichen. Einige Daten stammen möglicherweise von Systemen, deren Entwicklung noch nicht abgeschlossen ist. Eine Gewährleistung, dass diese Daten auch in allgemein verfügbaren Systemen erzielt werden, kann nicht gegeben werden. Darüber hinaus wurden einige Daten unter Umständen durch Extrapolation berechnet. Die tatsächlichen Ergebnisse können davon abweichen. Benutzer dieses Dokuments sollten die entsprechenden Daten in ihrer spezifischen Umgebung prüfen.

    Alle Informationen zu Produkten anderer Anbieter stammen von den Anbietern der aufgeführten Produkte, deren veröffentlichten Ankündigungen oder anderen allgemein verfügbaren Quellen. IBM hat diese Produkte nicht getestet und kann daher keine Aussagen zu Leistung, Kompatibilität oder anderen Merkmalen machen. Fragen zu den Leistungsmerkmalen von Produkten anderer Anbieter sind an den jeweiligen Anbieter zu richten.

    Die oben genannten Erklärungen bezüglich der Produktstrategien und Absichtserklärungen von IBM stellen die gegenwärtige Absicht von IBM dar, unterliegen Änderungen oder können zurückgenommen werden und repräsentieren nur die Ziele von IBM.

    Diese Veröffentlichung enthält Beispiele für Daten und Berichte des alltäglichen Geschäftsablaufes. Sie sollen nur die Funktionen des Lizenzprogrammes illustrieren; sie können Namen von Personen, Firmen, Marken oder Produkten enthalten. Alle diese Namen sind frei erfunden; Ähnlichkeiten mit tatsächlichen Namen und Adressen sind rein zufällig.

    Wird dieses Buch als Softcopy (Book) angezeigt, erscheinen keine Fotografien oder Farbabbildungen.


    Marken

    Folgende Namen sind eingetragene Marken oder Marken der IBM Corporation in den USA und/oder anderen Ländern:

    AFS

    AIX

    DFS

    IBM

    iSeries(TM)

    NetView

    OS/2

    Redbooks(TM)

    RS/6000(R)

    SecureWay

    ViaVoice

    WebSphere

    zSeries(R)

    Java und alle auf Java basierenden Marken und Logos sind Marken von Sun Microsystems, Inc. in den USA und/oder anderen Ländern.

    Microsoft, Windows, Windows NT und das Windows-Logo sind Marken der Microsoft Corporation in den USA und/oder anderen Ländern.

    Intel, Intel Inside (Logos), MMX und Pentium sind Marken der Intel Corporation in den USA oder anderen Ländern.

    UNIX ist eine eingetragene Marke von The Open Group in den USA und anderen Ländern.

    Linux ist eine Marke von Linus Torvalds in den USA und/oder anderen Ländern.

    Weitere Unternehmens-, Produkt- oder Servicenamen können Marken anderer Hersteller sein.


    Glossar

    A

    ACK
    Ein Steuerungsbit (zur Bestätigung), das keinen Platz in der Folge beansprucht. Es zeigt an, dass das Bestätigungsfeld dieses Segments die nächste Folgennummer angibt, die der Absender dieses Segments erwartet, und somit den Empfang aller vorherigen Folgennummern bestätigt.

    Adresse
    Der eindeutige Code, der jeder Einheit oder Workstation zugeordnet wird, die mit einem Netz verbunden ist. Eine Standard-IPV4-Adresse ist ein 32-Bit-Adressfeld mit zwei Abschnitten. Der erste Abschnitt ist die Netzadresse, der zweite die Hostnummer.

    Advisor-Funktion
    Die Advisor-Funktionen sind Bestandteil von Load Balancer. Advisor-Funktionen erfassen und analysieren Rückmeldungen von einzelnen Servern und informieren die Managerfunktion.

    Agent
    (1) In der Systemverwaltung ein Benutzer, der für eine bestimmte Interaktion die Rolle eines Agenten übernommen hat.
    (2) Eine Definitionseinheit, die verwaltete Objekte repräsentiert. Dies geschieht durch (a) die Ausgabe von Mitteilungen über die Objekte und (b) die Bearbeitung von Manageranforderungen für Verwaltungsoperationen zum Ändern oder Abfragen der Objekte.

    Alias
    Ein zusätzlicher Name, der einem Server zugeordnet wird. Der Alias macht den Server vom Namen seiner Hostmaschine unabhängig. Der Alias muss im Domänennamensserver definiert sein.

    Als aktiv markieren
    Einem Server das Empfangen neuer Verbindungen erlauben.

    Als inaktiv markieren
    Alle aktiven Verbindungen zu einem Server werden unterbrochen und das Senden neuer Verbindungen oder Pakete an diesen Server wird unterbunden.

    Anwendungsprogrammierschnittstelle
    Anwendungsprogrammierschnittstelle. Die Schnittstelle (Anrufvereinbarungen), durch die ein Anwendungsprogramm auf Dienste des Betriebssystems und andere Dienste zugreift. Eine API ist auf Quellencodeebene definiert und bietet eine Abstraktionsstufe zwischen der Anwendung und dem Kernel (oder anderen privilegierten Dienstprogrammen), um die Portierbarkeit des Codes sicherzustellen.

    Assistent
    Ein Dialog innerhalb einer Anwendung, der einen Benutzer schrittweise bei der Ausführung einer bestimmten Task anleitet.

    Ausweichmaschine
    Bei der Funktion für hohe Verfügbarkeit von Dispatcher die Partnermaschine der primären Maschine. Sie überwacht den Status der primären Maschine und übernimmt ggf. deren Aufgaben. Siehe auch "Hohe Verfügbarkeit" und "Primäre Maschine".

    B

    Bandbreite
    Die Differenz zwischen der höchsten und der niedrigsten Frequenz eines Übertragungskanals. Die Datenmenge, die pro Sekunde über eine bestimmte Kommunikationsverbindung gesendet werden kann.

    Bereichsanfang
    Bei regelbasierten Lastausgleich der niedrigste Wert, der für eine Regel angegeben wird. Die Standardeinstellung ist vom Regeltyp abhängig.

    Bereichsende
    Beim regelbasierten Lastausgleich der höchste für eine Regel angegebene Wert. Die Standardeinstellung ist vom Regeltyp abhängig.

    Binärprotokollierung
    Erlaubt das Speichern von Serverdaten in Binärdateien, die anschließend verarbeitet werden, um die zeitabhängig gesammelten Serverdaten zu analysieren.

    C

    Caching Proxy
    Ein Caching-Proxy-Server, der durch sehr effiziente Caching-Schemata die Antwortzeit für Endbenutzer verkürzen hilft. Flexible PICS-Filter unterstützen Netzadministratoren bei der Steuerung des Zugriffs auf webbasierte Informationen an einem zentralen Standort.

    CBR
    Content Based Routing. Eine Komponente von Load Balancer. CBR verteilt zusammen mit Caching Proxy eingehende Clientanforderungen ausgehend vom Inhalt der Webseite und unter Verwendung bestimmter Regeltypen auf HTTP- oder HTTPS-Server.

    cbrcontrol
    Die Schnittstelle zur Komponente Content Based Routing von Load Balancer.

    cbrserver
    Bearbeitet beim Content Based Routing die Anfragen von der Befehlszeile an Executor, Manager und Advisor-Funktionen.

    ccocontrol
    Die Schnittstelle zwischen Cisco CSS Controller und dem Cisco CSS Switch.

    ccoserver
    Bearbeitet im Cisco CSS Controller die Anforderungen von der Befehlszeile an die Consultants.

    CGI
    Common Gateway Interface. Ein Standard für den Austausch von Informationen zwischen einem Webserver und einem externen Programm. Das externe Programm kann in einer beliebigen vom Betriebssystem unterstützten Sprache geschrieben sein und führt Tasks aus, die der Server normalerweise nicht ausführt, z. B. die Formularverarbeitung.

    CGI-Script
    Ein CGI-Programm, das in einer scriptbasierten Sprache wie Perl oder REXX geschrieben ist und mit dem Common Gateway Interface Tasks ausführt, die der Server in der Regel nicht ausführt, z. B. die Formularverarbeitung.

    Cisco CSS Controller
    Eine Komponente von IBM Load Balancer. Cisco CSS Controller stellt mit der Load-Balancer-Technologie Echtzeitdaten zum Lastausgleich für den Cisco Content Services Switch bereit.

    Cisco CSS Switch
    Switches der Cisco CSS 11000 Series, die zur Weiterleitung von Paketen und Inhalten verwendet werden.

    Client
    Ein Datenverarbeitungssystem oder -prozess, das bzw. der einen Dienst von einem anderen Datenverarbeitungssystem oder -prozess anfordert. Eine Workstation oder ein Personal Computer, die bzw. der HTML-Dokumente von einem Lotus Domino Go Webserver anfordert, ist beispielsweise ein Client dieses Servers.

    Cluster
    Im Kontext der Komponente Dispatcher eine Gruppe von TCP- oder UDP-Servern, die für denselben Zweck verwendet werden und mit einem Hostnamen identifiziert werden.

    Clusteradresse
    Im Kontext der Komponente Dispatcher die Adresse, zu der Clients eine Verbindung herstellen.

    Clusterserver
    Ein Server, den der Dispatcher mit anderen Servern zu einem virtuellen Server zusammenfasst. Load Balancer verteilt den TCP- oder UDP-Datenverkehr auf diese Clusterserver.

    Consultant
    Erfasst Servermetriken von den am Lastausgleich beteiligten Servern und sendet Daten zur Serverwertigkeit an den Switch, der den Lastausgleich durchführt.

    Controller
    Eine Gruppe von Consultants.

    Crossport-Affinität
    Die Crossport-Affinität ist eine Affinität (Haltefunktion), die sich über mehrere Ports erstreckt. Siehe auch "Haltezeit".

    D

    Dämon
    (DAEMon, Disk And Execution Monitor) Ein Programm, das nicht explizit beteiligt ist, sondern ruht und darauf wartet, dass bestimmte Bedingungen erfüllt sind. Der Verursacher der Bedingungen muss nichts von dem wartenden Dämon wissen (obwohl ein Programm häufig eine Aktion aus genau dem Grund ausführt, weil es weiß, dass damit implizit ein Dämon aufgerufen wird).

    Dispatcher
    Eine Komponente von Load Balancer, die den TCP- oder UDP-Datenverkehr effizient auf Gruppen einzeln verbundener Server verteilt. Die Dispatcher-Maschine ist der Server, auf dem der Dispatcher-Code ausgeführt wird.

    Domänennamensserver
    DNS. Ein vielseitig einsetzbarer, verteilter und replizierter Datenabfragedienst, der hauptsächlich im Internet für die Umsetzung von Hostnamen in Internetadressen verwendet wird. Bezeichnet außerdem die Darstellung des Hostnamens im Internet, obwohl ein solcher Name eigentlich ein vollständig qualifizierter Domänenname ist. Der DNS kann in der Weise konfiguriert werden, dass er basierend auf den Domänen im gesuchten Namen eine Folge von Namensservern verwendet, bis er eine Übereinstimmung findet.

    dscontrol
    Die Schnittstelle zur Komponente Dispatcher von Load Balancer.

    dsserver
    Bearbeitet in der Komponente Dispatcher die Anforderungen von der Befehlszeile an Executor, Manager und Advisor-Funktionen.

    E

    Eignerangaben
    Repräsentiert den Eignernamen und die Inhaltsregel des Eigners. Beide Werte werden für den Cisco CSS Switch definiert.

    Erreichbarkeitsadresse
    Bei der Funktion für hohe Verfügbarkeit von Dispatcher die Zieladresse, an die die Advisor-Funktion Ping-Aufrufe absetzen soll, um festzustellen, ob die Zieladresse antwortet.

    Ethernet
    Ein Standardtyp eines lokalen Netzes (LAN). Dieser Standard erlaubt mehreren Stationen den beliebigen Zugriff auf das Übertragungsmedium ohne Koordination, verhindert durch Trägerprüfung und Verzögerung Konkurrenzsituationen und beseitigt Konkurrenzsituationen durch Kollisionserkennung und Übertragung. Die von Ethernet verwendeten Softwareprotokolle variieren, umfassen aber TCP/IP.

    Executor
    Eine von mehreren Load-Balancer-Funktionen. Der Executor leitet Anforderungen an die TCP- oder UDP-Server weiter, überwacht die Anzahl neuer, aktiver und beendeter Verbindungen und führt für beendete oder zurückgesetzte Verbindungen eine Garbage Collection durch. Der Executor liefert die neuen und aktiven Verbindungen an die Managerfunktion.

    F

    FIN
    Ein Steuerungsbit (finis), das eine Folgenummer belegt. Damit wird angezeigt, dass der Sender keine weiteren Daten oder Steuerzeichen sendet, die einen Platz in der Folge beanspruchen.

    FIN-Status
    Der Status einer Transaktion, die beendet wurde. Ist eine Transaktion im FIN-Status, kann der Garbage-Collector von Load Balancer den für diese Verbindung reservierten Speicher bereinigen.

    Firewall
    Ein Computer, der ein privates Netz (z. B. ein Unternehmen) mit einem öffentlichen Netz (z. B. dem Internet) verbindet. Er enthält Programme, die den Zugriff zwischen zwei Netzen einschränken. Siehe auch Proxy-Gateway.

    FTP (File Transfer Protocol)
    Ein Anwendungsprotokoll, das von Computern in einem Netz für die Übertragung von Dateien verwendet wird. FTP erfordert für den Zugriff auf Dateien eines fernen Hostsystems eine Benutzer-ID und manchmal auch ein Kennwort.

    G

    Gateway
    Eine Funktionseinheit, die zwei Computernetze mit unterschiedlichen Architekturen verbindet.

    GRE
    Generic Routing Encapsulation. Ein Protokoll, das die Übertragung eines beliebigen Netzprotokolls A über ein beliebiges anderes Protokoll B ermöglicht, indem es die Pakete von A in GRE-Paketen kapselt, die dann in den Paketen von B enthalten sind.

    H

    Haltezeit
    Das Intervall zwischen dem Schließen einer Verbindung und dem Öffnen einer neuen Verbindung. Innerhalb dieses Intervalls wird der Client an denselben Server wie bei der ersten Verbindung vermittelt. Nach Ablauf der Haltezeit kann der Client an einen anderen Server vermittelt werden.

    Hohe Verfügbarkeit
    Ein Feature von Load Balancer, das die Übernahme der Aufgaben eines Load Balancer durch einen anderen ermöglicht, sollte der erste Load Balancer ausfallen.

    Host
    Ein mit einem Netz verbundener Computer, der ein Eingangspunkt für dieses Netz bildet. Ein Host kann ein Client, ein Server oder beides gleichzeitig sein.

    Hostname
    Der einem Host zugeordnete symbolische Name. Hostnamen werden über einen Domänennamensserver in IP-Adressen aufgelöst.

    HTML (Hypertext Markup Language)
    Die Sprache, die zum Erstellen von Hypertext-Dokumenten benutzt wird. Hypertext-Dokumente enthalten Links zu anderen Dokumenten mit zusätzlichen Informationen zum hervorgehobenen Begriff oder Thema. HTML steuert beispielsweise das Format von Text und die Position von Eingabefeldern in Formularen sowie die navigierbaren Links.

    HTTP (Hypertext Transfer Protocol)
    Das Protokoll, das zum Übertragen und Anzeigen von Hypertext-Dokumenten verwendet wird.

    HTTPS (Hypertext Transfer Protocol, Secure)
    Das Protokoll, das zum Übertragen und Anzeigen von Hypertext-Dokumenten mit SSL verwendet wird.

    I

    ICMP
    Internet Control Message Protocol. Ein Nachrichtensteuerungs- und Fehlermeldungsprotokoll zwischen einem Hostserver und einem Gateway zum Internet.

    IMAP
    Internet Message Access Protocol. Ein Protokoll, mit dem ein Client auf E-Mail-Nachrichten auf einem Server zugreifen und diese bearbeiten kann. Es ermöglicht für ferne ferne Nachrichtenordner (Mailboxes) dieselbe Art der Bearbeitung wie für lokale Mailboxes.

    Internet
    Der weltweite Verbund von Netzen, die die Internetprotokollgruppe verwenden und öffentlich zugänglich sind.

    Intranet
    Ein sicheres privates Netz, das Internetstandards und -Anwendungen (wie Webbrowser) in die vorhandene Computerinfrastruktur für den Netzbetrieb integriert.

    IP
    Internet Protocol. Ein verbindungsloses Protokoll zur Weiterleitung von Daten über ein Netz oder miteinander verbundene Netze. IP agiert als Vermittler zwischen den höheren Protokollschichten und der Bitübertragungsschicht.

    IP-Adresse
    Internet-Protocol-Adresse. Eine eindeutige Adresse, die die tatsächliche Position jeder Einheit oder Workstation in einem Netz angibt. Diese Adresse wird auch als Internetadresse bezeichnet.

    IPSEC
    Internet Protocol Security. Ein sich entwickelnder Standard für die Sicherheit der Vermittlungs- oder Paketebene bei der Netzkommunikation.

    K

    Kollokation
    Installation von Load Balancer auf der Maschine, für die der Lastausgleich durchgeführt wird.

    L

    LAN
    Local Area Network (lokales Netz). Ein Computernetz mit Einheiten, die innerhalb eines begrenzten geografischen Bereichs verbunden sind, um miteinander zu kommunizieren, und mit einem größeren Netz verbunden werden können.

    Loopback-Alias
    Eine der Loopback-Schnittstelle zugeordnete alternative IP-Adresse. Die alternative Adresse hat den nützlichen Nebeneffekt, dass sie sich nicht auf einer realen Schnittstelle befindet.

    Loopback-Schnittstelle
    Eine Schnittstelle, die nicht erforderliche Übertragungsfunktionen umgeht, wenn die Informationen an eine Definitionseinheit innerhalb desselben Systems adressiert sind.

    M

    MAC-Adresse
    Die Hardwareadresse (Media Access Control) einer Einheit, die mit einem gemeinsam benutzten Netzwerkdatenträger verbunden ist.

    Manager
    Eine von mehreren Load-Balancer-Funktionen. Der Manager legt ausgehend von internen Zählern des Executors und Rückmeldungen der Advisor-Funktionen Wertigkeiten fest. Der Executor verwendet die Wertigkeiten dann für den Lastausgleich.

    Mehrfachadressenkollokation
    Die Verknüpfung mehrerer Adressen ermöglicht dem Kunden, in der Konfiguration für den verknüpften Server eine andere Adresse als die NFA anzugeben. Siehe auch "Kollokation".

    Metric Server
    Früher bekannt als Server Monitor Agent (SMA). Metric Server stellt systemspezifische Metriken für den Manager von Load Balancer bereit.

    Metrik
    Ein Prozess oder Befehl, der einen numerischen Wert zurückgibt, der beim Lastausgleich im Netz verwendet werden kann, z. B. die Anzahl der derzeit angemeldeten Benutzer.

    Metrikadresse
    Die Adresse, zu der Metric Server eine Verbindung herstellt.

    Metrik-Collector
    Ist Bestandteil des Consultant und erfasst Metriken.

    MIB
    (1) Management Information Base. Eine Gruppe von Objekten, auf die mit einem Netzverwaltungsprotokoll zugegriffen werden kann.
    (2) Eine Definition für Verwaltungsinformationen, die die von einem Host oder Gateway verfügbaren Informationen und die zulässigen Operationen angibt.

    N

    nalcontrol
    Die Schnittstelle zur Komponente Nortel Alteon Controller von Load Balancer.

    nalserver
    Bearbeitet in Nortel Alteon Controller die Anforderungen von der Befehlszeile an die Consultants.

    Network Address Translation
    NAT (Network Address Translator), virtuelles LAN. Eine Hardwareeinheit, die zur Zeit in Entwicklung ist und zur Erweiterung der vorhandenen Internetadressen verwendet werden soll. Sie erlaubt duplizierte IP-Adressen innerhalb einer Firma und eindeutige Adressen außerhalb der Firma.

    Network Address Port Translation
    NAPT (Network Address Port Translation), auch als Portzuordnung bekannt. Mit NAPT können Sie auf einem physischen Server mehrere Serverdämonen konfigurieren, die an verschiedenen Portnummern empfangsbereit sind.

    Netz
    Hardware und Software umfassendes Datenübertragungssystem. Netze werden häufig nach ihrer räumlichen Ausdehnung in lokale Netze (LAN), Hochgeschwindigkeitsnetze (MAN) und Weitverkehrsnetze (WAN) unterteilt. Es gibt aber auch die Unterteilung nach verwendetem Protokoll.

    Netzmaske
    In IPV4 eine 32-Bit-Maske, mit der die Teilnetzadressbits im Hostabschnitt einer IP-Adresse identifiziert werden.

    Netzproximität
    Die Proximität zweier vernetzter Einheiten wie Client und Server, die Site Selector durch Messung der durchschnittlichen Umlaufzeit ermittelt.

    Netzverwaltungsstation
    In SNMP (Simple Network Management Protocol) eine Station, die Verwaltungsanwendungsprogramme ausführt, mit denen Netzelemente überwacht und gesteuert werden.

    NFA (Non-Forwarding Address)
    Die für Verwaltungs- und Konfigurationszwecke verwendete primäre IP-Adresse der Load-Balancer-Maschine.

    NIC
    Netzschnittstellenkarte. Eine Adapterschaltkarte, die in einem Computer installiert ist, um eine physische Verbindung zu einem Netz zu ermöglichen.

    NNTP
    Network News Transfer Protocol. Ein TCP/IP-Protokoll zur Übertragung von Nachrichten.

    Nortel Alteon Controller
    Eine Komponente von IBM Load Balancer. Nortel Alteon Controller verwendet Load-Balancer-Technologie, um dem Nortel Alteon Web Switch Lastausgleichsinformationen in Echtzeit bereitzustellen.

    Nortel Alteon Web Switch
    Der Nortel Alteon ACE Director Series Switch und der Nortel Alteon 180 Series Switch aus dem Alteon Web Switching Portfolio für die Weiterleitung von Paketen und Inhalten.

    P

    Paket
    Die Dateneinheit, die im Internet oder einem anderen paketvermittelten Netz zwischen Ursprung und Ziel weitergeleitet wird.

    PICS
    Platform for Internet Content Selection. PICS-fähige Clients ermöglichen den Benutzern, selbst zu bestimmen, welche Bewertungsdienste sie verwenden möchten und welche Bewertungen der einzelnen Dienste akzeptabel bzw. inakzeptabel sind.

    Ping
    Ein Befehl, der ICMP-Echoanforderungspakete (ICMP = Internet Control Message Protocol) an einen Host, ein Gateway oder einen Router sendet und eine Antwort erwartet.

    POP3
    Post Office Protocol 3. Ein Protokoll, das zum Austausch von Netzpost und zum Zugriff auf Mailboxes benutzt wird.

    Port
    Eine Nummer, die eine abstrakte Übertragungseinheit bezeichnet. Webserver verwenden standardmäßig Port 80.

    Primäre Maschine
    Bei der Funktion für hohe Verfügbarkeit der Komponente Dispatcher die Maschine, die aktiv Pakete weiterleitet. Die zugehörige Partner- oder Ausweichmaschine überwacht den Status der primären Maschine und übernimmt ggf. deren Aufgaben. Siehe auch "Ausweichmaschine" und "Hohe Verfügbarkeit".

    Priorität
    Bei dem auf Regeln basierenden Lastausgleich das Maß an Bedeutung, das einer bestimmten Regel beigemessen wird. Der Dispatcher wertet die Regeln beginnend bei der ersten Prioritätsebene bis hin zur letzten Prioritätsebene aus.

    Privates Netz
    Ein separates Netz, in dem der Dispatcher aus Gründen des Durchsatzes mit Clusterservern kommuniziert.

    Protokoll
    Die Regeln, die den Betrieb von Funktionseinheiten eines DFV-Systems steuern, wenn eine Kommunikation stattfinden soll. Protokolle können Details der unteren Ebene zu Schnittstellen zwischen Maschinen festlegen, wie beispielsweise die Reihenfolge, in der die Bits eines Byte gesendet werden. Sie können auch Austauschprozesse der höheren Ebene zwischen Anwendungsprogrammen festlegen, z. B. die Dateiübertragung.

    Q

    Quellenadresse
    Bei der Funktion für hohe Verfügbarkeit des Dispatchers die Adresse der Partnermaschine, die Überwachungssignale sendet.

    R

    reach
    Eine Advisor-Funktion des Dispatchers, die Ping-Aufrufe an eine bestimmte Zieladresse absetzt und meldet, ob die Zieladresse antwortet.

    Regel
    Beim regelbasierten Lastausgleich ein Mechanismus zum Gruppieren von Servern, der die Auswahl eines Servers ausgehend von anderen Informationen als der Zieladresse und dem Port ermöglicht.

    Regeltyp
    Beim regelbasierten Lastausgleich ein Anzeiger für die Informationen, die ausgewertet werden müssen, um zu bestimmen, ob eine Regel erfüllt wird.

    RMI
    Remote Method Invocation. Teil der Bibliothek der Programmiersprache Java, der einem Java-Programm, das auf einem Computer ausgeführt wird, ermöglicht, auf Objekte und Methoden eines auf einem anderen Computer ausgeführten Java-Programms zuzugreifen.

    Root
    Die uneingeschränkte Berechtigung zum Zugriff auf und Ändern von beliebige(n) Teilen des Betriebssystems AIX, Red Hat Linux oder Solaris. Diese Berechtigung wird normalerweise dem Benutzer erteilt, der das System verwaltet.

    Route
    Der Pfad für den Datenaustausch im Netz von der Ursprungsadresse zur Zieladresse.

    Router
    Eine Einheit, die Pakete zwischen Netzen weiterleitet. Die Weiterleitungsentscheidung wird ausgehend von Informationen der Vermittlungsschicht und von Routentabellen, die häufig von Routing-Produkten erstellt werden, getroffen.

    RPM
    Red Hat Package Manager.

    Rückkehradresse
    Eine eindeutige IP-Adresse oder ein eindeutiger Hostname. Die Rückkehradresse wird auf der Dispatcher-Maschine konfiguriert und vom Dispatcher bei der Verteilung der Clientanforderungen auf die Server als Quellenadresse verwendet.

    S

    Schreibweise mit Trennzeichen
    Die syntaktische Darstellung eines 32-Bit-Integers, das aus vier 8-Bit-Zahlen besteht, die in Dezimalschreibweise angegeben werden und durch Punkte voneinander getrennt sind. Diese Schreibweise dient zur Darstellung von IPV4-Adressen.

    Server
    Ein Computer, der gemeinsam genutzte Dienste für andere Computer über ein Netz bereitstellt, z. B. ein Dateiserver, ein Druckserver oder ein Postserver.

    Serveradresse
    Der eindeutige Code, der jedem Computer zugeordnet wird, der gemeinsam genutzte Dienste für andere Computer über ein Netz bereitstellt, z. B. einem Dateiserver, einem Druckserver oder einem Postserver. Die Serveradresse kann die IP-Adresse oder der Hostname sein.

    Servermaschine
    Ein Server, den der Dispatcher mit anderen Servern zu einem virtuellen Server zusammenfasst. Der Dispatcher verteilt den Datenverkehr auf die Servermaschinen. Synonym für Clusterserver.

    Service
    (1) Eine von Knoten bereitgestellte Funktion wie HTTP, FTP oder Telnet.
    (2) Für Nortel Alteon Controller ist ein Dienst die Funktion oder Information, die ein Endbenutzer von einer Site anfordert. Er ist durch eine virtuelle IP-Adresse und eine virtuelle Portnummer für eine Endbenutzeranforderung gekennzeichnet. Auf dem Switch ist er durch eine virtuelle Server-ID gekennzeichnet. Diese ID besteht aus einer ganzen Zahl und einer virtuellen Portnummer oder einem Servicenamen.
    (3) Für Cisco CSS Consultant ist ein Dienst eine Zieladresse, unter der ein Inhaltselement physisch gespeichert ist. Diese Adresse könnte ein lokaler oder ferner Server (mit Port) sein.

    Servicequalität (QoS)
    (Quality of Service, QoS) Leistungseigenschaften eines Netzdienstes wie Durchsatz, Transitverzögerung und Priorität. Bei einigen Protokollen können Pakete oder Datenströme QoS-Anforderungen enthalten.

    Shell
    Die Software, die Befehlszeilen von der Workstation eines Benutzers akzeptiert und verarbeitet. Die Bash-Shell ist eine von mehreren verfügbaren UNIX-Shells.

    Sitename
    Ein Sitename ist ein nicht auflösbarer Hostname, den der Client anfordert. Beispiel: Eine Website hat drei Server (1.2.3.4, 1.2.3.5 und 1.2.3.6), die für den Sitenamen www.dnsload.com konfiguriert sind. Wenn ein Client diesen Sitenamen anfordert, wird eine der drei Server-IP-Adressen als Auflösung zurückgegeben. Der Sitename muss ein vollständig qualifizierter Domänenname wie dnsload.com sein. Ein nicht qualifizierter Name, z. B. dnsload, ist als Sitename ungültig.

    Site Selector
    Eine DNS-gestützte Lastausgleichskomponente von Load Balancer. Site Selector verteilt die Last auf Server innerhalb eines Weitverkehrsnetzes (WAN) und verwendet dafür Messungen und Wertigkeiten, die von der auf diesen Servern aktiven Komponente Metric Server erfasst werden.

    Skalierbar
    Im Kontext des Leistungsspektrums eines Systems die schnelle Anpassung an Schwankungen bei der Auslastung. Ein skalierbares System kann beispielsweise gut an größere oder kleinere Netze angepasst werden und Tasks unterschiedlicher Komplexität ausführen.

    SMTP
    Simple Mail Transfer Protocol. In der Internetprotokollgruppe ein Anwendungsprotokoll zum Übertragen von Post zwischen Benutzern in der Internetumgebung. SMTP gibt die Postaustauschfolgen und das Nachrichtenformat an. SMTP setzt voraus, dass TCP (Transmission Control Protocol) das zugrundeliegende Protokoll ist.

    SNMP
    Simple Network Management Protocol. Das in STD 15, RFC 1157, definierte Internetstandardprotokoll, das für die Verwaltung von Knoten in einem IP-Netz entwickelt wurde. SNMP ist nicht auf TCP/IP beschränkt. Es kann zum Verwalten und Überwachen aller Arten von Einrichtungen verwendet werden, einschließlich Computer, Router, Vernetzungs-Hubs, Toaster und Jukeboxes.

    SPARC
    Scalable Processor Architecture.

    sscontrol
    Die Schnittstelle zur Komponente Site Selector von Load Balancer.

    SSL
    Secure Socket Layer. Ein bekanntes Sicherheitsschema, das von der Netscape Communications Corporation in Zusammenarbeit mit RSA Data Security, Inc. entwickelt wurde und dem Client ermöglicht, den Server zu authentifizieren und alle Daten und Anforderungen zu verschlüsseln. Der URL eines mit SSL gesicherten Servers beginnt mit https und nicht mit HTTP.

    ssserver
    Bearbeitet für die Komponente Site Selector die Anforderungen von der Befehlszeile an Sitenamen, Manager und Advisor-Funktionen.

    Standard
    Ein Wert, ein Attribut oder eine Option, die verwendet werden, wenn keine explizite Angabe vorliegt.

    Stilllegen
    Das Beenden eines Prozesses mit vollständigem normalem Abschluss laufender Operationen.

    Strategie
    Bei der Funktion für hohe Verfügbarkeit des Dispatchers ein Schlüsselwort, das angibt, wie eine ausgefallene Maschine wiederhergestellt werden soll.

    SYN
    Ein Steuerungsbit im eingehenden Segment, das eine Folgenummer belegt und bei der Initialisierung einer Verbindung angibt, wo die Folgenummernvergabe beginnt.

    T

    TCP
    Transmission Control Protocol. Ein im Internet verwendetes Übertragungsprotokoll. TCP ermöglicht einen zuverlässigen Austausch von Informationen zwischen Hosts. TCP verwendet IP als zugrundeliegendes Protokoll.

    TCP/IP
    Transmission Control Protocol/Internet Protocol. Eine Protokollgruppe, die die Übertragung zwischen Netzen unabhängig von den in den einzelnen Netzen verwendeten Übertragungstechnologien ermöglicht.

    TCP-Servermaschine
    Ein Server, den Load Balancer mit anderen Servern zu einem virtuellen Server zusammenfasst. Load Balancer verteilt den TCP-Datenverkehr auf die TCP-Servermaschinen. Synonym für Clusterserver.

    Teilnetzmaske
    In IPV4 eine 32-Bit-Maske, mit der die Teilnetzadressbits im Hostabschnitt einer IP-Adresse identifiziert werden.

    Telnet
    Terminalemulationsprotokoll. Ein TCP/IP-Anwendungsprotokoll für Fernverbindungsdienste. Mit Telnet kann ein Benutzer so auf einen fernen Host zugreifen, als wäre seine Workstation direkt mit diesem fernen Host verbunden.

    TOS
    Type of Service (Diensttyp). Ein 1-Byte-Feld im IP-Header des SYN-Pakets.

    TTL
    (Time to Live, TTL) Eine DNS-Lebensdauer ist die Zeit in Sekunden, die ein Client die Namensauflösungsantwort zwischenspeichern kann.

    U

    UDP
    User Datagram Protocol. In der Internetprotokollgruppe ein Protokoll für einen unzuverlässigen, verbindungslosen Datagrammdienst. Dieses Protokoll ermöglicht einem Anwendungsprogramm auf einer Maschine oder in einem Prozess, ein Datenpaket an ein Anwendungsprogramm auf einer anderen Maschine oder in einem anderen Prozess zu senden. UDP benutzt das Internet Protocol (IP) zum Senden von Datenpaketen.

    Überwachungssignal
    Ein einfaches Paket, das zwischen zwei Load-Balancer-Maschinen im Modus für hohe Verfügbarkeit übertragen wird und vom Bereitschafts-Load-Balancer zur Überwachung des Zustandes des aktiven Load Balancer verwendet wird.

    URI
    Universal Resource Identifier. Die codierte Adresse für jede Ressource im Web, z. B. ein HTML-Dokument, ein Bild, ein Videoclip, ein Programm usw.

    URL
    Uniform Resource Locator. Eine standardisierte Angabe der Position eines Objektes, in der Regel einer Webseite im Internet. URLs sind das im World Wide Web verwendete Adressenformat. In HTML-Dokumenten gibt der URL das Ziel eines Hyperlink an, bei dem es sich häufig um ein anderes HTML-Dokument handelt (das eventuell auf einem anderen Computer gespeichert ist).

    V

    Verwalteter Knoten
    In der Internetkommunikation eine Workstation, ein Server oder ein Router mit einem Netzverwaltungsagenten. Im Internet Protocol (IP) enthält der verwaltete Knoten normalerweise einen SNMP-Agenten (SNMP = Simple Network Management Protocol).

    Vollständig qualifizierter Domänenname
    Der vollständige Name eines Systems, bestehend aus dem lokalen Hostnamen und dem Domänennamen einschließlich einer Domäne der höchsten Ebene. Wenn "venera" ein Hostname ist, wäre "venera.isi.edu" beispielsweise ein vollständig qualifizierter Domänenname. Anhand eines vollständig qualifizierten Domänennamens sollte für jeden Host im Internet eine eindeutige Internetadresse bestimmt werden können. Dieser Prozess wird als "Namensauflösung" bezeichnet und verwendet das Domänennamensystem (DNS).

    VPN
    Virtuelles privates Netz. Ein Netz, das aus einem oder mehreren gesicherten IP-Tunnel(n) besteht, die zwei oder mehr Netze verbinden.

    W

    WAN
    Wide Area Network (Weitverkehrsnetz). Ein Netz, das Übertragungsdienste für ein geografisches Gebiet bereitstellt, das größer als das von einem lokalen Netz oder einem Hochgeschwindigkeitsnetz versorgte Gebiet ist. Ein WAN kann öffentliche Übertragungseinrichtungen verwenden oder zur Verfügung stellen.

    WAP
    Wireless Application Protocol. Ein offener internationaler Standard für Anwendungen, die festnetzunabhängige Kommunikation verwenden, z. B. Internetzugriff über ein Handy.

    WAS
    WebSphere Application Server.

    Web
    Das Netz von HTTP-Servern, das Programme und Dateien enthält, von denen viele Hypertext-Dokumente mit Links zu anderen Dokumenten auf HTTP-Servern sind. Das Web wird auch als World Wide Web bezeichnet.

    Wechselseitige hohe Verfügbarkeit
    Bei wechselseitiger hoher Verfügbarkeit können zwei Dispatcher-Maschinen primäre Maschinen sein und gleichzeitig als Ausweichmaschine der jeweils anderen Dispatcher-Maschine verwendet werden. Siehe auch "Ausweichmaschine", "Hohe Verfügbarkeit", "Primäre Maschine".

    WLM
    Workload-Manager. Eine zum Dispatcher gehörige Advisor-Funktion. WLM ist für Server auf OS/390-Großrechnern bestimmt, die die Komponente MVS Workload Manager (WLM) ausführen.

    Z

    Zeitlimit
    Das Zeitintervall, das für die Ausführung einer Operation zugeteilt wurde.

    Zieladresse
    Die Adresse der Partnermaschine für hohe Verfügbarkeit, an die Überwachungssignale und Antworten gesendet werden.

    Index

    A B C D E F G H I K L M N O P R S T U V W Z
    A B C D E F G H I K L M N O P R S T U V W Z