Configuración de la interfaz del planificador externo mediante IBM MQ en z/OS para comunicarse con un servidor del planificador de trabajos en un sistema operativo distribuido

Puede instalar y configurar el conector del planificador externo de alto rendimiento de proceso por lotes. Este conector es el conector WSGrid nativo que se implementa en un lenguaje nativo compilado y que utiliza IBM MQ para la comunicación.

Acerca de esta tarea

La ventaja del WSGrid nativo es doble:

  1. Hace un uso más eficiente de los procesadores del sistema z/OS evitando la necesidad del proceso de inicio de la máquina virtual Java™ (JVM) en cada uso.
  2. Utiliza el servicio de mensajería más sólido disponible en z/OS para garantizar un funcionamiento fiable con un servicio de mensajería ya conocido y utilizado por la mayoría de clientes de z/OS.

El ID de usuario autenticado del entorno que inicia WSGRID se propaga al planificador de trabajos de proceso por lotes. El trabajo proceso por lotes resultante se ejecuta mediante ese ID de usuario. Este ID de usuario también debe tener privilegios de WebSphere suficientes para someter trabajos de proceso por lotes, es decir, los roles lradmin o lrsubmitter. Por ejemplo, si se somete el trabajo JCL WSGRID1 a ejecución bajo el ID de usuario técnico TECH1, el trabajo proceso por lotes resultante también se ejecutará bajo el ID de usuario TECH1. El ID de usuario TECH1 debe estar autorizado a obtener y transferir datos a y desde las colas de entrada y salida de IBM MQ utilizadas por WSGRID.

Procedimiento

  1. Configure IBM MQ en z/OS
    1. Defina un canal de conexión del servidor en IBM MQ para que el planificador de trabajos se comunique con el gestor de colas.

      Por ejemplo, el mandato MQSC siguiente crea el canal SVRCONN.

      DEFINE CHANNEL(WSGRID.SVRCONN) CHLTYPE(SVRCONN) TRPTYPE(TCP) REPLACE
    2. Defina las colas IBM MQ.

      El gestor de colas debe ser local. Son necesarias dos colas: una para la entrada y otra para la salida. Puede nombrar las colas de acuerdo con sus convenios de denominación. Por ejemplo, el nombre WASIQ se utiliza para las colas de entrada y el nombre WASOQ se utiliza para las colas de salida. Las colas deben definirse en modalidad compartida.

    3. Cree el módulo de carga WSGRID.
      1. Busque el script unpack en el directorio <raíz_was>/stack_products/WCG/bin. El script unpackWSGRID es un script REXX.
      2. Ejecute una operación de desempaquetado de WSGRID mediante el script unpackWSGrid. Para visualizar las opciones de mandato, ejecute el script unpackWSGRID sin entrada: unpackWSGRID <inicio_was> [<hlq>] [<dir_trabajo>] [<batch>] [<debug>]

        Dispone de la lista siguiente de opciones de mandatos.

        <inicio_was>
        Especifica el directorio inicial de WebSphere Application Server.
        <hlq>
        Especifica el calificador de alto nivel opcional de los conjuntos de datos de salida. El valor predeterminado es <ID usuario>.
        <dir_trabajo>
        Especifica el directorio de trabajo opcional. El valor predeterminado es /tmp.
        <batch>
        Especifica la modalidad de ejecución opcional de este script. Los valores posibles son batch o interactive. El valor predeterminado es interactive.
        <debug>
        Especifica la modalidad de depuración opcional. Los valores posibles son debug o nodebug. El valor predeterminado es nodebug.

        En el ejemplo siguiente se muestra una salida de un script unpackWSGrid donde sólo se ha especificado el valor <inicio_was>.

        Desempaquetar WSGRID con valores:
            WAS_HOME=/WebSphere/ND/AppServer
            HLQ =USER26
            WORK_DIR=/tmp
            BATCH =INTERACTIVE
            DEBUG =NODEBUG
            Continue? (Y|N)
            S
            User response: Y
            Unzip /WebSphere/ND/AppServer/bin/cg.load.xmi.zip
            extracted: cg.load.xmi
            Move cg.load.xmi to /tmp
            Delete old dataset 'USER26.CG.LOAD.XMI'
            Allocate new dataset 'USER26.CG.LOAD.XMI'
            Copy USS file /tmp/cg.load.xmi to dataset 'USER26.CG.LOAD.XMI'
            Delete USS file /tmp/cg.load.xmi
            Delete old dataset 'USER26.CG.LOAD'
            Go to TSO and issue RECEIVE INDSN('USER26.CG.LOAD.XMI') to create
            CG.LOAD
      3. Vaya a TSO, mandato ISPF, opción 6, y realice una operación de recepción.

        Por ejemplo:

        RECEIVE INDSN('USER26.CG.LOAD.XMI')

        El resultado es la salida siguiente:

        Dataset BBUILD.CG.LOAD from BBUILD on PLPSC
        The incoming data set is a 'PROGRAM LIBRARY'
        Enter restore parameters or 'DELETE' or 'END' +

        Pulse Intro para finalizar. Se visualizará una salida similar a la siguiente.

        IEB1135I IEBCOPY FMID HDZ11K0 SERVICE LEVEL UA4
        07.00 z/OS   01.07.00 HBB7720  CPU 2097
        IEB1035I USER26   WASDB2V8 WASDB2V8   17:12:15 MON
        COPY INDD=((SYS00006,R)),OUTDD=SYS00005
        IEB1013I COPYING FROM PDSU  INDD=SYS00006 VOL=CPD
        USER26.R0100122
        IEB1014I
        IGW01551I MEMBER WSGRID HAS BEEN LOADED
        IGW01550I 1 OF 1 MEMBERS WERE LOADED
        IEB147I END OF JOB - 0 WAS HIGHEST SEVERITY CODE
        Restore successful to dataset 'USER26.CG.LOAD'
        ***
  2. Configure el servidor del planificador de trabajos que se ejecuta en un sistema operativo distribuido.
    1. Instale el JobSchedulerMDILP de la aplicación del sistema en el servidor del planificador de trabajos o un clúster de servidores que se ejecuta en un sistema operativo distribuido.
      1. En el gestor de despliegue, ejecute el script installWSGridMQClientMode.py con los parámetros de entrada siguientes:

        ./wsadmin.sh -username <nombreUsuario> -password <contraseñaUsuario> -f ../stack_products/WCG/bin/installWSGridMQClientMode.py

        -install
        {-cluster <nombreClúster> | -node <nombreNodo> -server <servidor>}
        -remove
        {-cluster <nombreClúster> | -node <nombreNodo> -server <servidor>}
        -qmgr
        <nombreGestorColas>
        -qhost
        <hostGestorColas>
        -qport
        <puertoGestorColas>
        -svrconn
        <canalConexiónServidor>
        -inqueue
        <nombreColaEntrada>
        -outqueue
        <nombreColaSalida>

        Por ejemplo, para clústeres:

        ./wsadmin.sh
        -username <nombreUsuario> -password <contraseña>
        -f <inicio_was>/stack_products/WCG/bin/installWSGridMQClientMode.py
        -install -cluster <nombreClúster> -qmgr <nombreGestorColas>
        -qhost <nombreHostColas> -qport <puertoColas> -svrconn
        <canalConexiónServidor> -inqueue <nombreColaEntrada>
        -outqueue <nombreColaSalida>

        Por ejemplo, para servidores:

        ./wsadmin.sh
        -username <nombreUsuario> -password <contraseña>
        -f <inicio_was>/stack_products/WCG/bin/installWSGridMQClientMode.py
        -install -node <nombreNodo> -server <servidor> -qmgr <nombreGestorColas>
        -qhost <nombreHostColas> -qport <puertoColas> -svrconn <canalConexiónServidor>
        -inqueue <nombreColaEntrada> -outqueue <nombreColaSalida>
    2. Reinicie todos los servidores de aplicaciones del planificador de trabajos para que los cambios entren en vigor.
    Avoid trouble Avoid trouble: Si la seguridad está habilitada, el ID de usuario de emisor en el sistema z/OS debe definirse como un usuario en el rol lradmin o lrsubmitter en el sistema distribuido. gotcha

Resultados

Ha configurado la interfaz del planificador de trabajos externo para comunicarse con un servidor del planificador de trabajos en un sistema operativo distribuido.

Qué hacer a continuación

Someter un trabajo desde la interfaz del planificador de trabajos externo a proceso por lotes.


Icon that indicates the type of topic Task topic



Timestamp icon Last updated: last_date
http://www14.software.ibm.com/webapp/wsbroker/redirect?version=cord&product=was-nd-mp&topic=tgrid_zoscgnative_distjobsched
File name: tgrid_zoscgnative_distjobsched.html