고성능 일괄처리 외부 스케줄러 커넥터를 설치 및 구성할 수 있습니다. 이 커넥터는
기본 컴파일된 언어로 구현되고 통신에 IBM MQ를 사용하는 기본 WSGrid 커넥터입니다.
이 태스크 정보
기본
WSGrid의 장점은 두 개입니다.
- 이는 사용 시마다 JVM(Java™ Virtual
Machine) 시작 처리 필요성을 방지하여 z/OS® 시스템 프로세서를 보다
효율적으로 사용할 수 있게 해줍니다.
- 이미 대부분의 z/OS 고객이 알고 있고 사용하는 메시징 서비스와의
안정적인 오퍼레이션을 위해 z/OS에서 사용 가능한 가장 강력한 메시징 서비스를
사용합니다.
WSGRID를 시작한 환경의 인증된 사용자 ID가
일괄처리 작업 스케줄러로 전파됩니다.
결과로 나온 일괄처리 작업은
해당 사용자 ID를 사용하여 실행합니다. 이 사용자 ID에는 일괄처리 작업을 제출할 충분한
WebSphere® 권한, 즉
lradmin 또는 lrsubmitter 역할도 있어야 합니다. 예를 들어, JCL 작업 WSGRID1이
기술 사용자 ID TECH1 하에서 실행되도록 제출되면 결과로 나오는 일괄처리 작업 또한 사용자
ID TECH1 하에서 실행됩니다. 사용자 ID TECH1은 WSGRID가 사용하는
WebSphere MQ 입력 및 출력 큐에/에서 가져오고 넣는 권한이
있어야 합니다.
프로시저
- z/OS에서 IBM MQ 설정
- 작업 스케줄러가 큐 관리자와 통신할 수 있도록 IBM MQ에서 서버 연결 채널을 정의하십시오.
예를 들어, 다음 MQSC 명령은 SVRCONN
채널을 작성합니다.
DEFINE CHANNEL(WSGRID.SVRCONN) CHLTYPE(SVRCONN) TRPTYPE(TCP) REPLACE
- IBM MQ 큐를 정의하십시오.
큐 관리자는 로컬이어야 합니다. 입력 및 출력에 하나씩
두 개의 큐가 필요합니다. 이름 지정 규칙에 따라 큐의 이름을 지정할 수 있습니다. 예를 들어, 이름 WASIQ는
입력 큐에 사용되고 이름 WASOQ는 출력 큐에 사용됩니다. 큐는 공유 모드에서 설정되어야 합니다.
- WSGRID 로드 모듈을 작성하십시오.
- <was_root>/stack_products/WCG/bin 디렉토리에서 압축 풀기 스크립트를 찾으십시오.
unpackWSGRID 스크립트는 REXX 스크립트입니다.
- unpackWSGrid 스크립트를 사용하여 WSGRID의 압축을 푸십시오. 명령 옵션을 표시하려면
입력을 포함하지 않는 다음 unpackWSGRID 스크립트를 실행하십시오.
unpackWSGRID <was_home>
[<hlq>] [<work_dir>] [<batch>]
[<debug>]
다음은 사용 가능한 명령 옵션의 목록입니다.
- <was_home>
- 필수 WebSphere Application Server 홈 디렉토리를 지정합니다.
- <hlq>
- 출력 데이터 세트의 선택적 상위 레벨 규정자를 지정합니다.
기본값은 <user id>입니다.
- <work_dir>
- 선택적 작업 디렉토리를 지정합니다. 기본값은 /tmp입니다.
- <batch>
- 이 스크립트에 대해 선택적 실행 모드를 지정합니다. 가능한 값은 batch 또는 interactive입니다.
기본값은 interactive입니다.
- <debug>
- 선택적 디버그 모드를 지정합니다. 가능한 값은 debug 또는 nodebug입니다.
기본값은 nodebug입니다.
다음 예제는 <was_home> 값만 지정되는 unpackWSGrid 스크립트의 출력을 보여줍니다.
Unpack WSGRID with values:
WAS_HOME=/WebSphere/ND/AppServer
HLQ =USER26
WORK_DIR=/tmp
BATCH =INTERACTIVE
DEBUG =NODEBUG
Continue? (Y|N)
Y
User response: Y
Unzip /WebSphere/ND/AppServer/bin/cg.load.xmi.zip
extracted: cg.load.xmi
Move cg.load.xmi to /tmp
Delete old dataset 'USER26.CG.LOAD.XMI'
Allocate new dataset 'USER26.CG.LOAD.XMI'
Copy USS file /tmp/cg.load.xmi to dataset 'USER26.CG.LOAD.XMI'
Delete USS file /tmp/cg.load.xmi
Delete old dataset 'USER26.CG.LOAD'
Go to TSO and issue RECEIVE INDSN('USER26.CG.LOAD.XMI') to create
CG.LOAD
- TSO, ISPF, 옵션 6 - 명령으로 이동하여 수신 조작을 수행하십시오.
예를 들어, 다음과 같습니다.
RECEIVE INDSN('USER26.CG.LOAD.XMI')
다음 출력이 결과입니다.
Dataset BBUILD.CG.LOAD from BBUILD on PLPSC
The incoming data set is a 'PROGRAM LIBRARY'
Enter restore parameters or 'DELETE' or 'END' +
Enter를
클릭하여 종료하십시오. 다음 출력과 유사한 출력이 표시됩니다.
IEB1135I IEBCOPY FMID HDZ11K0 SERVICE LEVEL UA4
07.00 z/OS 01.07.00 HBB7720 CPU 2097
IEB1035I USER26 WASDB2V8 WASDB2V8 17:12:15 MON
COPY INDD=((SYS00006,R)),OUTDD=SYS00005
IEB1013I COPYING FROM PDSU INDD=SYS00006 VOL=CPD
USER26.R0100122
IEB1014I
IGW01551I MEMBER WSGRID HAS BEEN LOADED
IGW01550I 1 OF 1 MEMBERS WERE LOADED
IEB147I END OF JOB - 0 WAS HIGHEST SEVERITY CODE
Restore successful to dataset 'USER26.CG.LOAD'
***
- 분산 운영 체제에서 실행되는 작업 스케줄러 서버를 설정하십시오.
- 분산 운영 체제에서 실행되는 작업 스케줄러 서버 또는 서버 클러스터에서
시스템 애플리케이션 JobSchedulerMDILP를 설치하십시오.
- 배치 관리자에서 다음 입력 매개변수를 사용하여 installWSGridMQClientMode.py
스크립트를 실행하십시오.
./wsadmin.sh
-username <username> -password <userpassword>
-f ../stack_products/WCG/bin/installWSGridMQClientMode.py
- -install
- {-cluster <clusterName> | -node <nodeName>
-server <server>}
- -remove
- {-cluster <clusterName> | -node <nodeName>
-server <server>}
- -qmgr
- <queueManagerName>
- -qhost
- <queueManagerHost>
- -qport
- <queueManagerPort>
- -svrconn
- <serverConnectionChannel>
- -inqueue
- <inputQueueName>
- -outqueue
- <outputQueueName>
예를 들면, 클러스터의 경우 다음과 같습니다.
./wsadmin.sh -username <username> -password <password>
-f <was_home>/stack_products/WCG/bin/installWSGridMQClientMode.py
-install -cluster <clusterName> -qmgr <queueManagerName>
-qhost <queueHostName> -qport <queuePort> -svrconn
<serverConnectionChannel> -inqueue <inputQueueName>
-outqueue <outputQueueName>
예를 들면, 서버의 경우 다음과 같습니다.
./wsadmin.sh -username <username> -password <password>
-f <was_home>/stack_products/WCG/bin/installWSGridMQClientMode.py
-install -node <nodeName> -server <server> -qmgr <queueManagerName>
-qhost <queueHostName> -qport <queuePort> -svrconn <serverConnectionChannel>
-inqueue <inputQueueName> -outqueue <outputQueueName>
- 변경사항을 적용하려면 모든 작업 스케줄러 애플리케이션 서버를 다시 시작
하십시오.
문제점 방지: 보안이 사용 설정된 경우 z/OS 시스템의 제출자 사용자 ID는 분산 시스템에서 lradmin 또는 lrsubmitter 역할의 사용자로 정의되어야 합니다.
gotcha
결과
분산 운영 체제에서 작업 스케줄러 서비스와 통신하기 위한 외부 작업 스케줄러 인터페이스를 구성했습니다.
다음에 수행할 작업
외부 작업 스케줄러 인터페이스의 작업을 일괄처리에 제출하십시오.