O serviço de movimentação de dados de Estado para Tempo de Execução processa dados
que foram armazenados pelo Monitor Server no banco de dados de Estado e move
esses dados para o banco de dados de Tempo de Execução, onde eles podem ser acessados por outros componentes do WebSphere Business Monitor e pelo
serviço de movimentação de dados de Tempo de Execução para Histórico.
A configuração padrão a seguir é aplicada a esse serviço de movimentação de dados:
- As alterações nas tabelas de origem do Monitor Server (banco de dados de Estado) são
continuamente capturadas e registradas nas tabelas de trabalho.
- As alterações que foram registradas nessas tabelas de trabalho são continuamente
propagadas pelo componente Apply e aplicadas às tabelas de trabalho no banco de dados
de Tempo de Execução. Essas tabelas de trabalho não estão acessíveis para nenhum outro componente WebSphere Business Monitor
e são apenas para uso interno.
- O componente Apply chama sincronamente o componente ETL sempre que novos dados
precisam ser processados. Dependendo do seu planejamento, configurado inicialmente
para cada 5 minutos, o componente ETL processa os dados armazenados nas tabelas de
trabalho do Apply ou permanece inativo até que seja planejado para execução. O aumento do retardo entre as execuções planejadas resulta em um tempo decorrido maior
entre quando os dados foram armazenados no banco de dados de Estado pelo Monitor Server e
a hora em que esses dados são publicados nas tabelas de destino no banco de dados de Tempo de Execução. Quando estão no banco de dados de Tempo de Execução, os dados
podem ser acessados por outros componentes do WebSphere Business Monitor.
- Quaisquer dados nas tabelas de trabalho do Apply que tenham sido processados com êxito
pelo componente ETL são removidos pelo componente Target Life Cycle de acordo com
seu planejamento. Por padrão, esse componente é executado uma vez a cada 24 horas. O aumento
do retardo planejado faz com que as tabelas de trabalho cresçam mais. A redução do retardo
também pode causar problemas de contingência porque vários componentes de serviço de dados
podem tentar atualizar e acessar as tabelas de trabalho simultaneamente.
- Os dados que foram movidos com êxito das tabelas de trabalho do Capture para as
tabelas de trabalho do Apply são removidos automaticamente da tabela de trabalho do
Capture pelo componente Capture a cada 5 minutos, por padrão.
- Toda vez que as tabelas de trabalho do Capture são removidas, o componente Source Life Cycle
é chamado. Esse componente também baseia-se no planejamento. Ele remove apenas os dados das
tabelas de origem que foram marcados como prontos para exclusão pelo Monitor Server, se pelo menos 5 minutos tiverem decorrido desde a última remoção de
dados. Se o intervalo de remoção do componente
Life Cycle estiver configurado com um valor inferior ao do intervalo de remoção do
componente Capture, a remoção será baseada no intervalo de remoção do componente
Capture.
Por exemplo: O intervalo de remoção do componente Capture para as
tabelas de trabalho é configurado como 5 minutos e o planejamento do componente Source Life Cycle
é configurado como 1 minuto. Cinco minutos devem decorrer antes do programa Capture poder iniciar seu ciclo de remoção. Como as rotinas de remoção do Capture
não estão ativadas para 5 minutos, o componente Life Cycle não é chamado. Após 5 minutos
decorridos, os dados são removidos das tabelas de trabalho e o componente Source Life Cycle
é chamado e remove os dados das tabelas de origem no banco de dados de Estado.
A configuração padrão pode ser alterada.