O serviço de movimentação de dados de Tempo de Execução para Histórico move dados
do banco de dados de Tempo de Execução para o banco de dados de Histórico, onde eles permanecem
até que sejam explicitamente removidos pelo DBA (Administrador de Banco de Dados). Os dados que foram
movidos com êxito para o banco de dados de Histórico ficam disponíveis para recuperação
e análise por outros componentes do WebSphere Business Monitor.
A configuração padrão a seguir é aplicada a esse serviço de movimentação de dados:
- As alterações nas tabelas de banco de dados de Tempo de execução são continuamente capturadas e registradas
nas tabelas de trabalho. As tabelas de banco de dados de Tempo de Execução monitoradas são as
tabelas de destino que foram ocupadas pelo serviço de movimentação de dados de Estado
para Tempo de Execução.
- As alterações que foram registradas nessas tabelas de trabalho são continuamente
propagadas pelo componente Apply e aplicadas às tabelas de trabalho no banco de dados
de Histórico. Essas tabelas de trabalho não estão acessíveis para nenhum outro componente WebSphere Business Monitor
e são apenas para uso interno.
- O componente Apply chama sincronamente o componente ETL sempre que novos dados
precisam ser processados. Dependendo do seu planejamento, que é inicialmente
configurado para cada 24 horas, o componente ETL processa os dados armazenados nas
tabelas de trabalho Apply ou permanece inativo até que seja planejado para execução. Aumentar
o retardo entre as execuções planejadas resulta em um tempo decorrido maior entre
quando os dados foram armazenados no banco de dados de Tempo de Execução pelo serviço de
movimentação de dados de Estado para Tempo de Execução e a hora em que esses dados são publicados
nas tabelas de destino no banco de dados de Histórico. Quando estão no banco de dados de Histórico, os dados
podem ser acessados por outros componentes do WebSphere Business Monitor.
Nota: Em razão da dependência da chamada pelo componente Apply
e da configuração do componente Apply, um componente ETL pode não estar apto
a processar novos dados a cada 24 horas (ou o retardo padrão atual). O planejamento deve,
em vez disso, ser interpretado como "não processar novos dados por pelo menos 23 horas
59 minutos após o último ciclo de processamento ser concluído".
- Quaisquer dados nas tabelas de trabalho do Apply que tenham sido processados com êxito
pelo componente ETL são removidos pelo componente Target Life Cycle de acordo com
seu planejamento. Por padrão, esse componente é executado a cada 24 horas. O aumento
do retardo planejado faz com que as tabelas de trabalho cresçam mais. A redução do retardo
também pode causar problemas de contingência porque vários componentes de serviço de dados
podem tentar atualizar e acessar as tabelas de trabalho simultaneamente.
- Os dados que foram movidos com êxito das tabelas de trabalho do Capture para as
tabelas de trabalho do Apply são removidos automaticamente da tabela de trabalho do
Capture pelo componente Capture a cada 5 minutos.
- Toda vez que as tabelas de trabalho do Capture são removidas, o componente Source Life Cycle
é chamado. Esse componente também baseia-se no planejamento. Ele remove apenas os dados das tabelas
de origem no banco de dados de Tempo de Execução que foram marcados como prontos para exclusão
pelo Monitor Server e mantidos por pelo menos 24 horas no banco de dados de Tempo de Execução. O intervalo de remoção padrão é configurado como 5 minutos. Se o intervalo de remoção do componente
Life Cycle estiver configurado com um valor inferior ao do intervalo de remoção do
componente Capture, a remoção será baseada no intervalo de remoção do componente
Capture.
Por exemplo: O intervalo de remoção do componente Capture para as
tabelas de trabalho é configurado como 5 minutos e o planejamento do componente Source Life Cycle
é configurado como 1 minuto. Cinco minutos devem decorrer antes do programa Capture poder iniciar seu ciclo de remoção. Como as rotinas de remoção do Capture
não estão ativadas para 5 minutos, o componente Life Cycle não é chamado. Após 5 minutos
decorridos, os dados são removidos das tabelas de trabalho e o componente Source Life Cycle
é chamado e remove os dados das tabelas de origem no banco de dados de Tempo de Execução.
A configuração padrão pode ser alterada.