Configuração para Compartilhamento ou Escalabilidade de Carga de Trabalho
Esta configuração consiste em vários mecanismos do sistema de mensagens em execução em um cluster, cada qual com o mecanismo do sistema de mensagens restrito à execução em um determinado servidor. Uma configuração de compartilhamento de carga de trabalho alcança um maior rendimento das mensagens, ao distribuir a carga do sistema de mensagens por múltiplos servidores.
- É possível incluir um cluster ao barramento de integração de serviços usando a assistência à política do mecanismo do sistema de mensagens e usar a política do mecanismo do sistema de mensagens de escalabilidade. Esse procedimento cria um mecanismo do sistema de mensagens para cada servidor no cluster. Cada mecanismo do sistema de mensagens tem apenas um servidor preferencial e não pode executar failover ou failback, ou seja, é configurado para executar somente nesse servidor. Novas políticas do grupo principal são criadas, configuradas e associadas automaticamente a cada mecanismo do sistema de mensagens.
- É possível incluir um cluster ao barramento de integração de serviços sem usar a assistência à política do mecanismo do sistema de mensagens. Um mecanismo do sistema de mensagens é criado automaticamente, em seguida você inclui outros mecanismos do sistema de mensagens de que necessita para o cluster, como por exemplo, um mecanismo do sistema de mensagens para cada servidor no cluster.
Você cria uma política de grupo principal para cada mecanismo do sistema de mensagens. Devido ao fato de nenhum failover ser necessário, é possível configurar essas políticas para que cada mecanismo do sistema de mensagens restrinja-se a um servidor específico. Para restringir um mecanismo do sistema de mensagens a um servidor específico, é possível configurar uma política Estático para cada mecanismo do sistema de mensagens.
Depois de criar novas políticas, use os critérios de correspondência para associar cada política ao mecanismo do sistema de mensagens necessário.
Este tipo de implementação fornece o compartilhamento da carga de trabalho por meio do particionamento dos destinos por meio dos vários mecanismos do sistema de mensagens. Essa configuração não permite o failover, pois cada mecanismo do sistema de mensagens pode ser executado em apenas um servidor. O impacto de uma falha é menor que em uma implementação simples, porque se um dos servidores ou os mecanismos do sistema de mensagens falharem no cluster, os mecanismos do sistema de mensagens restantes ainda terão partições de destino operacionais. No entanto, as mensagens manipuladas por um mecanismo do sistema de mensagens em um servidor com falha estarão indisponíveis até que o servidor possa ser reiniciado.
A configuração do compartilhamento da carga de trabalho também fornece escalabilidade, porque é possível incluir novos servidores ao cluster sem afetar os mecanismos do sistema de mensagens existentes no cluster.
O diagrama a seguir mostra uma configuração de compartilhamento ou escalabilidade de carga de trabalho em que há três mecanismos do sistema de mensagens, ME1, ME2 e ME3, com armazéns de dados A, B e C, respectivamente. Os mecanismos do sistema de mensagens são executados em um cluster de três servidores e compartilham a transmissão do tráfego até o destino. Cada servidor está em um nó separado, portanto se um nó falhar, o servidor nos nós restantes ainda estarão disponíveis.

O diagrama a seguir mostra o que acontece se o servidor1 falhar. O ME1 não pode executar, e o armazém de dados A não está acessível. O ME1 não pode processar mensagens até que o servidor1 seja recuperado. ME2 e ME3 não são afetados e continuam a processar mensagens. Eles agora manipularão todos os novos tráfegos pelo destino.

O diagrama a seguir mostra o que acontece se o servidor1 for recuperado e o servidor2 falhar. O ME2 não pode executar, e o armazém de dados B não está acessível. O ME2 não pode processar mensagens até que o servidor2 seja recuperado. O ME1 e o ME3 podem processar mensagens e agora manipularão todos os novos tráfegos pelo destino.
