Dès que vous démarrez un pipeline, le système lance automatiquement la consignation, en fonction de la configuration de consignation actuelle du fichier de configuration de pipeline. Des fichiers journaux sont créés pour chaque pipeline, par nom de pipeline, même si vous avez démarré plusieurs pipelines au moyen du même fichier de configuration.
Type de message | Nom de fichier journal | Action | Modes de consignation |
---|---|---|---|
Messages d'erreur | nom_pipeline.err Consigne les erreurs critiques survenues dans le pipeline. |
Après avoir consulté les fichiers journaux, corrigez les erreurs ou les problèmes indiqués avec le pipeline. |
Service Débogage |
Messages d'erreur SQL | nom_pipeline.SqlErr.log Consigne les erreurs SQL survenues dans le pipeline. Ce fichier est soumis à une limite de taille de 1 mégaoctet. Dès que ce fichier atteint cette limite, le système archive automatiquement le fichier journal actuel et en crée un nouveau. |
Après avoir consulté ce fichier journal, corrigez les erreurs ou problèmes de SQL indiqués. |
Service Débogage |
Erreurs de file d'attente | nom_pipeline.MQErr.log Consigne les erreurs de file d'attente. |
Après avoir consulté ce fichier journal, corrigez les erreurs ou problèmes de MQ indiqués. |
|
Visualizer d'événement Windows® | (plateformes Microsoft® Windows uniquement) Si les services sont installés sur le pipeline et qu'il a été démarré au moyen du mode service (option de pipeline -s), le pipeline envoie également les erreurs et les messages importants au Visualiseur d'événements Windows. |
Contrôlez les messages dans l'écran Visualiseur d'événements Windows et corrigez toutes les erreurs ou problèmes indiqués. |
Service (plateformes Microsoft Windows uniquement) |
Messages UMF erronés/non valides qui n'ont pu être traités | nom_pipeline.bad Consigne des informations sur les fiches du fichier de source de données entrant contenant un UMF syntaxiquement incorrect ou non valide. Le pipeline n'a pu traiter la partie de la fiche contenant cet UMF syntaxiquement incorrect ou non valide, ce qui signifie parfois que le pipeline traite des fiches partielles. |
Après avoir consulté ce fichier journal, corrigez les fiches dans le fichier de source de données entrant concerné par l'UMF erroné ou non valide. Ensuite, renvoyez les fiches corrigées via un pipeline pour traitement. |
Service Débogage |
Messages UMF qui ont généré des exceptions | nom_pipeline.msg Consigne les informations sur les fiches du fichier de source de données entrant contenant des exceptions générées durant le traitement. Le pipeline a néanmoins traité la fiche. Ce type de message peut révéler un problème de qualité de ce fichier de source de données. |
Après avoir consulté ce fichier journal, vous pouvez encore avoir besoin de corriger les fiches dans le fichier de source de données entrant ayant généré l'exception UMF. Ensuite, renvoyez les fiches corrigées via un pipeline pour traitement. Vous pouvez également consulter le rapport récapitulatif de chargement ou récapitulatif de source de données pour plus d'informations. |
Service Débogage |
trace de débogage | Consigne les informations de trace de débogage quand un pipeline a été démarré au moyen du mode débogage (option de pipeline -d). Il n'y a pas de fichier journal. Le pipeline s'exécute en avant-plan avec des messages de sortie envoyés directement à l'interpréteur de commandes. Vous pouvez utiliser la fonction de réacheminement pour créer un fichier à partir de la sortie de la commande du pipeline : pipeline -d -f my_umf.xml > my_log_file.log |
Débogage |
|
Instructions SQL et statistiques de performances | nom_pipeline.SqlDebug.log Consigne les instructions SQL et les statistiques de performances permettant de faciliter l'identification et la résolution des problèmes et de contrôler les performances. Ce fichier est soumis à une limite de taille de 48 mégaoctets. Dès qu'un fichier atteint cette taille limite, le système archive automatiquement le fichier journal en cours et en crée un nouveau. |
Débogage |
|
Le pipeline s'arrête alors qu'il traite un fichier | nom_pipeline.cnt Alors que le pipeline traite les fiches entrantes, il consigne le nom du fichier de source de données en cours de traitement, ainsi qu'un décompte des fiches toutes les 100 fiches du fichier traitées. Si un pipeline s'arrête tandis qu'il traite un fichier de source de données entrant, ce fichier peut vous aider à déterminer les fiches du fichier de source de données devant être rechargées dans le pipeline pour le traitement. |
Après avoir consulté ce fichier journal et corrigé le problème qui arrête le pipeline, rechargez les fiches non traitées dans le pipeline afin de les traiter. |
Fichier |