Dépannage général - Azure Data Factory et Azure Synapse (2023)

Table of Contents
Dans cet article Connecteur et activité de copie Azure Databrick Code d'erreur : 3200 Code d'erreur : 3201 Code d'erreur : 3202 Code d'erreur : 3203 Code d'erreur : 3204 Code d'erreur : 3208 La sortie d'exécution booléenne commence à apparaître sous forme de chaîne au lieu de l'entier attendu Azure Data Lake Analytics Code d'erreur : 2709 Code d'erreur : 2705 Code d'erreur : 2711 Code d'erreur : 2704 Code d'erreur : 2707 Code d'erreur : 2703 Fonctions Azure Code d'erreur : 3602 Code d'erreur : 3603 Code d'erreur : 3606 Code d'erreur : 3607 Code d'erreur : 3608 Code d'erreur : 3609 Code d'erreur : 3610 Code d'erreur : 3611 Code d'erreur : 3612 Apprentissage automatique Azure Code d'erreur : 4101 Code d'erreur : 4110 Code d'erreur : 4111 Code d'erreur : 4112 Code d'erreur : 4121 Code d'erreur : 4122 Code d'erreur : 4123 Code d'erreur : 4124 Code d'erreur : 4125 Code d'erreur : 4126 Azure Synapse Analytique Code d'erreur : 3250 Code d'erreur : 3251 Code d'erreur : 3252 Code d'erreur : 3253 Code d'erreur : 3254 Commun Code d'erreur : 2103 Code d'erreur : 2104 Code d'erreur : 2105 Code d'erreur : 2106 Code d'erreur : 2110 Code d'erreur : 2111 Code d'erreur : 2112 Coutume Code d'erreur : 2500 Code d'erreur : 2501 Code d'erreur : 2502 Code d'erreur : 2504 Code d'erreur : 2505 Code d'erreur : 2507 Code d'erreur : 2508 Code d'erreur : 2509 Code d'erreur : 2510 HDInsight Code d'erreur : 206 Code d'erreur : 207 Code d'erreur : 208 Code d'erreur : 2300 Code d'erreur : 2301 Code d'erreur : 2302 Code d'erreur : 2303 Code d'erreur : 2304 Code d'erreur : 2305 Code d'erreur : 2306 Code d'erreur : 2310 Code d'erreur : 2312 Code d'erreur : 2313 Code d'erreur : 2328 Code d'erreur : 2329 Code d'erreur : 2331 Code d'erreur : 2340 Code d'erreur : 2341 Code d'erreur : 2342 Code d'erreur : 2343 Code d'erreur : 2345 Code d'erreur : 2346 Code d'erreur : 2347 Code d'erreur : 2348 Code d'erreur : 2350 Code d'erreur : 2351 Code d'erreur : 2352 Code d'erreur : 2353 Code d'erreur : 2354 Code d'erreur : 2355 Code d'erreur : 2356 Code d'erreur : 2357 Code d'erreur : 2358 Code d'erreur : 2359 Code d'erreur : 2360 Code d'erreur : 2361 Code d'erreur : 2362 Erreur SSL lors du service lié à l'aide du cluster HDInsight ESP Activité HDI bloquée dans la préparation du cluster Activité Web Code d'erreur : 2001 Code d'erreur : 2002 Code d'erreur : 2003 Code d'erreur : 2010 Code d'erreur : 2105 Code d'erreur : 2108 Code d'erreur : 2113 Code d'erreur : 2403 Général Erreur NULL du jeton de continuation REST Problème d'activité bloquée La charge utile est trop grande Une compression non prise en charge entraîne la corruption des fichiers Exécuter le pipeline passe le paramètre de tableau en tant que chaîne au pipeline enfant Prochaines étapes
  • Article

S'APPLIQUE À: Dépannage général - Azure Data Factory et Azure Synapse (1)Usine de données AzureDépannage général - Azure Data Factory et Azure Synapse (2)Azure Synapse Analytique

Cet article explore les méthodes de dépannage courantes pour les activités de contrôle externe dans les pipelines Azure Data Factory et Synapse.

Connecteur et activité de copie

Pour les problèmes de connecteur tels qu'une erreur lors de l'utilisation de l'activité de copie, reportez-vous auDépanner les connecteursarticle.

Azure Databrick

Code d'erreur : 3200

  • Message: Erreur 403.

  • Cause:Le jeton d'accès Databricks a expiré.

  • Recommandation: Par défaut, le jeton d'accès Azure Databricks est valide pendant 90 jours. Créez un nouveau jeton et mettez à jour le service lié.

Code d'erreur : 3201

  • Message:Champ obligatoire manquant : settings.task.notebook_task.notebook_path.

  • Cause:Mauvaise création : le chemin d'accès au bloc-notes n'est pas spécifié correctement.

  • Recommandation: spécifiez le chemin du bloc-notes dans l'activité Databricks.


  • Message:Le cluster... n'existe pas.

  • Cause:Erreur de création : le cluster Databricks n'existe pas ou a été supprimé.

  • Recommandation: vérifiez que le cluster Databricks existe.


  • Message:URI de fichier Python non valide... Veuillez consulter le guide de l'utilisateur de Databricks pour les schémas d'URI pris en charge.

  • Cause:Mauvaise rédaction.

  • Recommandation: spécifiez soit des chemins absolus pour les schémas d'adressage d'espace de travail, soitdbfs:/dossier/sous-dossier/foo.pypour les fichiers stockés dans le système de fichiers Databricks (DFS).


  • Message:{0} LinkedService doit avoir domaine et accessToken comme propriétés requises.

  • Cause:Mauvaise rédaction.

  • Recommandation: Vérifiez ledéfinition de service lié.


  • Message:{0} LinkedService doit spécifier soit l'ID de cluster existant, soit les nouvelles informations de cluster pour la création.

  • Cause:Mauvaise rédaction.

  • Recommandation: Vérifiez ledéfinition de service lié.


  • Message:Le type de nœud Standard_D16S_v3 n'est pas pris en charge. Types de nœuds pris en charge : Standard_DS3_v2, Standard_DS4_v2, Standard_DS5_v2, Standard_D8s_v3, Standard_D16s_v3, Standard_D32s_v3, Standard_D64s_v3, Standard_D3_v2, Standard_D8_v3, Standard_D16_v3, Standard_D32_v3, Standard_D64_v3, Standard_D12_v2, Standard_ D13_v2, Standard_D14_v2, Standard_D15_v2, Standard_DS12_v2, Standard_DS13_v2, Standard_DS14_v2, Standard_DS15_v2, Standard_E8s_v3, Standard_E16s_v3, Standard_E32s_v3, Standard_E64s_v3, Standard_L4s, Standard_L8s, Standard_L16s, Standard_L32s, Standard_F4s, Standard_F8s, Standard_F16s, Standard_H16, Standard_F4s_v2, Standard_F8s_v2, Standard_F16s_v2, Standard_F32s_v2, Standard_F64s_v2, Standard_F72s_v2, Standard_NC 12, Standard_NC24, Standard_NC6s_v3, Standard_NC12s_v3, Standard_NC24s_v3, Standard_L8s_v2, Standard_L16s_v2, Standard_L32s_v2, Standard_L64s_v2, Standard_L80s_v2.

  • Cause:Mauvaise rédaction.

  • Recommandation: Reportez-vous au message d'erreur.


Code d'erreur : 3202

  • Message:Il y a déjà eu 1 000 emplois créés au cours des 3 600 dernières secondes, dépassant la limite de taux : 1 000 emplois créés par 3 600 secondes.

  • Cause:Trop de Databricks s'exécutent en une heure.

  • Recommandation: vérifiez tous les pipelines qui utilisent cet espace de travail Databricks pour connaître leur taux de création de tâches. Si les pipelines ont lancé trop d'exécutions Databricks en agrégat, migrez certains pipelines vers un nouvel espace de travail.


  • Message:Impossible d'analyser l'objet de requête : la 'clé' et la 'valeur' ​​attendues doivent être définies pour le champ de carte JSON base_parameters, a obtenu 'clé : "..."' à la place.

  • Cause:Erreur de création : aucune valeur fournie pour le paramètre.

  • Recommandation: Inspectez le pipeline JSON et assurez-vous que tous les paramètres du bloc-notes baseParameters spécifient une valeur non vide.


  • Message:Utilisateur:SimpleUserContext{userId=..., name=user@company.com, orgId=...}n'est pas autorisé à accéder au cluster.

  • Cause: L'utilisateur qui a généré le jeton d'accès n'est pas autorisé à accéder au cluster Databricks spécifié dans le service lié.

  • Recommandation: assurez-vous que l'utilisateur dispose des autorisations requises dans l'espace de travail.


  • Message:La tâche n'est pas encore entièrement initialisée. Veuillez réessayer ultérieurement.

  • Cause: Le travail n'a pas été initialisé.

  • Recommandation: Attendez et réessayez plus tard.

Code d'erreur : 3203

  • Message:Le cluster est à l'état Terminé, non disponible pour recevoir des travaux. Veuillez corriger le cluster ou réessayer plus tard.

  • Cause: Le cluster a été arrêté. Pour les clusters interactifs, ce problème peut être une condition de concurrence.

  • Recommandation: Pour éviter cette erreur, utilisez des clusters de travaux.

Code d'erreur : 3204

  • Message:L'exécution de la tâche a échoué.

  • Cause: les messages d'erreur indiquent divers problèmes, tels qu'un état de cluster inattendu ou une activité spécifique. Souvent, aucun message d'erreur n'apparaît.

  • Recommandation: N / A

Code d'erreur : 3208

  • Message:Une erreur s'est produite lors de l'envoi de la demande.

  • Cause: La connexion réseau au service Databricks a été interrompue.

  • Recommandation: Si vous utilisez un runtime d'intégration auto-hébergé, assurez-vous que la connexion réseau est fiable à partir des nœuds du runtime d'intégration. Si vous utilisez le runtime d'intégration Azure, la nouvelle tentative fonctionne généralement.

La sortie d'exécution booléenne commence à apparaître sous forme de chaîne au lieu de l'entier attendu

  • Symptômes : Votre sortie d'exécution booléenne commence à apparaître sous forme de chaîne (par exemple,"0"ou"1") au lieu de int attendu (par exemple,0ou1).

    Dépannage général - Azure Data Factory et Azure Synapse (3)

    Vous avez remarqué ce changement le 28 septembre 2021 vers 9 h 00 IST lorsque votre pipeline reposant sur cette sortie a commencé à échouer. Aucune modification n'a été apportée au pipeline et la sortie booléenne arrivait comme prévu avant l'échec.

    Dépannage général - Azure Data Factory et Azure Synapse (4)

  • Cause: Ce problème est causé par une modification récente, qui est due à la conception. Après la modification, si le résultat est un nombre qui commence par zéro, Azure Data Factory convertit le nombre en valeur octale, ce qui est un bogue. Ce nombre est toujours 0 ou 1, ce qui n'a jamais causé de problèmes avant le changement. Donc, pour corriger la conversion octale, la sortie de chaîne est transmise à partir de l'exécution de Notebook telle quelle.

  • Recommandation: Changer lasicondition à quelque chose commesi(valeur=="0").

Azure Data Lake Analytics

Le tableau suivant s'applique à U-SQL.

Code d'erreur : 2709

  • Message:Le jeton d'accès provient du mauvais locataire.

  • Cause: Locataire Azure Active Directory (Azure AD) incorrect.

  • Recommandation: Locataire Azure Active Directory (Azure AD) incorrect.


  • Message:Nous ne pouvons pas accepter votre travail en ce moment. Le nombre maximum de travaux en file d'attente pour votre compte est de 200.

  • Cause: Cette erreur est causée par la limitation de Data Lake Analytics.

  • Recommandation: réduisez le nombre de tâches soumises à Data Lake Analytics. Modifiez les déclencheurs et les paramètres de simultanéité des activités ou augmentez les limites de Data Lake Analytics.


  • Message:Cette tâche a été rejetée car elle nécessite 24 AU. La stratégie définie par l'administrateur de ce compte empêche une tâche d'utiliser plus de 5 AU.

  • Cause: Cette erreur est causée par la limitation de Data Lake Analytics.

  • Recommandation: réduisez le nombre de tâches soumises à Data Lake Analytics. Modifiez les déclencheurs et les paramètres de simultanéité des activités ou augmentez les limites de Data Lake Analytics.

Code d'erreur : 2705

  • Message:Interdit. La vérification ACL a échoué. Soit la ressource n'existe pas, soit l'utilisateur n'est pas autorisé à effectuer l'opération demandée.

    L'utilisateur ne peut pas accéder à Data Lake Store.

    L'utilisateur n'est pas autorisé à utiliser Data Lake Analytics.

  • Cause: le principal du service ou le certificat n'a pas accès au fichier dans le stockage.

  • Recommandation: Vérifiez que le principal de service ou le certificat que l'utilisateur fournit pour les tâches Data Lake Analytics a accès à la fois au compte Data Lake Analytics et à l'instance Data Lake Storage par défaut à partir du dossier racine.

Code d'erreur : 2711

  • Message:Interdit. La vérification ACL a échoué. Soit la ressource n'existe pas, soit l'utilisateur n'est pas autorisé à effectuer l'opération demandée.

    L'utilisateur ne peut pas accéder à Data Lake Store.

    L'utilisateur n'est pas autorisé à utiliser Data Lake Analytics.

  • Cause: le principal du service ou le certificat n'a pas accès au fichier dans le stockage.

  • Recommandation: Vérifiez que le principal de service ou le certificat que l'utilisateur fournit pour les tâches Data Lake Analytics a accès à la fois au compte Data Lake Analytics et à l'instance Data Lake Storage par défaut à partir du dossier racine.


  • Message:Impossible de trouver le fichier ou le dossier « Azure Data Lake Store ».

  • Cause: Le chemin d'accès au fichier U-SQL est incorrect ou les informations d'identification du service lié n'y ont pas accès.

  • Recommandation: vérifiez le chemin et les informations d'identification fournis dans le service lié.

Code d'erreur : 2704

  • Message:Interdit. La vérification ACL a échoué. Soit la ressource n'existe pas, soit l'utilisateur n'est pas autorisé à effectuer l'opération demandée.

    L'utilisateur ne peut pas accéder à Data Lake Store.

    L'utilisateur n'est pas autorisé à utiliser Data Lake Analytics.

  • Cause: le principal du service ou le certificat n'a pas accès au fichier dans le stockage.

  • Recommandation: Vérifiez que le principal de service ou le certificat que l'utilisateur fournit pour les tâches Data Lake Analytics a accès à la fois au compte Data Lake Analytics et à l'instance Data Lake Storage par défaut à partir du dossier racine.

Code d'erreur : 2707

  • Message:Impossible de résoudre le compte AzureDataLakeAnalytics. Veuillez vérifier 'AccountName' et 'DataLakeAnalyticsUri'.

  • Cause : Le compte Data Lake Analytics dans le service lié est incorrect.

  • Recommandation: Vérifiez que le bon compte est fourni.

Code d'erreur : 2703

  • Message:ID d'erreur : E_CQO_SYSTEM_INTERNAL_ERROR (ou toute erreur commençant par "ID d'erreur :").

  • Cause: L'erreur provient de Data Lake Analytics.

  • Recommandation: La tâche a été soumise à Data Lake Analytics, et le script qui s'y trouve a tous deux échoué. Enquêtez sur Data Lake Analytics. Dans le portail, accédez au compte Data Lake Analytics et recherchez la tâche à l'aide de l'ID d'exécution de l'activité Data Factory (n'utilisez pas l'ID d'exécution du pipeline). Le travail fourni ici fournit plus d'informations sur l'erreur et vous aidera à résoudre le problème.

    Si la résolution n'est pas claire, contactez l'équipe d'assistance de Data Lake Analytics et fournissez l'URL de la tâche Universal Resource Locator (URL), qui inclut le nom de votre compte et l'ID de la tâche.

Fonctions Azure

Code d'erreur : 3602

  • Message:Méthode Http non valide : '%méthode ;'.

  • Cause: La méthode Httpmethod spécifiée dans la charge utile de l'activité n'est pas prise en charge par Azure Function Activity.

  • Recommandation: Les méthodes Http prises en charge sont : PUT, POST, GET, DELETE, OPTIONS, HEAD et TRACE.

Code d'erreur : 3603

  • Message:Le contenu de la réponse n'est pas un JObject valide.

  • Cause: La fonction Azure qui a été appelée n'a pas renvoyé de charge utile JSON dans la réponse. Azure Data Factory et l'activité de la fonction Azure du pipeline Synapse prennent uniquement en charge le contenu de réponse JSON.

  • Recommandation: Mettez à jour la fonction Azure pour renvoyer une charge utile JSON valide telle qu'une fonction C# peut renvoyer(ActionResult)new OkObjectResult("{\"Id\":\"123\"}");

Code d'erreur : 3606

  • Message: Clé de fonction manquante pour l'activité de la fonction Azure.

  • Cause: la définition de l'activité de la fonction Azure n'est pas complète.

  • Recommandation: vérifiez que la définition JSON de l'activité de fonction Azure d'entrée a une propriété nomméeclé de fonction.

Code d'erreur : 3607

  • Message:Nom de fonction manquant dans l'activité de la fonction Azure.

  • Cause: la définition de l'activité de la fonction Azure n'est pas complète.

  • Recommandation: vérifiez que la définition JSON de l'activité de fonction Azure d'entrée a une propriété nomméenom_fonction.

Code d'erreur : 3608

  • Message:Appel à la fonction Azure fournie '%FunctionName;' a échoué avec status-'%statusCode;' et message - '% message;'.

  • Cause: Les détails de la fonction Azure dans la définition de l'activité peuvent être incorrects.

  • Recommandation: corrigez les détails de la fonction Azure et réessayez.

Code d'erreur : 3609

  • Message:Activité de la fonction Azure manquante functionAppUrl.

  • Cause: la définition de l'activité de la fonction Azure n'est pas complète.

  • Recommandation: vérifiez que la définition JSON de l'activité Azure Function d'entrée a une propriété nomméefunctionAppUrl.

Code d'erreur : 3610

  • Message:Une erreur s'est produite lors de l'appel du point de terminaison.

  • Cause: L'URL de la fonction est peut-être incorrecte.

  • Recommandation: Vérifiez que la valeur defunctionAppUrldans l'activité JSON est correct et réessayez.

Code d'erreur : 3611

  • Message:Activité de fonction Azure manquante Méthode dans JSON.

  • Cause: la définition de l'activité de la fonction Azure n'est pas complète.

  • Recommandation: vérifiez que la définition JSON de l'activité de fonction Azure d'entrée a une propriété nomméeméthode.

Code d'erreur : 3612

  • Message:L'activité de la fonction Azure manque la définition de LinkedService dans JSON.

  • Cause: la définition de l'activité de la fonction Azure n'est pas complète.

  • Recommandation: vérifiez que la définition JSON de l'activité de fonction Azure d'entrée contient les détails du service lié.

Apprentissage automatique Azure

Code d'erreur : 4101

  • Message:Activité AzureMLExecutePipeline '%activityName;' a une valeur non valide pour la propriété '%propertyName;'.

  • Cause: Mauvais format ou définition manquante de la propriété%nom de la propriété;.

  • Recommandation: Vérifiez si l'activité%activityName ;a la propriété%nom de la propriété;défini avec des données correctes.

Code d'erreur : 4110

  • Message:Activité AzureMLExecutePipeline manquant dans la définition LinkedService dans JSON.

  • Cause: La définition de l'activité AzureMLExecutePipeline n'est pas complète.

  • Recommandation: Vérifiez que la définition JSON d'entrée de l'activité AzureMLExecutePipeline a correctement lié les détails du service.

Code d'erreur : 4111

  • Message:L'activité AzureMLExecutePipeline a un type LinkedService incorrect dans JSON. Type de LinkedService attendu : '%expectedLinkedServiceType;', type de LinkedService actuel : type de LinkedService attendu : '%currentLinkedServiceType;'.

  • Cause: Définition d'activité incorrecte.

  • Recommandation: Vérifiez que la définition JSON d'entrée de l'activité AzureMLExecutePipeline a correctement lié les détails du service.

Code d'erreur : 4112

  • Message:Le service lié AzureMLService a une valeur non valide pour la propriété '%propertyName;'.

  • Cause: Format incorrect ou définition manquante de la propriété '%propertyName;'.

  • Recommandation: Vérifiez si le service lié a la propriété%nom de la propriété;défini avec des données correctes.

Code d'erreur : 4121

  • Message:Requête envoyée à Azure Machine Learning pour l'opération '%operation;' a échoué avec le code d'état http '%statusCode;'. Message d'erreur d'Azure Machine Learning : '%externalMessage;'.

  • Cause: les informations d'identification utilisées pour accéder à Azure Machine Learning ont expiré.

  • Recommandation: Vérifiez que les informations d'identification sont valides et réessayez.

Code d'erreur : 4122

  • Message:Requête envoyée à Azure Machine Learning pour l'opération '%operation;' a échoué avec le code d'état http '%statusCode;'. Message d'erreur d'Azure Machine Learning : '%externalMessage;'.

  • Cause: les informations d'identification fournies dans Azure Machine Learning Linked Service ne sont pas valides ou n'ont pas d'autorisation pour l'opération.

  • Recommandation: vérifiez que les informations d'identification dans le service lié sont valides et qu'elles sont autorisées à accéder à Azure Machine Learning.

Code d'erreur : 4123

  • Message:Requête envoyée à Azure Machine Learning pour l'opération '%operation;' a échoué avec le code d'état http '%statusCode;'. Message d'erreur d'Azure Machine Learning : '%externalMessage;'.

  • Cause: Les propriétés de l'activité telles quepipelineParametersne sont pas valides pour le pipeline Azure Machine Learning (ML).

  • Recommandation: vérifiez que la valeur des propriétés d'activité correspond à la charge utile attendue du pipeline Azure ML publié spécifié dans le service lié.

Code d'erreur : 4124

  • Message:Requête envoyée à Azure Machine Learning pour l'opération '%operation;' a échoué avec le code d'état http '%statusCode;'. Message d'erreur d'Azure Machine Learning : '%externalMessage;'.

  • Cause: le point de terminaison de pipeline Azure ML publié n'existe pas.

  • Recommandation: vérifiez que le point de terminaison de pipeline Azure Machine Learning publié spécifié dans le service lié existe dans Azure Machine Learning.

Code d'erreur : 4125

  • Message:Requête envoyée à Azure Machine Learning pour l'opération '%operation;' a échoué avec le code d'état http '%statusCode;'. Message d'erreur d'Azure Machine Learning : '%externalMessage;'.

  • Cause: Il y a une erreur de serveur sur Azure Machine Learning.

  • Recommandation: Réessayez plus tard. Contactez l'équipe Azure Machine Learning pour obtenir de l'aide si le problème persiste.

Code d'erreur : 4126

  • Message:L'exécution du pipeline Azure ML a échoué avec l'état : '%amlPipelineRunStatus;'. ID d'exécution du pipeline Azure ML : '%amlPipelineRunId;'. Veuillez consulter Azure Machine Learning pour plus de journaux d'erreurs.

  • Cause: L'exécution du pipeline Azure ML a échoué.

  • Recommandation: Consultez Azure Machine Learning pour plus de journaux d'erreurs, puis corrigez le pipeline ML.

Azure Synapse Analytique

Code d'erreur : 3250

  • Message:Il n'y a pas assez de ressources disponibles dans l'espace de travail, détails : '%errorMessage;'

  • Cause: Ressources insuffisantes

  • Recommandation: essayez de mettre fin aux tâches en cours d'exécution dans l'espace de travail, de réduire le nombre de vCores demandés, d'augmenter le quota de l'espace de travail ou d'utiliser un autre espace de travail.

Code d'erreur : 3251

  • Message:Il n'y a pas assez de ressources disponibles dans le pool, détails : '%errorMessage;'

  • Cause: Ressources insuffisantes

  • Recommandation: essayez de mettre fin aux tâches en cours d'exécution dans le pool, de réduire le nombre de vCores demandés, d'augmenter la taille maximale du pool ou d'utiliser un autre pool.

Code d'erreur : 3252

  • Message:Il n'y a pas assez de vcores disponibles pour votre tâche Spark, détails : '%errorMessage;'

  • Cause: Vcores insuffisants

  • Recommandation: Essayez de réduire le nombre de vCores demandés ou d'augmenter votre quota de vCore. Pour plus d'informations, voirConcepts de base d'Apache Spark.

Code d'erreur : 3253

  • Message:Il existe d'importantes exécutions MappingDataflow simultanées qui provoquent des échecs en raison de la limitation sous le runtime d'intégration utilisé pour ActivityId : '%activityId;'.

  • Cause: Le seuil de limitation a été atteint.

  • Recommandation: Réessayez la demande après une période d'attente.

Code d'erreur : 3254

  • Message:Le service lié AzureSynapseArtifacts a une valeur non valide pour la propriété '%propertyName;'.

  • Cause: Format incorrect ou définition manquante de la propriété '%propertyName;'.

  • Recommandation: Vérifiez si le service lié a la propriété '%propertyName;' défini avec des données correctes.

Commun

Code d'erreur : 2103

  • Message:Veuillez fournir une valeur pour la propriété requise '%propertyName;'.

  • Cause: La valeur requise pour la propriété n'a pas été fournie.

  • Recommandation: fournissez la valeur du message et réessayez.

Code d'erreur : 2104

  • Message:Le type de la propriété '%propertyName;' est incorrect.

  • Cause: Le type de propriété fourni n'est pas correct.

  • Recommandation: Corrigez le type de la propriété et réessayez.

Code d'erreur : 2105

  • Message:Un json non valide est fourni pour la propriété '%propertyName;'. Une erreur s'est produite lors de la tentative d'analyse : '%message;'.

  • Cause: La valeur de la propriété n'est pas valide ou n'est pas au format attendu.

  • Recommandation: Reportez-vous à la documentation de la propriété et vérifiez que la valeur fournie inclut le format et le type corrects.

Code d'erreur : 2106

  • Message:La chaîne de connexion au stockage n'est pas valide. %Message d'erreur;

  • Cause: La chaîne de connexion pour le stockage n'est pas valide ou a un format incorrect.

  • Recommandation: accédez au portail Azure et recherchez votre espace de stockage, puis copiez-collez la chaîne de connexion dans votre service lié et réessayez.

Code d'erreur : 2110

  • Message:Le type de service lié '%linkedServiceType;' n'est pas pris en charge pour '%executorType;' activités.

  • Cause: Le service lié spécifié dans l'activité est incorrect.

  • Recommandation: vérifiez que le type de service lié est l'un des types pris en charge pour l'activité. Par exemple, le type de service lié pour les activités HDI peut être HDInsight ou HDInsightOnDemand.

Code d'erreur : 2111

  • Message:Le type de la propriété '%propertyName;' est incorrect. Le type attendu est %expectedType;.

  • Cause: Le type de la propriété fournie n'est pas correct.

  • Recommandation: corrigez le type de propriété et réessayez.

Code d'erreur : 2112

  • Message:Le type de cloud n'est pas pris en charge ou n'a pas pu être déterminé pour le stockage à partir du suffixe EndpointSuffix '%endpointSuffix;'.

  • Cause : Le type de cloud n'est pas pris en charge ou n'a pas pu être déterminé pour le stockage à partir du suffixe du point de terminaison.

  • Recommandation: utilisez le stockage dans un autre cloud et réessayez.

Coutume

Le tableau suivant s'applique à Azure Batch.

Code d'erreur : 2500

  • Message:Hit exception inattendue et l'exécution a échoué.

  • Cause:Impossible de lancer la commande ou le programme a renvoyé un code d'erreur.

  • Recommandation: Assurez-vous que le fichier exécutable existe. Si le programme a démarré, vérifiez questdout.txtetstderr.txtont été chargés sur le compte de stockage. Il est recommandé d'inclure des journaux dans votre code pour le débogage.

Code d'erreur : 2501

  • Message:Impossible d'accéder au compte batch de l'utilisateur ; veuillez vérifier les paramètres du compte de lot.

  • Cause: Clé d'accès Batch ou nom de pool incorrect.

  • Recommandation: vérifiez le nom du pool et la clé d'accès Batch dans le service lié.

Code d'erreur : 2502

  • Message:Impossible d'accéder au compte de stockage de l'utilisateur ; veuillez vérifier les paramètres du compte de stockage.

  • Cause: Nom de compte de stockage ou clé d'accès incorrect.

  • Recommandation: vérifiez le nom du compte de stockage et la clé d'accès dans le service lié.

Code d'erreur : 2504

  • Message:L'opération a renvoyé un code d'état non valide "BadRequest".

  • Cause: Trop de fichiers dans ledossierCheminde l'activité personnalisée. La taille totale deFichiersressourcene peut pas dépasser 32 768 caractères.

  • Recommandation: supprimez les fichiers inutiles ou compressez-les et ajoutez une commande de décompression pour les extraire.

    Par exemple, utilisezpowershell.exe -nologo -noprofile -command "& { Add-Type -A 'System.IO.Compression.FileSystem'; [IO.Compression.ZipFile]::ExtractToDirectory($zipFile, $folder); }" ; $dossier\votreProgramme.exe

Code d'erreur : 2505

  • Message:Impossible de créer une signature d'accès partagé à moins que les informations d'identification de la clé de compte ne soient utilisées.

  • Cause: les activités personnalisées ne prennent en charge que les comptes de stockage qui utilisent une clé d'accès.

  • Recommandation: Reportez-vous à la description de l'erreur.

Code d'erreur : 2507

  • Message:Le chemin du dossier n'existe pas ou est vide : ...

  • Cause: Aucun fichier ne se trouve dans le compte de stockage au chemin spécifié.

  • Recommandation: Le chemin du dossier doit contenir les fichiers exécutables que vous souhaitez exécuter.

Code d'erreur : 2508

  • Message:Il y a des fichiers en double dans le dossier de ressources.

  • Cause: Plusieurs fichiers portant le même nom se trouvent dans différents sous-dossiers de folderPath.

  • Recommandation: Les activités personnalisées aplatissent la structure des dossiers sous folderPath. Si vous devez conserver la structure des dossiers, compressez les fichiers et extrayez-les dans Azure Batch à l'aide d'une commande unzip.

    Par exemple, utilisezpowershell.exe -nologo -noprofile -command "& { Add-Type -A 'System.IO.Compression.FileSystem'; [IO.Compression.ZipFile]::ExtractToDirectory($zipFile, $folder); }" ; $dossier\votreProgramme.exe

Code d'erreur : 2509

  • Message:L'URL du lot ... n'est pas valide ; il doit être au format Uri.

  • Cause : les URL de lot doivent être similaires àhttps://mybatchaccount.eastus.batch.azure.com

  • Recommandation: Reportez-vous à la description de l'erreur.

Code d'erreur : 2510

  • Message:Une erreur s'est produite lors de l'envoi de la demande.

  • Cause: L'URL du lot n'est pas valide.

  • Recommandation: vérifiez l'URL du lot.

HDInsight

Code d'erreur : 206

  • Message:L'ID de lot pour la tâche Spark n'est pas valide. Veuillez réessayer votre travail.

  • Cause: Il y a eu un problème interne avec le service qui a causé cette erreur.

  • Recommandation: Ce problème peut être passager. Réessayez votre travail après un certain temps.

Code d'erreur : 207

  • Message:Impossible de déterminer la région à partir du compte de stockage fourni. Veuillez essayer d'utiliser un autre compte de stockage principal pour l'IDH à la demande.

  • Cause: Une erreur interne s'est produite lors de la tentative de détermination de la région à partir du compte de stockage principal.

  • Recommandation: Essayez un autre stockage.

Code d'erreur : 208

  • Message:Le principal de service ou l'authentificateur MSI ne sont pas instanciés. Veuillez envisager de fournir un principal de service dans le service lié HDI à la demande qui dispose des autorisations nécessaires pour créer un cluster HDInsight dans l'abonnement fourni, puis réessayez.

  • Cause: Une erreur interne s'est produite lors de la tentative de lecture du principal du service ou de l'instanciation de l'authentification MSI.

  • Recommandation: Envisagez de fournir un principal de service, qui dispose des autorisations nécessaires pour créer un cluster HDInsight dans l'abonnement fourni, puis réessayez. Vérifiez que leGérer les identités sont configurés correctement.

Code d'erreur : 2300

  • Message:Échec de la soumission du travail '%jobId;' au cluster '%cluster;'. Erreur : % message d'erreur ;.

  • Cause: Le message d'erreur contient un message similaire àLe nom distant n'a pas pu être résolu.. L'URI de cluster fourni n'est peut-être pas valide.

  • Recommandation : Vérifiez que le cluster n'a pas été supprimé et que l'URI fourni est correct. Lorsque vous ouvrez l'URI dans un navigateur, vous devriez voir l'interface utilisateur Ambari. Si le cluster se trouve dans un réseau virtuel, l'URI doit être l'URI privé. Pour l'ouvrir, utilisez une machine virtuelle (VM) qui fait partie du même réseau virtuel.

    Pour plus d'informations, voirConnectez-vous directement aux services Apache Hadoop.

  • Cause: Si le message d'erreur contient un message similaire àUne tâche a été annulée., la soumission du travail a expiré.

  • Recommandation: Le problème peut être lié à la connectivité générale de HDInsight ou à la connectivité réseau. Vérifiez d'abord que l'interface utilisateur HDInsight Ambari est disponible depuis n'importe quel navigateur. Vérifiez ensuite que vos identifiants sont toujours valides.

    Si vous utilisez un environnement d'exécution intégré (IR) auto-hébergé, effectuez cette étape à partir de la machine virtuelle ou de la machine sur laquelle l'IR auto-hébergé est installé. Essayez ensuite de soumettre à nouveau le travail.

    Pour plus d'informations, lisezInterface utilisateur Web Ambari.

  • Cause: Lorsque le message d'erreur contient un message similaire àL'administrateur de l'utilisateur est verrouillé dans AmbariouNon autorisé : le nom d'utilisateur ou le mot de passe Ambari est incorrect, les informations d'identification pour HDInsight sont incorrectes ou ont expiré.

  • Recommandation: Corrigez les informations d'identification et redéployez le service lié. Vérifiez d'abord que les informations d'identification fonctionnent sur HDInsight en ouvrant l'URI du cluster sur n'importe quel navigateur et en essayant de vous connecter. Si les informations d'identification ne fonctionnent pas, vous pouvez les réinitialiser à partir du portail Azure.

    Pour le cluster ESP, réinitialisez le mot de passe viaréinitialisation du mot de passe en libre-service.

  • Cause: Lorsque le message d'erreur contient un message similaire à502 - Le serveur Web a reçu une réponse non valide alors qu'il agissait en tant que passerelle ou serveur proxy, cette erreur est renvoyée par le service HDInsight.

  • Recommandation: Une erreur 502 se produit souvent lorsque votre processus Ambari Server a été arrêté. Vous pouvez redémarrer les services Ambari en redémarrant le nœud principal.

    1. Connectez-vous à l'un de vos nœuds sur HDInsight à l'aide de SSH.

    2. Identifiez votre hôte de nœud principal actif en exécutantping headnodehost.

    3. Connectez-vous à votre nœud principal actif car Ambari Server se trouve sur le nœud principal actif à l'aide de SSH.

    4. Redémarrez le nœud principal actif.

      Pour plus d'informations, consultez la documentation de dépannage d'Azure HDInsight. Par exemple:

      • Erreur Ambar UI 502
      • RpcTimeoutException pour le serveur d'épargne Apache Spark
      • Dépannage des erreurs de passerelle incorrecte dans Application Gateway.
  • Cause: Lorsque le message d'erreur contient un message similaire àImpossible de traiter la demande de soumission de travail car le service templeton est occupé par trop de demandes de soumission de travailouLa file d'attente root.joblauncher a déjà 500 candidatures, ne peut pas accepter la soumission de la candidature, trop de travaux sont soumis à HDInsight en même temps.

  • Recommandation: limitez le nombre de tâches simultanées soumises à HDInsight. Reportez-vous à la simultanéité des activités si les travaux sont soumis par la même activité. Modifiez les déclencheurs afin que les exécutions simultanées du pipeline soient réparties dans le temps.

    Faire référence àDocumentation HDInsightajustertempleton.parallellism.job.submitcomme le suggère l'erreur.

Code d'erreur : 2301

  • Message:Impossible d'obtenir le statut de l'application '%physicalJobId;' du service HDInsight. A reçu l'erreur suivante : %message;. Veuillez vous référer à la documentation de dépannage de HDInsight ou contacter leur support pour plus d'assistance.

  • Cause: Le cluster ou le service HDInsight a des problèmes.

  • Recommandation: Cette erreur se produit lorsque le service ne reçoit pas de réponse du cluster HDInsight lorsqu'il tente de demander l'état de la tâche en cours d'exécution. Ce problème peut être sur le cluster lui-même, ou le service HDInsight peut avoir une panne.

    Faire référence àDocumentation de dépannage HDInsight, ou contactez le support Microsoft pour obtenir de l'aide.

Code d'erreur : 2302

  • Message:La tâche Hadoop a échoué avec le code de sortie '%exitCode;'. Voir '%logPath;/stderr' pour plus de détails. Vous pouvez également ouvrir l'interface utilisateur Ambari sur le cluster HDI et rechercher les journaux de la tâche '%jobId;'. Contactez l'équipe HDInsight pour une assistance supplémentaire.

  • Cause: Le travail a été soumis au cluster HDI et y a échoué.

  • Recommandation:

  1. Vérifiez l'interface utilisateur d'Ambari :
    1. Assurez-vous que tous les services sont toujours en cours d'exécution.
    2. À partir de l'interface utilisateur d'Ambari, consultez la section d'alerte de votre tableau de bord.
      1. Pour plus d'informations sur les alertes et les résolutions d'alertes, voirGestion et surveillance d'un cluster.
    3. Passez en revue votre mémoire YARN. Si votre mémoire YARN est élevée, le traitement de vos travaux peut être retardé. Si vous ne disposez pas de suffisamment de ressources pour prendre en charge votre application/tâche Spark, faites évoluer le cluster pour vous assurer qu'il dispose de suffisamment de mémoire et de cœurs.
  2. Exécutez un exemple de tâche de test.
    1. Si vous exécutez la même tâche sur le backend HDInsight, vérifiez qu'elle a réussi. Pour des exemples d'exécutions d'échantillons, voirExécutez les exemples MapReduce inclus dans HDInsight
  3. Si la tâche échoue toujours sur HDInsight, vérifiez les journaux d'application et les informations à fournir à l'assistance :
    1. Vérifiez si le travail a été soumis à YARN. Si le travail n'a pas été soumis à yarn, utilisez--maître fil.
    2. Si l'application a terminé son exécution, collectez l'heure de début et l'heure de fin de l'application YARN. Si l'application n'a pas terminé l'exécution, collectez l'heure de début/l'heure de lancement.
    3. Vérifiez et collectez le journal des applications avecjournaux de fils -applicationId .
    4. Vérifiez et collectez les journaux du gestionnaire de ressources de fil sous le/var/log/hadoop-fil/filannuaire.
    5. Si ces étapes ne suffisent pas à résoudre le problème, contactez l'équipe Azure HDInsight pour obtenir de l'aide et fournissez les journaux et les horodatages ci-dessus.

Code d'erreur : 2303

  • Message:La tâche Hadoop a échoué avec le code de sortie transitoire '%exitCode;'. Voir '%logPath;/stderr' pour plus de détails. Vous pouvez également ouvrir l'interface utilisateur Ambari sur le cluster HDI et rechercher les journaux de la tâche '%jobId;'. Réessayez ou contactez l'équipe HDInsight pour une assistance supplémentaire.

  • Cause: Le travail a été soumis au cluster HDI et y a échoué.

  • Recommandation:

  1. Vérifiez l'interface utilisateur d'Ambari :
    1. Assurez-vous que tous les services sont toujours en cours d'exécution.
    2. À partir de l'interface utilisateur d'Ambari, consultez la section d'alerte de votre tableau de bord.
      1. Pour plus d'informations sur les alertes et les résolutions d'alertes, voirGestion et surveillance d'un cluster.
    3. Passez en revue votre mémoire YARN. Si votre mémoire YARN est élevée, le traitement de vos travaux peut être retardé. Si vous ne disposez pas de suffisamment de ressources pour prendre en charge votre application/tâche Spark, faites évoluer le cluster pour vous assurer qu'il dispose de suffisamment de mémoire et de cœurs.
  2. Exécutez un exemple de tâche de test.
    1. Si vous exécutez la même tâche sur le backend HDInsight, vérifiez qu'elle a réussi. Pour des exemples d'exécutions d'échantillons, voirExécutez les exemples MapReduce inclus dans HDInsight
  3. Si la tâche échoue toujours sur HDInsight, vérifiez les journaux d'application et les informations à fournir à l'assistance :
    1. Vérifiez si le travail a été soumis à YARN. Si le travail n'a pas été soumis à yarn, utilisez--maître fil.
    2. Si l'application a terminé son exécution, collectez l'heure de début et l'heure de fin de l'application YARN. Si l'application n'a pas terminé l'exécution, collectez l'heure de début/l'heure de lancement.
    3. Vérifiez et collectez le journal des applications avecjournaux de fils -applicationId .
    4. Vérifiez et collectez les journaux du gestionnaire de ressources de fil sous le/var/log/hadoop-fil/filannuaire.
    5. Si ces étapes ne suffisent pas à résoudre le problème, contactez l'équipe Azure HDInsight pour obtenir de l'aide et fournissez les journaux et les horodatages ci-dessus.

Code d'erreur : 2304

  • Message:L'authentification MSI n'est pas prise en charge sur les stockages pour les activités HDI.

  • Cause: Les services liés au stockage utilisés dans le service lié HDInsight (HDI) ou l'activité HDI sont configurés avec une authentification MSI qui n'est pas prise en charge.

  • Recommandation: fournissez des chaînes de connexion complètes pour les comptes de stockage utilisés dans le service lié HDI ou l'activité HDI.

Code d'erreur : 2305

  • Message:Échec de l'initialisation du client HDInsight pour le cluster '%cluster;'. Message d'erreur;'

  • Cause: Les informations de connexion pour le cluster HDI sont incorrectes, l'utilisateur fourni n'a pas les autorisations pour effectuer l'action requise ou le service HDInsight a des problèmes pour répondre aux demandes du service.

  • Recommandation: vérifiez que les informations utilisateur sont correctes et que l'interface utilisateur Ambari pour le cluster HDI peut être ouverte dans un navigateur à partir de la machine virtuelle sur laquelle l'IR est installé (pour un IR auto-hébergé), ou peut être ouverte à partir de n'importe quelle machine (pour Azure IR).

Code d'erreur : 2306

  • Message:Un json non valide est fourni pour l'action de script '%scriptActionName;'. Message d'erreur;'

  • Cause: Le JSON fourni pour l'action de script n'est pas valide.

  • Recommandation: Le message d'erreur devrait aider à identifier le problème. Corrigez la configuration json et réessayez.

    VérifierService lié à la demande Azure HDInsightpour plus d'informations.

Code d'erreur : 2310

  • Message:Échec de l'envoi de la tâche Spark. Message d'erreur;'

  • Cause : Le service a tenté de créer un lot sur un cluster Spark à l'aide de l'API Livy (livy/batch), mais a reçu une erreur.

  • Recommandation: suivez le message d'erreur pour résoudre le problème. S'il n'y a pas suffisamment d'informations pour résoudre le problème, contactez l'équipe HDI et fournissez-leur l'ID de lot et l'ID de tâche, qui se trouvent dans la sortie d'exécution de l'activité sur la page Surveillance du service. Pour poursuivre le dépannage, collectez le journal complet du travail par lots.

    Pour plus d'informations sur la collecte du journal complet, voirObtenir le journal complet d'un travail par lots.

Code d'erreur : 2312

  • Message:Échec de la tâche Spark, ID de lot : %batchId ;. Veuillez suivre les liens dans la sortie d'exécution de l'activité de la page de surveillance du service pour dépanner l'exécution sur le cluster HDInsight Spark. Veuillez contacter l'équipe d'assistance HDInsight pour obtenir de l'aide.

  • Cause: La tâche a échoué sur le cluster HDInsight Spark.

  • Recommandation: suivez les liens dans l'exécution de l'activité sortie dans la page de surveillance du service pour dépanner l'exécution sur le cluster HDInsight Spark. Contactez l'équipe d'assistance HDInsight pour obtenir de l'aide.

    Pour plus d'informations sur la collecte du journal complet, voirObtenir le journal complet d'un travail par lots.

Code d'erreur : 2313

  • Message:Le lot avec l'ID '%batchId;' n'a pas été trouvé sur le cluster Spark. Ouvrez l'interface utilisateur de l'historique Spark et essayez de le trouver là-bas. Contactez l'assistance HDInsight pour obtenir de l'aide.

  • Cause: Le lot a été supprimé sur le cluster HDInsight Spark.

  • Recommandation: Dépannez les lots sur le cluster HDInsight Spark. Contactez l'assistance HDInsight pour obtenir de l'aide.

    Pour plus d'informations sur la collecte du journal complet, voirObtenir le journal complet d'un travail par lots, et partagez le journal complet avec l'assistance HDInsight pour obtenir de l'aide.

Code d'erreur : 2328

  • Message:Échec de la création du cluster HDI à la demande. Nom du cluster ou du service lié : '%clusterName;', erreur : '%message;'

  • Cause: Le message d'erreur doit montrer les détails de ce qui s'est mal passé.

  • Recommandation: Le message d'erreur devrait aider à résoudre le problème.

Code d'erreur : 2329

  • Message:Échec de la suppression du cluster HDI à la demande. Nom du cluster ou du service lié : '%clusterName;', erreur : '%message;'

  • Cause: Le message d'erreur doit montrer les détails de ce qui s'est mal passé.

  • Recommandation: Le message d'erreur devrait aider à résoudre le problème.

Code d'erreur : 2331

  • Message:Le chemin du fichier ne doit pas être nul ou vide.

  • Cause: Le chemin d'accès au fichier fourni est vide.

  • Recommandation: fournissez un chemin pour un fichier qui existe.

Code d'erreur : 2340

  • Message:Le service lié HDInsightOnDemand ne prend pas en charge l'exécution via SelfHosted IR. Votre nom IR est '%IRName;'. Veuillez sélectionner un Azure IR à la place.

  • Cause: Le service lié HDInsightOnDemand ne prend pas en charge l'exécution via SelfHosted IR.

  • Recommandation: Sélectionnez un Azure IR et réessayez.

Code d'erreur : 2341

  • Message:URL du cluster HDInsight '%clusterUrl;' est incorrect, il doit être au format URI et le schéma doit être 'https'.

  • Cause: L'URL fournie n'est pas au bon format.

  • Recommandation: Corrigez l'URL du cluster et réessayez.

Code d'erreur : 2342

  • Message:Échec de la connexion au cluster HDInsight : '%errorMessage;'.

  • Cause: Soit les informations d'identification fournies sont erronées pour le cluster, soit il y a eu un problème de configuration réseau ou de connexion, soit l'IR a des problèmes de connexion au cluster.

  • Recommandation:

    1. Vérifiez que les informations d'identification sont correctes en ouvrant l'interface utilisateur Ambari du cluster HDInsight dans un navigateur.

    2. Si le cluster se trouve dans un réseau virtuel (VNet) et qu'un IR auto-hébergé est utilisé, l'URL HDI doit être l'URL privée dans les réseaux virtuels et doit avoir-intrépertorié après le nom du cluster.

      Par exemple, changezhttps://mycluster.azurehdinsight.net/pourhttps://mycluster-int.azurehdinsight.net/. Noter la-intaprèsmoncluster, mais avant.azurehdinsight.net

    3. Si le cluster se trouve dans le réseau virtuel, que l'IR auto-hébergé est utilisé et que l'URL privée a été utilisée, et que la connexion échoue toujours, la machine virtuelle sur laquelle l'IR est installé a eu des problèmes de connexion au HDI.

      Connectez-vous à la machine virtuelle sur laquelle l'IR est installé et ouvrez l'interface utilisateur Ambari dans un navigateur. Utilisez l'URL privée du cluster. Cette connexion devrait fonctionner à partir du navigateur. Si ce n'est pas le cas, contactez l'équipe d'assistance HDInsight pour obtenir de l'aide.

    4. Si l'IR auto-hébergé n'est pas utilisé, le cluster HDI doit être accessible publiquement. Ouvrez l'interface utilisateur Ambari dans un navigateur et vérifiez qu'elle s'ouvre. En cas de problème avec le cluster ou les services qu'il contient, contactez l'équipe de support HDInsight pour obtenir de l'aide.

      L'URL du cluster HDI utilisée dans le service lié doit être accessible pour l'IR (auto-hébergé ou Azure) pour que la connexion de test réussisse et que les exécutions fonctionnent. Cet état peut être vérifié en ouvrant l'URL depuis un navigateur soit depuis une VM, soit depuis n'importe quelle machine publique.

Code d'erreur : 2343

  • Message:Le nom d'utilisateur et le mot de passe ne peuvent pas être nuls ou vides pour se connecter au cluster HDInsight.

  • Cause: Le nom d'utilisateur ou le mot de passe est vide.

  • Recommandation: fournissez les informations d'identification correctes pour vous connecter à HDI et réessayez.

Code d'erreur : 2345

  • Message:Impossible de lire le contenu du script Hive. Message d'erreur;'

  • Cause: Le fichier de script n'existe pas ou le service n'a pas pu se connecter à l'emplacement du script.

  • Recommandation: vérifiez que le script existe et que le service lié associé dispose des informations d'identification appropriées pour une connexion.

Code d'erreur : 2346

  • Message:Échec de la création de la connexion ODBC au cluster HDI avec le message d'erreur '%message;'.

  • Cause: Le service a tenté d'établir une connexion ODBC (Open Database Connectivity) avec le cluster HDI, et cela a échoué avec une erreur.

  • Recommandation:

    1. Vérifiez que vous avez correctement configuré votre connexion ODBC/Java Database Connectivity (JDBC).
      1. Pour JDBC, si vous utilisez le même réseau virtuel, vous pouvez obtenir cette connexion depuis :
        Hive -> Résumé -> URL JDBC HIVESERVER2
      2. Pour vous assurer que vous disposez de la bonne configuration JDBC, consultezInterroger Apache Hive via le pilote JDBC dans HDInsight.
      3. Pour Open Database (ODB), voirTutoriel : Interroger Apache Hive avec ODBC et PowerShellpour vous assurer que vous avez la bonne configuration.
    2. Vérifiez que Hiveserver2, Hive Metastore et Hiveserver2 Interactive sont actifs et fonctionnent.
    3. Vérifiez l'interface utilisateur (UI) d'Ambari :
      1. Assurez-vous que tous les services sont toujours en cours d'exécution.
      2. Dans l'interface utilisateur d'Ambari, consultez la section d'alerte de votre tableau de bord.
        1. Pour plus d'informations sur les alertes et les résolutions d'alertes, voirGestion et surveillance d'un cluster.
    4. Si ces étapes ne suffisent pas à résoudre le problème, contactez l'équipe Azure HDInsight.

Code d'erreur : 2347

  • Message:L'exécution de Hive via ODBC a échoué avec le message d'erreur '% message;'.

  • Cause: Le service a soumis le script hive pour exécution au cluster HDI via une connexion ODBC, et le script a échoué sur HDI.

  • Recommandation:

    1. Vérifiez que vous avez correctement configuré votre connexion ODBC/Java Database Connectivity (JDBC).
      1. Pour JDBC, si vous utilisez le même réseau virtuel, vous pouvez obtenir cette connexion depuis :
        Hive -> Résumé -> URL JDBC HIVESERVER2
      2. Pour vous assurer que vous disposez de la bonne configuration JDBC, consultezInterroger Apache Hive via le pilote JDBC dans HDInsight.
      3. Pour Open Database (ODB), voirTutoriel : Interroger Apache Hive avec ODBC et PowerShellpour vous assurer que vous avez la bonne configuration.
    2. Vérifiez que Hiveserver2, Hive Metastore et Hiveserver2 Interactive sont actifs et fonctionnent.
    3. Vérifiez l'interface utilisateur (UI) d'Ambari :
      1. Assurez-vous que tous les services sont toujours en cours d'exécution.
      2. Dans l'interface utilisateur d'Ambari, consultez la section d'alerte de votre tableau de bord.
        1. Pour plus d'informations sur les alertes et les résolutions d'alertes, voirGestion et surveillance d'un cluster.
    4. Si ces étapes ne suffisent pas à résoudre le problème, contactez l'équipe Azure HDInsight.

Code d'erreur : 2348

  • Message:Le stockage principal n'a pas été initialisé. Veuillez vérifier les propriétés du service lié au stockage dans le service lié HDI.

  • Cause: Les propriétés du service lié au stockage ne sont pas définies correctement.

  • Recommandation: seules les chaînes de connexion complètes sont prises en charge dans le service lié au stockage principal pour les activités HDI. Vérifiez que vous n'utilisez pas d'autorisations ou d'applications MSI.

Code d'erreur : 2350

  • Message:Impossible de préparer les fichiers pour l'exécution '%jobId;'. Cluster HDI : '%cluster;', erreur : '%errorMessage;'

  • Cause: Les informations d'identification fournies pour se connecter au stockage où les fichiers doivent être situés sont incorrectes ou les fichiers n'existent pas là-bas.

  • Recommandation: Cette erreur se produit lorsque le service se prépare pour les activités HDI et essaie de copier des fichiers sur le stockage principal avant de soumettre la tâche à HDI. Vérifiez que les fichiers existent à l'emplacement indiqué et que la connexion de stockage est correcte. Comme les activités HDI ne prennent pas en charge l'authentification MSI sur les comptes de stockage liés aux activités HDI, vérifiez que ces services liés disposent de clés complètes ou utilisent Azure Key Vault.

Code d'erreur : 2351

  • Message:Impossible d'ouvrir le fichier '%filePath;' dans conteneur/fileSystem '%container;'.

  • Cause: Le fichier n'existe pas au chemin spécifié.

  • Recommandation: Vérifiez si le fichier existe réellement et que le service lié avec les informations de connexion pointant vers ce fichier dispose des informations d'identification correctes.

Code d'erreur : 2352

  • Message:Le stockage de fichiers n'a pas été initialisé. Veuillez vérifier les propriétés du service lié au stockage de fichiers dans l'activité HDI.

  • Cause: Les propriétés du service lié au stockage de fichiers ne sont pas définies correctement.

  • Recommandation: vérifiez que les propriétés du service lié de stockage de fichiers sont correctement configurées.

Code d'erreur : 2353

  • Message:Le stockage de script n'a pas été initialisé. Veuillez vérifier les propriétés du service lié de stockage de script dans l'activité HDI.

  • Cause: Les propriétés du service lié de stockage de script ne sont pas définies correctement.

  • Recommandation: vérifiez que les propriétés du service lié de stockage de script sont correctement configurées.

Code d'erreur : 2354

  • Message:Le type de service lié au stockage '%linkedServiceType;' n'est pas pris en charge pour '%executorType;' activités pour la propriété '%linkedServicePropertyName;'.

  • Cause : Le type de service lié au stockage n'est pas pris en charge par l'activité.

  • Recommandation: vérifiez que le service lié sélectionné possède l'un des types pris en charge pour l'activité. Les activités HDI prennent en charge les services liés AzureBlobStorage et AzureBlobFSStorage.

    Pour plus d'informations, lisezComparer les options de stockage à utiliser avec les clusters Azure HDInsight

Code d'erreur : 2355

  • Message:La '%value' fournie pour commandEnvironment est incorrecte. La valeur attendue doit être un tableau de chaînes où chaque chaîne a le format CmdEnvVarName=CmdEnvVarValue.

  • Cause: La valeur fournie pourcommandEnvironmentest incorrect.

  • Recommandation: Vérifiez que la valeur fournie est similaire à :

    \"NomVariable=ValeurVariable\"]

    Vérifiez également que chaque variable n'apparaît qu'une seule fois dans la liste.

Code d'erreur : 2356

  • Message:La commandeEnvironment contient déjà une variable nommée '%variableName;'.

  • Cause: La valeur fournie pourcommandEnvironmentest incorrect.

  • Recommandation: Vérifiez que la valeur fournie est similaire à :

    \"NomVariable=ValeurVariable\"]

    Vérifiez également que chaque variable n'apparaît qu'une seule fois dans la liste.

Code d'erreur : 2357

  • Message:Le certificat ou le mot de passe est incorrect pour le stockage ADLS Gen 1.

  • Cause: Les informations d'identification fournies sont incorrectes.

  • Recommandation: Vérifiez que les informations de connexion dans ADLS Gen 1 sont liées au service et vérifiez que la connexion de test réussit.

Code d'erreur : 2358

  • Message:La valeur '%value;' pour la propriété requise « TimeToLive » dans le service lié HDInsight à la demande « %linkedServiceName ; » a un format invalide. Il doit s'agir d'une période comprise entre '00:05:00' et '24:00:00'.

  • Cause: La valeur fournie pour la propriété requiseTemps de vivrea un format invalide.

  • Recommandation: Mettez à jour la valeur dans la plage suggérée et réessayez.

Code d'erreur : 2359

  • Message:La valeur '%value;' pour la propriété 'rôles' n'est pas valide. Les types attendus sont 'zookeeper', 'headnode' et 'workernode'.

  • Cause: La valeur fournie pour la propriétéles rôlesest invalide.

  • Recommandation: Mettez à jour la valeur pour qu'elle soit l'une des suggestions et réessayez.

Code d'erreur : 2360

  • Message:La chaîne de connexion dans HCatalogLinkedService n'est pas valide. Une erreur s'est produite lors de la tentative d'analyse : '%message;'.

  • Cause: La chaîne de connexion fournie pour leHCatalogLinkedServiceest invalide.

  • Recommandation: mettez à jour la valeur avec une chaîne de connexion Azure SQL correcte et réessayez.

Code d'erreur : 2361

  • Message:Échec de la création du cluster HDI à la demande. Le nom du cluster est '%clusterName;'.

  • Cause: La création du cluster a échoué et le service n'a pas renvoyé d'erreur du service HDInsight.

  • Recommandation: Ouvrez le portail Azure et essayez de trouver la ressource HDI avec le nom fourni, puis vérifiez l'état de provisionnement. Contactez l'équipe d'assistance HDInsight pour obtenir de l'aide.

Code d'erreur : 2362

  • Message:Seuls les comptes de stockage Azure Blob sont pris en charge en tant que stockages supplémentaires pour le service lié à la demande HDInsight.

  • Cause: Le stockage supplémentaire fourni n'était pas le stockage Azure Blob.

  • Recommandation: fournissez un compte de stockage Azure Blob en tant que stockage supplémentaire pour le service lié à la demande HDInsight.

Erreur SSL lors du service lié à l'aide du cluster HDInsight ESP

  • Message:Échec de la connexion au cluster HDInsight : 'ERREUR [HY000] [Microsoft][DriverSupport] (1100) La vérification du certificat SSL a échoué car le certificat est manquant ou incorrect.'

  • Cause: Le problème est probablement lié à System Trust Store.

  • Résolution: Vous pouvez naviguer jusqu'au cheminMicrosoft Integration Runtime\4.0\Shared\ODBC Drivers\Microsoft Hive ODBC Driver\libet ouvrez DriverConfiguration64.exe pour modifier le paramètre.

    Dépannage général - Azure Data Factory et Azure Synapse (5)

Activité HDI bloquée dans la préparation du cluster

Si l'activité HDI est bloquée dans la préparation du cluster, suivez les instructions ci-dessous :

  1. Assurez-vous que le délai d'expiration est supérieur à ce qui est décrit ci-dessous et attendez la fin de l'exécution ou jusqu'à ce qu'il soit expiré, et attendez la durée de vie (TTL) avant de soumettre de nouvelles tâches.

    Le temps maximum par défaut nécessaire pour faire tourner un cluster est de 2 heures, et si vous avez un script d'initialisation, il s'additionnera jusqu'à 2 heures supplémentaires.

  2. Assurez-vous que le stockage et HDI sont provisionnés dans la même région.

  3. Assurez-vous que le principal de service utilisé pour accéder au cluster HDI est valide.

  4. Si le problème persiste, comme solution de contournement, supprimez le service lié HDI et recréez-le avec un nouveau nom.

Activité Web

Code d'erreur : 2001

  • Message:La longueur de la sortie d'exécution dépasse la limite (environ 4 Mo actuellement).

  • Cause : la taille de la sortie d'exécution est supérieure à 4 Mo, mais la taille de charge utile de réponse de sortie maximale prise en charge est de 4 Mo.

  • Recommandation: assurez-vous que la taille de la sortie d'exécution ne dépasse pas 4 Mo. Pour plus d'informations, voirComment faire évoluer la taille des données déplacées à l'aide d'Azure Data Factory.

Code d'erreur : 2002

  • Message:La charge utile, y compris les configurations sur l'activité/l'ensemble de données/le service lié, est trop volumineuse. Veuillez vérifier si vous avez des paramètres avec une très grande valeur et essayez de réduire sa taille.

  • Cause: La charge utile que vous tentez d'envoyer est trop volumineuse.

  • Recommandation: Faire référence àLa charge utile est trop grande.

Code d'erreur : 2003

  • Message:Il existe d'importantes exécutions d'activités externes simultanées qui provoquent des échecs en raison de la limitation sous l'abonnement , la région et la limitation . Veuillez réduire les exécutions simultanées. Pour connaître les limites, consultez https://aka.ms/adflimits.

  • Cause: Trop d'activités sont exécutées simultanément. Cela peut se produire lorsque trop de pipelines sont déclenchés à la fois.

  • Recommandation: réduire la simultanéité du pipeline. Vous devrez peut-être répartir l'heure de déclenchement de vos pipelines.

Code d'erreur : 2010

  • Message:Le runtime d'intégration auto-hébergé '' est hors ligne

  • Cause: le runtime d'intégration auto-hébergé est hors ligne ou le runtime d'intégration Azure a expiré ou n'est pas enregistré.

  • Recommandation: assurez-vous que votre environnement d'exécution d'intégration auto-hébergé est opérationnel. Faire référence àDépanner le runtime d'intégration auto-hébergépour plus d'informations.

Code d'erreur : 2105

  • Message:Le type de valeur '', dans la clé '' n'est pas le type attendu ''

  • Cause : Les données générées dans l'expression de contenu dynamique ne correspondent pas à la clé et entraînent un échec de l'analyse JSON.

  • Recommandation: examinez le champ clé et corrigez la définition de contenu dynamique.

Code d'erreur : 2108

  • Message:Erreur lors de l'appel du point de terminaison ''. Code d'état de la réponse : 'NA - Inconnu'. Plus de détails : Message d'exception : 'NA - Inconnu [ClientSideException] URL non valide : . Veuillez vérifier que l'URL ou le runtime d'intégration est valide et réessayez. Les URL Localhost ne sont autorisées qu'avec SelfHosted Integration Runtime'

  • Cause: Impossible d'accéder à l'URL fournie. Cela peut se produire en raison d'un problème de connexion réseau, de l'impossibilité de résoudre l'URL ou de l'utilisation d'une URL localhost sur un runtime d'intégration Azure.

  • Recommandation: vérifiez que l'URL fournie est accessible.


  • Message:Erreur lors de l'appel du point de terminaison '%url;'. Code d'état de la réponse : '%code;'

  • Cause: La demande a échoué en raison d'un problème sous-jacent tel que la connectivité réseau, une défaillance DNS, une validation de certificat de serveur ou un délai d'attente.

  • Recommandation: Utilisez Fiddler/Postman/Netmon/Wireshark pour valider la requête.

    Utilisation du violoniste

    UtiliserVioloneuxpour créer une session HTTP de l'application Web surveillée :

    1. Téléchargez, installez et ouvrezVioloneux.

    2. Si votre application Web utilise HTTPS, accédez àOutils>Options de violoneux>HTTPS.

      1. Dans l'onglet HTTPS, sélectionnez à la foisCapturez les connexions HTTPSetDécrypter le trafic HTTPS.

        Dépannage général - Azure Data Factory et Azure Synapse (6)

    3. Si votre application utilise des certificats TLS/SSL, ajoutez le certificat Fiddler à votre appareil.

      Aller à:Outils>Options de violoneux>HTTPS>Actions>Exporter le certificat racine vers le bureau.

    4. Désactivez la capture en accédant àDéposer>Capturer le trafic. Ou appuyez surF12.

    5. Effacez le cache de votre navigateur afin que tous les éléments mis en cache soient supprimés et doivent être téléchargés à nouveau.

    6. Créer une demande :

    7. Sélectionnez leCompositeurlanguette.

      1. Définissez la méthode HTTP et l'URL.

      2. Si nécessaire, ajoutez des en-têtes et un corps de requête.

      3. SélectionnerExécuter.

    8. Activez à nouveau la capture du trafic et terminez la transaction problématique sur votre page.

    9. Aller à:Déposer>Sauvegarder>Toutes les séances.

    Pour plus d'informations, voirPremiers pas avec Fiddler.

Code d'erreur : 2113

  • Message:ExtractAuthorizationCertificate : impossible de générer un certificat à partir d'une combinaison chaîne/mot de passe Base64

  • Cause: Impossible de générer un certificat à partir de la combinaison chaîne/mot de passe Base64.

  • Recommandation: Vérifiez que la combinaison de certificat et de mot de passe PFX encodé en Base64 que vous utilisez est correctement saisie.

Code d'erreur : 2403

  • Message:Échec de l'obtention du jeton d'accès à partir de MSI pour Datafactory , région . Veuillez vérifier que l'URL de la ressource est valide et réessayer.

  • Cause : Impossible d'acquérir un jeton d'accès à partir de l'URL de ressource fournie.

  • Recommandation: Vérifiez que vous avez fourni l'URL de ressource correcte pour votre identité managée.

Général

Erreur NULL du jeton de continuation REST

Message d'erreur:{"token":null,"range":{"min":..}

Cause:Lors d'une requête sur plusieurs partitions/pages, le service backend renvoie un jeton de continuation au format JObject avec 3 propriétés :Token, plages de clés min et max, par exemple, {"token":null,"range":{"min":"05C1E9AB0DAD76","max":"05C1E9CD673398"}}). En fonction des données source, l'interrogation peut aboutir à 0 indiquant un jeton manquant bien qu'il y ait plus de données à récupérer.

Recommandation:Lorsque le continuationToken est non nul, comme la chaîne {"token":null,"range":{"min":"05C1E9AB0DAD76","max":"05C1E9CD673398"}}, il est nécessaire d'appeler à nouveau l'API queryActivityRuns avec le jeton de continuation de la réponse précédente. Vous devez à nouveau transmettre la chaîne complète pour l'API de requête. Les activités seront retournées dans les pages suivantes pour le résultat de la requête. Vous devez ignorer qu'il y a un tableau vide dans cette page, tant que la valeur continuationToken complète != null, vous devez continuer à interroger. Pour plus de détails, veuillez consulterAPI REST pour la requête d'exécution du pipeline.

Problème d'activité bloquée

Lorsque vous observez que l'activité dure beaucoup plus longtemps que vos courses normales avec à peine aucun progrès, il peut arriver qu'elle soit bloquée. Vous pouvez essayer de l'annuler et réessayer pour voir si cela aide. S'il s'agit d'une activité de copie, vous pouvez en savoir plus sur la surveillance des performances et le dépannage à partir deRésoudre les problèmes de performances des activités de copie; s'il s'agit d'un flux de données, apprenez deCartographier les performances des flux de donnéeset guide de réglage.

La charge utile est trop grande

Message d'erreur: La charge utile, y compris les configurations sur l'activité/l'ensemble de données/le service lié, est trop volumineuse. Veuillez vérifier si vous avez des paramètres avec une très grande valeur et essayez de réduire sa taille.

Cause:La charge utile de chaque exécution d'activité inclut la configuration de l'activité, les ensembles de données associés et les configurations de service(s) lié(s) le cas échéant, ainsi qu'une petite partie des propriétés système générées par type d'activité. La limite de cette taille de charge utile est de 896 Ko, comme indiqué dans la documentation des limites Azure pourUsine de donnéesetAzure Synapse Analytique.

Recommandation:Vous atteignez cette limite probablement parce que vous transmettez une ou plusieurs valeurs de paramètre importantes à partir de la sortie d'activité en amont ou externe, en particulier si vous transmettez des données réelles entre les activités dans le flux de contrôle. Vérifiez si vous pouvez réduire la taille des valeurs de paramètre volumineuses ou ajustez votre logique de pipeline pour éviter de transmettre de telles valeurs entre les activités et gérez-les plutôt à l'intérieur de l'activité.

Une compression non prise en charge entraîne la corruption des fichiers

Symptômes: Vous essayez de décompresser un fichier stocké dans un conteneur d'objets blob. Une activité de copie unique dans un pipeline a une source avec le type de compression défini sur "deflate64" (ou tout type non pris en charge). Cette activité s'exécute avec succès et produit le fichier texte contenu dans le fichier zip. Cependant, il y a un problème avec le texte dans le fichier et ce fichier semble corrompu. Lorsque ce fichier est décompressé localement, tout va bien.

Cause: Votre fichier zip est compressé par l'algorithme de "deflate64", alors que la bibliothèque zip interne d'Azure Data Factory ne supporte que "deflate". Si le fichier zip est compressé par le système Windows et que la taille globale du fichier dépasse un certain nombre, Windows utilisera « deflate64 » par défaut, qui n'est pas pris en charge dans Azure Data Factory. D'un autre côté, si la taille du fichier est plus petite ou si vous utilisez des outils zip tiers prenant en charge la spécification de l'algorithme de compression, Windows utilisera "deflate" par défaut.

Conseil

En fait, les deuxFormat binaire dans Azure Data Factory et Synapse AnalyticsetFormat de texte délimité dans Azure Data Factory et Azure Synapse Analyticsindiquez clairement que le format "deflate64" n'est pas pris en charge dans Azure Data Factory.

Exécuter le pipeline passe le paramètre de tableau en tant que chaîne au pipeline enfant

Message d'erreur: L'opération sur la cible ForEach1 a échoué : l'exécution de l'action de modèle 'MainForEach1' a échoué : le résultat de l'évaluation de l'expression 'foreach' '@pipeline().parameters.' est de type 'String'. Le résultat doit être un tableau valide.

Cause:Même si dans le pipeline d'exécution, vous créez le paramètre de type tableau, comme indiqué dans l'image ci-dessous, le pipeline échouera.

Dépannage général - Azure Data Factory et Azure Synapse (7)

Cela est dû au fait que la charge utile est transmise du pipeline parent à l'enfant sous forme de chaîne. Nous pouvons le voir lorsque nous vérifions l'entrée transmise au pipeline enfant.

Dépannage général - Azure Data Factory et Azure Synapse (8)

Recommandation:Pour résoudre le problème, nous pouvons tirer parti de la fonction de création de tableau, comme indiqué dans l'image ci-dessous.

Dépannage général - Azure Data Factory et Azure Synapse (9)

Ensuite, notre pipeline réussira. Et nous pouvons voir dans la zone de saisie que le paramètre passé est un tableau.

Dépannage général - Azure Data Factory et Azure Synapse (10)

Prochaines étapes

Pour plus d'aide sur le dépannage, essayez ces ressources :

Top Articles
Latest Posts
Article information

Author: Patricia Veum II

Last Updated: 07/20/2023

Views: 5233

Rating: 4.3 / 5 (44 voted)

Reviews: 83% of readers found this page helpful

Author information

Name: Patricia Veum II

Birthday: 1994-12-16

Address: 2064 Little Summit, Goldieton, MS 97651-0862

Phone: +6873952696715

Job: Principal Officer

Hobby: Rafting, Cabaret, Candle making, Jigsaw puzzles, Inline skating, Magic, Graffiti

Introduction: My name is Patricia Veum II, I am a vast, combative, smiling, famous, inexpensive, zealous, sparkling person who loves writing and wants to share my knowledge and understanding with you.