- Article
S'APPLIQUE À: Usine de données Azure
Azure Synapse Analytique
Cet article explore les méthodes de dépannage courantes pour les activités de contrôle externe dans les pipelines Azure Data Factory et Synapse.
Connecteur et activité de copie
Pour les problèmes de connecteur tels qu'une erreur lors de l'utilisation de l'activité de copie, reportez-vous auDépanner les connecteursarticle.
Azure Databrick
Code d'erreur : 3200
Message: Erreur 403.
Cause:
Le jeton d'accès Databricks a expiré.
Recommandation: Par défaut, le jeton d'accès Azure Databricks est valide pendant 90 jours. Créez un nouveau jeton et mettez à jour le service lié.
Code d'erreur : 3201
Message:
Champ obligatoire manquant : settings.task.notebook_task.notebook_path.
Cause:
Mauvaise création : le chemin d'accès au bloc-notes n'est pas spécifié correctement.
Recommandation: spécifiez le chemin du bloc-notes dans l'activité Databricks.
Message:
Le cluster... n'existe pas.
Cause:
Erreur de création : le cluster Databricks n'existe pas ou a été supprimé.
Recommandation: vérifiez que le cluster Databricks existe.
Message:
URI de fichier Python non valide... Veuillez consulter le guide de l'utilisateur de Databricks pour les schémas d'URI pris en charge.
Cause:
Mauvaise rédaction.
Recommandation: spécifiez soit des chemins absolus pour les schémas d'adressage d'espace de travail, soit
dbfs:/dossier/sous-dossier/foo.py
pour les fichiers stockés dans le système de fichiers Databricks (DFS).
Message:
{0} LinkedService doit avoir domaine et accessToken comme propriétés requises.
Cause:
Mauvaise rédaction.
Recommandation: Vérifiez ledéfinition de service lié.
Message:
{0} LinkedService doit spécifier soit l'ID de cluster existant, soit les nouvelles informations de cluster pour la création.
Cause:
Mauvaise rédaction.
Recommandation: Vérifiez ledéfinition de service lié.
Message:
Le type de nœud Standard_D16S_v3 n'est pas pris en charge. Types de nœuds pris en charge : Standard_DS3_v2, Standard_DS4_v2, Standard_DS5_v2, Standard_D8s_v3, Standard_D16s_v3, Standard_D32s_v3, Standard_D64s_v3, Standard_D3_v2, Standard_D8_v3, Standard_D16_v3, Standard_D32_v3, Standard_D64_v3, Standard_D12_v2, Standard_ D13_v2, Standard_D14_v2, Standard_D15_v2, Standard_DS12_v2, Standard_DS13_v2, Standard_DS14_v2, Standard_DS15_v2, Standard_E8s_v3, Standard_E16s_v3, Standard_E32s_v3, Standard_E64s_v3, Standard_L4s, Standard_L8s, Standard_L16s, Standard_L32s, Standard_F4s, Standard_F8s, Standard_F16s, Standard_H16, Standard_F4s_v2, Standard_F8s_v2, Standard_F16s_v2, Standard_F32s_v2, Standard_F64s_v2, Standard_F72s_v2, Standard_NC 12, Standard_NC24, Standard_NC6s_v3, Standard_NC12s_v3, Standard_NC24s_v3, Standard_L8s_v2, Standard_L16s_v2, Standard_L32s_v2, Standard_L64s_v2, Standard_L80s_v2.
Cause:
Mauvaise rédaction.
Recommandation: Reportez-vous au message d'erreur.
Code d'erreur : 3202
Message:
Il y a déjà eu 1 000 emplois créés au cours des 3 600 dernières secondes, dépassant la limite de taux : 1 000 emplois créés par 3 600 secondes.
Cause:
Trop de Databricks s'exécutent en une heure.
Recommandation: vérifiez tous les pipelines qui utilisent cet espace de travail Databricks pour connaître leur taux de création de tâches. Si les pipelines ont lancé trop d'exécutions Databricks en agrégat, migrez certains pipelines vers un nouvel espace de travail.
Message:
Impossible d'analyser l'objet de requête : la 'clé' et la 'valeur' attendues doivent être définies pour le champ de carte JSON base_parameters, a obtenu 'clé : "..."' à la place.
Cause:
Erreur de création : aucune valeur fournie pour le paramètre.
Recommandation: Inspectez le pipeline JSON et assurez-vous que tous les paramètres du bloc-notes baseParameters spécifient une valeur non vide.
Message:
Utilisateur:
SimpleUserContext{userId=..., name=user@company.com, orgId=...}n'est pas autorisé à accéder au cluster.
Cause: L'utilisateur qui a généré le jeton d'accès n'est pas autorisé à accéder au cluster Databricks spécifié dans le service lié.
Recommandation: assurez-vous que l'utilisateur dispose des autorisations requises dans l'espace de travail.
Message:
La tâche n'est pas encore entièrement initialisée. Veuillez réessayer ultérieurement.
Cause: Le travail n'a pas été initialisé.
Recommandation: Attendez et réessayez plus tard.
Code d'erreur : 3203
Message:
Le cluster est à l'état Terminé, non disponible pour recevoir des travaux. Veuillez corriger le cluster ou réessayer plus tard.
Cause: Le cluster a été arrêté. Pour les clusters interactifs, ce problème peut être une condition de concurrence.
Recommandation: Pour éviter cette erreur, utilisez des clusters de travaux.
Code d'erreur : 3204
Message:
L'exécution de la tâche a échoué.
Cause: les messages d'erreur indiquent divers problèmes, tels qu'un état de cluster inattendu ou une activité spécifique. Souvent, aucun message d'erreur n'apparaît.
Recommandation: N / A
Code d'erreur : 3208
Message:
Une erreur s'est produite lors de l'envoi de la demande.
Cause: La connexion réseau au service Databricks a été interrompue.
Recommandation: Si vous utilisez un runtime d'intégration auto-hébergé, assurez-vous que la connexion réseau est fiable à partir des nœuds du runtime d'intégration. Si vous utilisez le runtime d'intégration Azure, la nouvelle tentative fonctionne généralement.
La sortie d'exécution booléenne commence à apparaître sous forme de chaîne au lieu de l'entier attendu
Symptômes : Votre sortie d'exécution booléenne commence à apparaître sous forme de chaîne (par exemple,
"0"
ou"1"
) au lieu de int attendu (par exemple,0
ou1
).Vous avez remarqué ce changement le 28 septembre 2021 vers 9 h 00 IST lorsque votre pipeline reposant sur cette sortie a commencé à échouer. Aucune modification n'a été apportée au pipeline et la sortie booléenne arrivait comme prévu avant l'échec.
Cause: Ce problème est causé par une modification récente, qui est due à la conception. Après la modification, si le résultat est un nombre qui commence par zéro, Azure Data Factory convertit le nombre en valeur octale, ce qui est un bogue. Ce nombre est toujours 0 ou 1, ce qui n'a jamais causé de problèmes avant le changement. Donc, pour corriger la conversion octale, la sortie de chaîne est transmise à partir de l'exécution de Notebook telle quelle.
Recommandation: Changer lasicondition à quelque chose comme
si(valeur=="0")
.
Azure Data Lake Analytics
Le tableau suivant s'applique à U-SQL.
Code d'erreur : 2709
Message:
Le jeton d'accès provient du mauvais locataire.
Cause: Locataire Azure Active Directory (Azure AD) incorrect.
Recommandation: Locataire Azure Active Directory (Azure AD) incorrect.
Message:
Nous ne pouvons pas accepter votre travail en ce moment. Le nombre maximum de travaux en file d'attente pour votre compte est de 200.
Cause: Cette erreur est causée par la limitation de Data Lake Analytics.
Recommandation: réduisez le nombre de tâches soumises à Data Lake Analytics. Modifiez les déclencheurs et les paramètres de simultanéité des activités ou augmentez les limites de Data Lake Analytics.
Message:
Cette tâche a été rejetée car elle nécessite 24 AU. La stratégie définie par l'administrateur de ce compte empêche une tâche d'utiliser plus de 5 AU.
Cause: Cette erreur est causée par la limitation de Data Lake Analytics.
Recommandation: réduisez le nombre de tâches soumises à Data Lake Analytics. Modifiez les déclencheurs et les paramètres de simultanéité des activités ou augmentez les limites de Data Lake Analytics.
Code d'erreur : 2705
Message:
Interdit. La vérification ACL a échoué. Soit la ressource n'existe pas, soit l'utilisateur n'est pas autorisé à effectuer l'opération demandée.
L'utilisateur ne peut pas accéder à Data Lake Store.
L'utilisateur n'est pas autorisé à utiliser Data Lake Analytics.Cause: le principal du service ou le certificat n'a pas accès au fichier dans le stockage.
Recommandation: Vérifiez que le principal de service ou le certificat que l'utilisateur fournit pour les tâches Data Lake Analytics a accès à la fois au compte Data Lake Analytics et à l'instance Data Lake Storage par défaut à partir du dossier racine.
Code d'erreur : 2711
Message:
Interdit. La vérification ACL a échoué. Soit la ressource n'existe pas, soit l'utilisateur n'est pas autorisé à effectuer l'opération demandée.
L'utilisateur ne peut pas accéder à Data Lake Store.
L'utilisateur n'est pas autorisé à utiliser Data Lake Analytics.Cause: le principal du service ou le certificat n'a pas accès au fichier dans le stockage.
Recommandation: Vérifiez que le principal de service ou le certificat que l'utilisateur fournit pour les tâches Data Lake Analytics a accès à la fois au compte Data Lake Analytics et à l'instance Data Lake Storage par défaut à partir du dossier racine.
Message:
Impossible de trouver le fichier ou le dossier « Azure Data Lake Store ».
Cause: Le chemin d'accès au fichier U-SQL est incorrect ou les informations d'identification du service lié n'y ont pas accès.
Recommandation: vérifiez le chemin et les informations d'identification fournis dans le service lié.
Code d'erreur : 2704
Message:
Interdit. La vérification ACL a échoué. Soit la ressource n'existe pas, soit l'utilisateur n'est pas autorisé à effectuer l'opération demandée.
L'utilisateur ne peut pas accéder à Data Lake Store.
L'utilisateur n'est pas autorisé à utiliser Data Lake Analytics.Cause: le principal du service ou le certificat n'a pas accès au fichier dans le stockage.
Recommandation: Vérifiez que le principal de service ou le certificat que l'utilisateur fournit pour les tâches Data Lake Analytics a accès à la fois au compte Data Lake Analytics et à l'instance Data Lake Storage par défaut à partir du dossier racine.
Code d'erreur : 2707
Message:
Impossible de résoudre le compte AzureDataLakeAnalytics. Veuillez vérifier 'AccountName' et 'DataLakeAnalyticsUri'.
Cause : Le compte Data Lake Analytics dans le service lié est incorrect.
Recommandation: Vérifiez que le bon compte est fourni.
Code d'erreur : 2703
Message:
ID d'erreur : E_CQO_SYSTEM_INTERNAL_ERROR (ou toute erreur commençant par "ID d'erreur :").
Cause: L'erreur provient de Data Lake Analytics.
Recommandation: La tâche a été soumise à Data Lake Analytics, et le script qui s'y trouve a tous deux échoué. Enquêtez sur Data Lake Analytics. Dans le portail, accédez au compte Data Lake Analytics et recherchez la tâche à l'aide de l'ID d'exécution de l'activité Data Factory (n'utilisez pas l'ID d'exécution du pipeline). Le travail fourni ici fournit plus d'informations sur l'erreur et vous aidera à résoudre le problème.
Si la résolution n'est pas claire, contactez l'équipe d'assistance de Data Lake Analytics et fournissez l'URL de la tâche Universal Resource Locator (URL), qui inclut le nom de votre compte et l'ID de la tâche.
Fonctions Azure
Code d'erreur : 3602
Message:
Méthode Http non valide : '%méthode ;'.
Cause: La méthode Httpmethod spécifiée dans la charge utile de l'activité n'est pas prise en charge par Azure Function Activity.
Recommandation: Les méthodes Http prises en charge sont : PUT, POST, GET, DELETE, OPTIONS, HEAD et TRACE.
Code d'erreur : 3603
Message:
Le contenu de la réponse n'est pas un JObject valide.
Cause: La fonction Azure qui a été appelée n'a pas renvoyé de charge utile JSON dans la réponse. Azure Data Factory et l'activité de la fonction Azure du pipeline Synapse prennent uniquement en charge le contenu de réponse JSON.
Recommandation: Mettez à jour la fonction Azure pour renvoyer une charge utile JSON valide telle qu'une fonction C# peut renvoyer
(ActionResult)new OkObjectResult("{\"Id\":\"123\"}");
Code d'erreur : 3606
Message: Clé de fonction manquante pour l'activité de la fonction Azure.
Cause: la définition de l'activité de la fonction Azure n'est pas complète.
Recommandation: vérifiez que la définition JSON de l'activité de fonction Azure d'entrée a une propriété nommée
clé de fonction
.
Code d'erreur : 3607
Message:
Nom de fonction manquant dans l'activité de la fonction Azure.
Cause: la définition de l'activité de la fonction Azure n'est pas complète.
Recommandation: vérifiez que la définition JSON de l'activité de fonction Azure d'entrée a une propriété nommée
nom_fonction
.
Code d'erreur : 3608
Message:
Appel à la fonction Azure fournie '%FunctionName;' a échoué avec status-'%statusCode;' et message - '% message;'.
Cause: Les détails de la fonction Azure dans la définition de l'activité peuvent être incorrects.
Recommandation: corrigez les détails de la fonction Azure et réessayez.
Code d'erreur : 3609
Message:
Activité de la fonction Azure manquante functionAppUrl.
Cause: la définition de l'activité de la fonction Azure n'est pas complète.
Recommandation: vérifiez que la définition JSON de l'activité Azure Function d'entrée a une propriété nommée
functionAppUrl
.
Code d'erreur : 3610
Message:
Une erreur s'est produite lors de l'appel du point de terminaison.
Cause: L'URL de la fonction est peut-être incorrecte.
Recommandation: Vérifiez que la valeur de
functionAppUrl
dans l'activité JSON est correct et réessayez.
Code d'erreur : 3611
Message:
Activité de fonction Azure manquante Méthode dans JSON.
Cause: la définition de l'activité de la fonction Azure n'est pas complète.
Recommandation: vérifiez que la définition JSON de l'activité de fonction Azure d'entrée a une propriété nommée
méthode
.
Code d'erreur : 3612
Message:
L'activité de la fonction Azure manque la définition de LinkedService dans JSON.
Cause: la définition de l'activité de la fonction Azure n'est pas complète.
Recommandation: vérifiez que la définition JSON de l'activité de fonction Azure d'entrée contient les détails du service lié.
Apprentissage automatique Azure
Code d'erreur : 4101
Message:
Activité AzureMLExecutePipeline '%activityName;' a une valeur non valide pour la propriété '%propertyName;'.
Cause: Mauvais format ou définition manquante de la propriété
%nom de la propriété;
.Recommandation: Vérifiez si l'activité
%activityName ;
a la propriété%nom de la propriété;
défini avec des données correctes.
Code d'erreur : 4110
Message:
Activité AzureMLExecutePipeline manquant dans la définition LinkedService dans JSON.
Cause: La définition de l'activité AzureMLExecutePipeline n'est pas complète.
Recommandation: Vérifiez que la définition JSON d'entrée de l'activité AzureMLExecutePipeline a correctement lié les détails du service.
Code d'erreur : 4111
Message:
L'activité AzureMLExecutePipeline a un type LinkedService incorrect dans JSON. Type de LinkedService attendu : '%expectedLinkedServiceType;', type de LinkedService actuel : type de LinkedService attendu : '%currentLinkedServiceType;'.
Cause: Définition d'activité incorrecte.
Recommandation: Vérifiez que la définition JSON d'entrée de l'activité AzureMLExecutePipeline a correctement lié les détails du service.
Code d'erreur : 4112
Message:
Le service lié AzureMLService a une valeur non valide pour la propriété '%propertyName;'.
Cause: Format incorrect ou définition manquante de la propriété '%propertyName;'.
Recommandation: Vérifiez si le service lié a la propriété
%nom de la propriété;
défini avec des données correctes.
Code d'erreur : 4121
Message:
Requête envoyée à Azure Machine Learning pour l'opération '%operation;' a échoué avec le code d'état http '%statusCode;'. Message d'erreur d'Azure Machine Learning : '%externalMessage;'.
Cause: les informations d'identification utilisées pour accéder à Azure Machine Learning ont expiré.
Recommandation: Vérifiez que les informations d'identification sont valides et réessayez.
Code d'erreur : 4122
Message:
Requête envoyée à Azure Machine Learning pour l'opération '%operation;' a échoué avec le code d'état http '%statusCode;'. Message d'erreur d'Azure Machine Learning : '%externalMessage;'.
Cause: les informations d'identification fournies dans Azure Machine Learning Linked Service ne sont pas valides ou n'ont pas d'autorisation pour l'opération.
Recommandation: vérifiez que les informations d'identification dans le service lié sont valides et qu'elles sont autorisées à accéder à Azure Machine Learning.
Code d'erreur : 4123
Message:
Requête envoyée à Azure Machine Learning pour l'opération '%operation;' a échoué avec le code d'état http '%statusCode;'. Message d'erreur d'Azure Machine Learning : '%externalMessage;'.
Cause: Les propriétés de l'activité telles que
pipelineParameters
ne sont pas valides pour le pipeline Azure Machine Learning (ML).Recommandation: vérifiez que la valeur des propriétés d'activité correspond à la charge utile attendue du pipeline Azure ML publié spécifié dans le service lié.
Code d'erreur : 4124
Message:
Requête envoyée à Azure Machine Learning pour l'opération '%operation;' a échoué avec le code d'état http '%statusCode;'. Message d'erreur d'Azure Machine Learning : '%externalMessage;'.
Cause: le point de terminaison de pipeline Azure ML publié n'existe pas.
Recommandation: vérifiez que le point de terminaison de pipeline Azure Machine Learning publié spécifié dans le service lié existe dans Azure Machine Learning.
Code d'erreur : 4125
Message:
Requête envoyée à Azure Machine Learning pour l'opération '%operation;' a échoué avec le code d'état http '%statusCode;'. Message d'erreur d'Azure Machine Learning : '%externalMessage;'.
Cause: Il y a une erreur de serveur sur Azure Machine Learning.
Recommandation: Réessayez plus tard. Contactez l'équipe Azure Machine Learning pour obtenir de l'aide si le problème persiste.
Code d'erreur : 4126
Message:
L'exécution du pipeline Azure ML a échoué avec l'état : '%amlPipelineRunStatus;'. ID d'exécution du pipeline Azure ML : '%amlPipelineRunId;'. Veuillez consulter Azure Machine Learning pour plus de journaux d'erreurs.
Cause: L'exécution du pipeline Azure ML a échoué.
Recommandation: Consultez Azure Machine Learning pour plus de journaux d'erreurs, puis corrigez le pipeline ML.
Azure Synapse Analytique
Code d'erreur : 3250
Message:
Il n'y a pas assez de ressources disponibles dans l'espace de travail, détails : '%errorMessage;'
Cause: Ressources insuffisantes
Recommandation: essayez de mettre fin aux tâches en cours d'exécution dans l'espace de travail, de réduire le nombre de vCores demandés, d'augmenter le quota de l'espace de travail ou d'utiliser un autre espace de travail.
Code d'erreur : 3251
Message:
Il n'y a pas assez de ressources disponibles dans le pool, détails : '%errorMessage;'
Cause: Ressources insuffisantes
Recommandation: essayez de mettre fin aux tâches en cours d'exécution dans le pool, de réduire le nombre de vCores demandés, d'augmenter la taille maximale du pool ou d'utiliser un autre pool.
Code d'erreur : 3252
Message:
Il n'y a pas assez de vcores disponibles pour votre tâche Spark, détails : '%errorMessage;'
Cause: Vcores insuffisants
Recommandation: Essayez de réduire le nombre de vCores demandés ou d'augmenter votre quota de vCore. Pour plus d'informations, voirConcepts de base d'Apache Spark.
Code d'erreur : 3253
Message:
Il existe d'importantes exécutions MappingDataflow simultanées qui provoquent des échecs en raison de la limitation sous le runtime d'intégration utilisé pour ActivityId : '%activityId;'.
Cause: Le seuil de limitation a été atteint.
Recommandation: Réessayez la demande après une période d'attente.
Code d'erreur : 3254
Message:
Le service lié AzureSynapseArtifacts a une valeur non valide pour la propriété '%propertyName;'.
Cause: Format incorrect ou définition manquante de la propriété '%propertyName;'.
Recommandation: Vérifiez si le service lié a la propriété '%propertyName;' défini avec des données correctes.
Commun
Code d'erreur : 2103
Message:
Veuillez fournir une valeur pour la propriété requise '%propertyName;'.
Cause: La valeur requise pour la propriété n'a pas été fournie.
Recommandation: fournissez la valeur du message et réessayez.
Code d'erreur : 2104
Message:
Le type de la propriété '%propertyName;' est incorrect.
Cause: Le type de propriété fourni n'est pas correct.
Recommandation: Corrigez le type de la propriété et réessayez.
Code d'erreur : 2105
Message:
Un json non valide est fourni pour la propriété '%propertyName;'. Une erreur s'est produite lors de la tentative d'analyse : '%message;'.
Cause: La valeur de la propriété n'est pas valide ou n'est pas au format attendu.
Recommandation: Reportez-vous à la documentation de la propriété et vérifiez que la valeur fournie inclut le format et le type corrects.
Code d'erreur : 2106
Message:
La chaîne de connexion au stockage n'est pas valide. %Message d'erreur;
Cause: La chaîne de connexion pour le stockage n'est pas valide ou a un format incorrect.
Recommandation: accédez au portail Azure et recherchez votre espace de stockage, puis copiez-collez la chaîne de connexion dans votre service lié et réessayez.
Code d'erreur : 2110
Message:
Le type de service lié '%linkedServiceType;' n'est pas pris en charge pour '%executorType;' activités.
Cause: Le service lié spécifié dans l'activité est incorrect.
Recommandation: vérifiez que le type de service lié est l'un des types pris en charge pour l'activité. Par exemple, le type de service lié pour les activités HDI peut être HDInsight ou HDInsightOnDemand.
Code d'erreur : 2111
Message:
Le type de la propriété '%propertyName;' est incorrect. Le type attendu est %expectedType;.
Cause: Le type de la propriété fournie n'est pas correct.
Recommandation: corrigez le type de propriété et réessayez.
Code d'erreur : 2112
Message:
Le type de cloud n'est pas pris en charge ou n'a pas pu être déterminé pour le stockage à partir du suffixe EndpointSuffix '%endpointSuffix;'.
Cause : Le type de cloud n'est pas pris en charge ou n'a pas pu être déterminé pour le stockage à partir du suffixe du point de terminaison.
Recommandation: utilisez le stockage dans un autre cloud et réessayez.
Coutume
Le tableau suivant s'applique à Azure Batch.
Code d'erreur : 2500
Message:
Hit exception inattendue et l'exécution a échoué.
Cause:
Impossible de lancer la commande ou le programme a renvoyé un code d'erreur.
Recommandation: Assurez-vous que le fichier exécutable existe. Si le programme a démarré, vérifiez questdout.txtetstderr.txtont été chargés sur le compte de stockage. Il est recommandé d'inclure des journaux dans votre code pour le débogage.
Code d'erreur : 2501
Message:
Impossible d'accéder au compte batch de l'utilisateur ; veuillez vérifier les paramètres du compte de lot.
Cause: Clé d'accès Batch ou nom de pool incorrect.
Recommandation: vérifiez le nom du pool et la clé d'accès Batch dans le service lié.
Code d'erreur : 2502
Message:
Impossible d'accéder au compte de stockage de l'utilisateur ; veuillez vérifier les paramètres du compte de stockage.
Cause: Nom de compte de stockage ou clé d'accès incorrect.
Recommandation: vérifiez le nom du compte de stockage et la clé d'accès dans le service lié.
Code d'erreur : 2504
Message:
L'opération a renvoyé un code d'état non valide "BadRequest".
Cause: Trop de fichiers dans le
dossierChemin
de l'activité personnalisée. La taille totale deFichiersressource
ne peut pas dépasser 32 768 caractères.Recommandation: supprimez les fichiers inutiles ou compressez-les et ajoutez une commande de décompression pour les extraire.
Par exemple, utilisez
powershell.exe -nologo -noprofile -command "& { Add-Type -A 'System.IO.Compression.FileSystem'; [IO.Compression.ZipFile]::ExtractToDirectory($zipFile, $folder); }" ; $dossier\votreProgramme.exe
Code d'erreur : 2505
Message:
Impossible de créer une signature d'accès partagé à moins que les informations d'identification de la clé de compte ne soient utilisées.
Cause: les activités personnalisées ne prennent en charge que les comptes de stockage qui utilisent une clé d'accès.
Recommandation: Reportez-vous à la description de l'erreur.
Code d'erreur : 2507
Message:
Le chemin du dossier n'existe pas ou est vide : ...
Cause: Aucun fichier ne se trouve dans le compte de stockage au chemin spécifié.
Recommandation: Le chemin du dossier doit contenir les fichiers exécutables que vous souhaitez exécuter.
Code d'erreur : 2508
Message:
Il y a des fichiers en double dans le dossier de ressources.
Cause: Plusieurs fichiers portant le même nom se trouvent dans différents sous-dossiers de folderPath.
Recommandation: Les activités personnalisées aplatissent la structure des dossiers sous folderPath. Si vous devez conserver la structure des dossiers, compressez les fichiers et extrayez-les dans Azure Batch à l'aide d'une commande unzip.
Par exemple, utilisez
powershell.exe -nologo -noprofile -command "& { Add-Type -A 'System.IO.Compression.FileSystem'; [IO.Compression.ZipFile]::ExtractToDirectory($zipFile, $folder); }" ; $dossier\votreProgramme.exe
Code d'erreur : 2509
Message:
L'URL du lot ... n'est pas valide ; il doit être au format Uri.
Cause : les URL de lot doivent être similaires à
https://mybatchaccount.eastus.batch.azure.com
Recommandation: Reportez-vous à la description de l'erreur.
Code d'erreur : 2510
Message:
Une erreur s'est produite lors de l'envoi de la demande.
Cause: L'URL du lot n'est pas valide.
Recommandation: vérifiez l'URL du lot.
HDInsight
Code d'erreur : 206
Message:
L'ID de lot pour la tâche Spark n'est pas valide. Veuillez réessayer votre travail.
Cause: Il y a eu un problème interne avec le service qui a causé cette erreur.
Recommandation: Ce problème peut être passager. Réessayez votre travail après un certain temps.
Code d'erreur : 207
Message:
Impossible de déterminer la région à partir du compte de stockage fourni. Veuillez essayer d'utiliser un autre compte de stockage principal pour l'IDH à la demande.
Cause: Une erreur interne s'est produite lors de la tentative de détermination de la région à partir du compte de stockage principal.
Recommandation: Essayez un autre stockage.
Code d'erreur : 208
Message:
Le principal de service ou l'authentificateur MSI ne sont pas instanciés. Veuillez envisager de fournir un principal de service dans le service lié HDI à la demande qui dispose des autorisations nécessaires pour créer un cluster HDInsight dans l'abonnement fourni, puis réessayez.
Cause: Une erreur interne s'est produite lors de la tentative de lecture du principal du service ou de l'instanciation de l'authentification MSI.
Recommandation: Envisagez de fournir un principal de service, qui dispose des autorisations nécessaires pour créer un cluster HDInsight dans l'abonnement fourni, puis réessayez. Vérifiez que leGérer les identités sont configurés correctement.
Code d'erreur : 2300
Message:
Échec de la soumission du travail '%jobId;' au cluster '%cluster;'. Erreur : % message d'erreur ;.
Cause: Le message d'erreur contient un message similaire à
Le nom distant n'a pas pu être résolu.
. L'URI de cluster fourni n'est peut-être pas valide.Recommandation : Vérifiez que le cluster n'a pas été supprimé et que l'URI fourni est correct. Lorsque vous ouvrez l'URI dans un navigateur, vous devriez voir l'interface utilisateur Ambari. Si le cluster se trouve dans un réseau virtuel, l'URI doit être l'URI privé. Pour l'ouvrir, utilisez une machine virtuelle (VM) qui fait partie du même réseau virtuel.
Pour plus d'informations, voirConnectez-vous directement aux services Apache Hadoop.
Cause: Si le message d'erreur contient un message similaire à
Une tâche a été annulée.
, la soumission du travail a expiré.Recommandation: Le problème peut être lié à la connectivité générale de HDInsight ou à la connectivité réseau. Vérifiez d'abord que l'interface utilisateur HDInsight Ambari est disponible depuis n'importe quel navigateur. Vérifiez ensuite que vos identifiants sont toujours valides.
Si vous utilisez un environnement d'exécution intégré (IR) auto-hébergé, effectuez cette étape à partir de la machine virtuelle ou de la machine sur laquelle l'IR auto-hébergé est installé. Essayez ensuite de soumettre à nouveau le travail.
Pour plus d'informations, lisezInterface utilisateur Web Ambari.
Cause: Lorsque le message d'erreur contient un message similaire à
L'administrateur de l'utilisateur est verrouillé dans Ambari
ouNon autorisé : le nom d'utilisateur ou le mot de passe Ambari est incorrect
, les informations d'identification pour HDInsight sont incorrectes ou ont expiré.Recommandation: Corrigez les informations d'identification et redéployez le service lié. Vérifiez d'abord que les informations d'identification fonctionnent sur HDInsight en ouvrant l'URI du cluster sur n'importe quel navigateur et en essayant de vous connecter. Si les informations d'identification ne fonctionnent pas, vous pouvez les réinitialiser à partir du portail Azure.
Pour le cluster ESP, réinitialisez le mot de passe viaréinitialisation du mot de passe en libre-service.
Cause: Lorsque le message d'erreur contient un message similaire à
502 - Le serveur Web a reçu une réponse non valide alors qu'il agissait en tant que passerelle ou serveur proxy
, cette erreur est renvoyée par le service HDInsight.Recommandation: Une erreur 502 se produit souvent lorsque votre processus Ambari Server a été arrêté. Vous pouvez redémarrer les services Ambari en redémarrant le nœud principal.
Connectez-vous à l'un de vos nœuds sur HDInsight à l'aide de SSH.
Identifiez votre hôte de nœud principal actif en exécutant
ping headnodehost
.Connectez-vous à votre nœud principal actif car Ambari Server se trouve sur le nœud principal actif à l'aide de SSH.
Redémarrez le nœud principal actif.
Pour plus d'informations, consultez la documentation de dépannage d'Azure HDInsight. Par exemple:
- Erreur Ambar UI 502
- RpcTimeoutException pour le serveur d'épargne Apache Spark
- Dépannage des erreurs de passerelle incorrecte dans Application Gateway.
Cause: Lorsque le message d'erreur contient un message similaire à
Impossible de traiter la demande de soumission de travail car le service templeton est occupé par trop de demandes de soumission de travail
ouLa file d'attente root.joblauncher a déjà 500 candidatures, ne peut pas accepter la soumission de la candidature
, trop de travaux sont soumis à HDInsight en même temps.Recommandation: limitez le nombre de tâches simultanées soumises à HDInsight. Reportez-vous à la simultanéité des activités si les travaux sont soumis par la même activité. Modifiez les déclencheurs afin que les exécutions simultanées du pipeline soient réparties dans le temps.
Faire référence àDocumentation HDInsightajuster
templeton.parallellism.job.submit
comme le suggère l'erreur.
Code d'erreur : 2301
Message:
Impossible d'obtenir le statut de l'application '%physicalJobId;' du service HDInsight. A reçu l'erreur suivante : %message;. Veuillez vous référer à la documentation de dépannage de HDInsight ou contacter leur support pour plus d'assistance.
Cause: Le cluster ou le service HDInsight a des problèmes.
Recommandation: Cette erreur se produit lorsque le service ne reçoit pas de réponse du cluster HDInsight lorsqu'il tente de demander l'état de la tâche en cours d'exécution. Ce problème peut être sur le cluster lui-même, ou le service HDInsight peut avoir une panne.
Faire référence àDocumentation de dépannage HDInsight, ou contactez le support Microsoft pour obtenir de l'aide.
Code d'erreur : 2302
Message:
La tâche Hadoop a échoué avec le code de sortie '%exitCode;'. Voir '%logPath;/stderr' pour plus de détails. Vous pouvez également ouvrir l'interface utilisateur Ambari sur le cluster HDI et rechercher les journaux de la tâche '%jobId;'. Contactez l'équipe HDInsight pour une assistance supplémentaire.
Cause: Le travail a été soumis au cluster HDI et y a échoué.
Recommandation:
- Vérifiez l'interface utilisateur d'Ambari :
- Assurez-vous que tous les services sont toujours en cours d'exécution.
- À partir de l'interface utilisateur d'Ambari, consultez la section d'alerte de votre tableau de bord.
- Pour plus d'informations sur les alertes et les résolutions d'alertes, voirGestion et surveillance d'un cluster.
- Passez en revue votre mémoire YARN. Si votre mémoire YARN est élevée, le traitement de vos travaux peut être retardé. Si vous ne disposez pas de suffisamment de ressources pour prendre en charge votre application/tâche Spark, faites évoluer le cluster pour vous assurer qu'il dispose de suffisamment de mémoire et de cœurs.
- Exécutez un exemple de tâche de test.
- Si vous exécutez la même tâche sur le backend HDInsight, vérifiez qu'elle a réussi. Pour des exemples d'exécutions d'échantillons, voirExécutez les exemples MapReduce inclus dans HDInsight
- Si la tâche échoue toujours sur HDInsight, vérifiez les journaux d'application et les informations à fournir à l'assistance :
- Vérifiez si le travail a été soumis à YARN. Si le travail n'a pas été soumis à yarn, utilisez
--maître fil
. - Si l'application a terminé son exécution, collectez l'heure de début et l'heure de fin de l'application YARN. Si l'application n'a pas terminé l'exécution, collectez l'heure de début/l'heure de lancement.
- Vérifiez et collectez le journal des applications avec
journaux de fils -applicationId
. - Vérifiez et collectez les journaux du gestionnaire de ressources de fil sous le
/var/log/hadoop-fil/fil
annuaire. - Si ces étapes ne suffisent pas à résoudre le problème, contactez l'équipe Azure HDInsight pour obtenir de l'aide et fournissez les journaux et les horodatages ci-dessus.
- Vérifiez si le travail a été soumis à YARN. Si le travail n'a pas été soumis à yarn, utilisez
Code d'erreur : 2303
Message:
La tâche Hadoop a échoué avec le code de sortie transitoire '%exitCode;'. Voir '%logPath;/stderr' pour plus de détails. Vous pouvez également ouvrir l'interface utilisateur Ambari sur le cluster HDI et rechercher les journaux de la tâche '%jobId;'. Réessayez ou contactez l'équipe HDInsight pour une assistance supplémentaire.
Cause: Le travail a été soumis au cluster HDI et y a échoué.
Recommandation:
- Vérifiez l'interface utilisateur d'Ambari :
- Assurez-vous que tous les services sont toujours en cours d'exécution.
- À partir de l'interface utilisateur d'Ambari, consultez la section d'alerte de votre tableau de bord.
- Pour plus d'informations sur les alertes et les résolutions d'alertes, voirGestion et surveillance d'un cluster.
- Passez en revue votre mémoire YARN. Si votre mémoire YARN est élevée, le traitement de vos travaux peut être retardé. Si vous ne disposez pas de suffisamment de ressources pour prendre en charge votre application/tâche Spark, faites évoluer le cluster pour vous assurer qu'il dispose de suffisamment de mémoire et de cœurs.
- Exécutez un exemple de tâche de test.
- Si vous exécutez la même tâche sur le backend HDInsight, vérifiez qu'elle a réussi. Pour des exemples d'exécutions d'échantillons, voirExécutez les exemples MapReduce inclus dans HDInsight
- Si la tâche échoue toujours sur HDInsight, vérifiez les journaux d'application et les informations à fournir à l'assistance :
- Vérifiez si le travail a été soumis à YARN. Si le travail n'a pas été soumis à yarn, utilisez
--maître fil
. - Si l'application a terminé son exécution, collectez l'heure de début et l'heure de fin de l'application YARN. Si l'application n'a pas terminé l'exécution, collectez l'heure de début/l'heure de lancement.
- Vérifiez et collectez le journal des applications avec
journaux de fils -applicationId
. - Vérifiez et collectez les journaux du gestionnaire de ressources de fil sous le
/var/log/hadoop-fil/fil
annuaire. - Si ces étapes ne suffisent pas à résoudre le problème, contactez l'équipe Azure HDInsight pour obtenir de l'aide et fournissez les journaux et les horodatages ci-dessus.
- Vérifiez si le travail a été soumis à YARN. Si le travail n'a pas été soumis à yarn, utilisez
Code d'erreur : 2304
Message:
L'authentification MSI n'est pas prise en charge sur les stockages pour les activités HDI.
Cause: Les services liés au stockage utilisés dans le service lié HDInsight (HDI) ou l'activité HDI sont configurés avec une authentification MSI qui n'est pas prise en charge.
Recommandation: fournissez des chaînes de connexion complètes pour les comptes de stockage utilisés dans le service lié HDI ou l'activité HDI.
Code d'erreur : 2305
Message:
Échec de l'initialisation du client HDInsight pour le cluster '%cluster;'. Message d'erreur;'
Cause: Les informations de connexion pour le cluster HDI sont incorrectes, l'utilisateur fourni n'a pas les autorisations pour effectuer l'action requise ou le service HDInsight a des problèmes pour répondre aux demandes du service.
Recommandation: vérifiez que les informations utilisateur sont correctes et que l'interface utilisateur Ambari pour le cluster HDI peut être ouverte dans un navigateur à partir de la machine virtuelle sur laquelle l'IR est installé (pour un IR auto-hébergé), ou peut être ouverte à partir de n'importe quelle machine (pour Azure IR).
Code d'erreur : 2306
Message:
Un json non valide est fourni pour l'action de script '%scriptActionName;'. Message d'erreur;'
Cause: Le JSON fourni pour l'action de script n'est pas valide.
Recommandation: Le message d'erreur devrait aider à identifier le problème. Corrigez la configuration json et réessayez.
VérifierService lié à la demande Azure HDInsightpour plus d'informations.
Code d'erreur : 2310
Message:
Échec de l'envoi de la tâche Spark. Message d'erreur;'
Cause : Le service a tenté de créer un lot sur un cluster Spark à l'aide de l'API Livy (livy/batch), mais a reçu une erreur.
Recommandation: suivez le message d'erreur pour résoudre le problème. S'il n'y a pas suffisamment d'informations pour résoudre le problème, contactez l'équipe HDI et fournissez-leur l'ID de lot et l'ID de tâche, qui se trouvent dans la sortie d'exécution de l'activité sur la page Surveillance du service. Pour poursuivre le dépannage, collectez le journal complet du travail par lots.
Pour plus d'informations sur la collecte du journal complet, voirObtenir le journal complet d'un travail par lots.
Code d'erreur : 2312
Message:
Échec de la tâche Spark, ID de lot : %batchId ;. Veuillez suivre les liens dans la sortie d'exécution de l'activité de la page de surveillance du service pour dépanner l'exécution sur le cluster HDInsight Spark. Veuillez contacter l'équipe d'assistance HDInsight pour obtenir de l'aide.
Cause: La tâche a échoué sur le cluster HDInsight Spark.
Recommandation: suivez les liens dans l'exécution de l'activité sortie dans la page de surveillance du service pour dépanner l'exécution sur le cluster HDInsight Spark. Contactez l'équipe d'assistance HDInsight pour obtenir de l'aide.
Pour plus d'informations sur la collecte du journal complet, voirObtenir le journal complet d'un travail par lots.
Code d'erreur : 2313
Message:
Le lot avec l'ID '%batchId;' n'a pas été trouvé sur le cluster Spark. Ouvrez l'interface utilisateur de l'historique Spark et essayez de le trouver là-bas. Contactez l'assistance HDInsight pour obtenir de l'aide.
Cause: Le lot a été supprimé sur le cluster HDInsight Spark.
Recommandation: Dépannez les lots sur le cluster HDInsight Spark. Contactez l'assistance HDInsight pour obtenir de l'aide.
Pour plus d'informations sur la collecte du journal complet, voirObtenir le journal complet d'un travail par lots, et partagez le journal complet avec l'assistance HDInsight pour obtenir de l'aide.
Code d'erreur : 2328
Message:
Échec de la création du cluster HDI à la demande. Nom du cluster ou du service lié : '%clusterName;', erreur : '%message;'
Cause: Le message d'erreur doit montrer les détails de ce qui s'est mal passé.
Recommandation: Le message d'erreur devrait aider à résoudre le problème.
Code d'erreur : 2329
Message:
Échec de la suppression du cluster HDI à la demande. Nom du cluster ou du service lié : '%clusterName;', erreur : '%message;'
Cause: Le message d'erreur doit montrer les détails de ce qui s'est mal passé.
Recommandation: Le message d'erreur devrait aider à résoudre le problème.
Code d'erreur : 2331
Message:
Le chemin du fichier ne doit pas être nul ou vide.
Cause: Le chemin d'accès au fichier fourni est vide.
Recommandation: fournissez un chemin pour un fichier qui existe.
Code d'erreur : 2340
Message:
Le service lié HDInsightOnDemand ne prend pas en charge l'exécution via SelfHosted IR. Votre nom IR est '%IRName;'. Veuillez sélectionner un Azure IR à la place.
Cause: Le service lié HDInsightOnDemand ne prend pas en charge l'exécution via SelfHosted IR.
Recommandation: Sélectionnez un Azure IR et réessayez.
Code d'erreur : 2341
Message:
URL du cluster HDInsight '%clusterUrl;' est incorrect, il doit être au format URI et le schéma doit être 'https'.
Cause: L'URL fournie n'est pas au bon format.
Recommandation: Corrigez l'URL du cluster et réessayez.
Code d'erreur : 2342
Message:
Échec de la connexion au cluster HDInsight : '%errorMessage;'.
Cause: Soit les informations d'identification fournies sont erronées pour le cluster, soit il y a eu un problème de configuration réseau ou de connexion, soit l'IR a des problèmes de connexion au cluster.
Recommandation:
Vérifiez que les informations d'identification sont correctes en ouvrant l'interface utilisateur Ambari du cluster HDInsight dans un navigateur.
Si le cluster se trouve dans un réseau virtuel (VNet) et qu'un IR auto-hébergé est utilisé, l'URL HDI doit être l'URL privée dans les réseaux virtuels et doit avoir
-int
répertorié après le nom du cluster.Par exemple, changez
https://mycluster.azurehdinsight.net/
pourhttps://mycluster-int.azurehdinsight.net/
. Noter la-int
aprèsmoncluster
, mais avant.azurehdinsight.net
Si le cluster se trouve dans le réseau virtuel, que l'IR auto-hébergé est utilisé et que l'URL privée a été utilisée, et que la connexion échoue toujours, la machine virtuelle sur laquelle l'IR est installé a eu des problèmes de connexion au HDI.
Connectez-vous à la machine virtuelle sur laquelle l'IR est installé et ouvrez l'interface utilisateur Ambari dans un navigateur. Utilisez l'URL privée du cluster. Cette connexion devrait fonctionner à partir du navigateur. Si ce n'est pas le cas, contactez l'équipe d'assistance HDInsight pour obtenir de l'aide.
Si l'IR auto-hébergé n'est pas utilisé, le cluster HDI doit être accessible publiquement. Ouvrez l'interface utilisateur Ambari dans un navigateur et vérifiez qu'elle s'ouvre. En cas de problème avec le cluster ou les services qu'il contient, contactez l'équipe de support HDInsight pour obtenir de l'aide.
L'URL du cluster HDI utilisée dans le service lié doit être accessible pour l'IR (auto-hébergé ou Azure) pour que la connexion de test réussisse et que les exécutions fonctionnent. Cet état peut être vérifié en ouvrant l'URL depuis un navigateur soit depuis une VM, soit depuis n'importe quelle machine publique.
Code d'erreur : 2343
Message:
Le nom d'utilisateur et le mot de passe ne peuvent pas être nuls ou vides pour se connecter au cluster HDInsight.
Cause: Le nom d'utilisateur ou le mot de passe est vide.
Recommandation: fournissez les informations d'identification correctes pour vous connecter à HDI et réessayez.
Code d'erreur : 2345
Message:
Impossible de lire le contenu du script Hive. Message d'erreur;'
Cause: Le fichier de script n'existe pas ou le service n'a pas pu se connecter à l'emplacement du script.
Recommandation: vérifiez que le script existe et que le service lié associé dispose des informations d'identification appropriées pour une connexion.
Code d'erreur : 2346
Message:
Échec de la création de la connexion ODBC au cluster HDI avec le message d'erreur '%message;'.
Cause: Le service a tenté d'établir une connexion ODBC (Open Database Connectivity) avec le cluster HDI, et cela a échoué avec une erreur.
Recommandation:
- Vérifiez que vous avez correctement configuré votre connexion ODBC/Java Database Connectivity (JDBC).
- Pour JDBC, si vous utilisez le même réseau virtuel, vous pouvez obtenir cette connexion depuis :
Hive -> Résumé -> URL JDBC HIVESERVER2
- Pour vous assurer que vous disposez de la bonne configuration JDBC, consultezInterroger Apache Hive via le pilote JDBC dans HDInsight.
- Pour Open Database (ODB), voirTutoriel : Interroger Apache Hive avec ODBC et PowerShellpour vous assurer que vous avez la bonne configuration.
- Pour JDBC, si vous utilisez le même réseau virtuel, vous pouvez obtenir cette connexion depuis :
- Vérifiez que Hiveserver2, Hive Metastore et Hiveserver2 Interactive sont actifs et fonctionnent.
- Vérifiez l'interface utilisateur (UI) d'Ambari :
- Assurez-vous que tous les services sont toujours en cours d'exécution.
- Dans l'interface utilisateur d'Ambari, consultez la section d'alerte de votre tableau de bord.
- Pour plus d'informations sur les alertes et les résolutions d'alertes, voirGestion et surveillance d'un cluster.
- Si ces étapes ne suffisent pas à résoudre le problème, contactez l'équipe Azure HDInsight.
- Vérifiez que vous avez correctement configuré votre connexion ODBC/Java Database Connectivity (JDBC).
Code d'erreur : 2347
Message:
L'exécution de Hive via ODBC a échoué avec le message d'erreur '% message;'.
Cause: Le service a soumis le script hive pour exécution au cluster HDI via une connexion ODBC, et le script a échoué sur HDI.
Recommandation:
- Vérifiez que vous avez correctement configuré votre connexion ODBC/Java Database Connectivity (JDBC).
- Pour JDBC, si vous utilisez le même réseau virtuel, vous pouvez obtenir cette connexion depuis :
Hive -> Résumé -> URL JDBC HIVESERVER2
- Pour vous assurer que vous disposez de la bonne configuration JDBC, consultezInterroger Apache Hive via le pilote JDBC dans HDInsight.
- Pour Open Database (ODB), voirTutoriel : Interroger Apache Hive avec ODBC et PowerShellpour vous assurer que vous avez la bonne configuration.
- Pour JDBC, si vous utilisez le même réseau virtuel, vous pouvez obtenir cette connexion depuis :
- Vérifiez que Hiveserver2, Hive Metastore et Hiveserver2 Interactive sont actifs et fonctionnent.
- Vérifiez l'interface utilisateur (UI) d'Ambari :
- Assurez-vous que tous les services sont toujours en cours d'exécution.
- Dans l'interface utilisateur d'Ambari, consultez la section d'alerte de votre tableau de bord.
- Pour plus d'informations sur les alertes et les résolutions d'alertes, voirGestion et surveillance d'un cluster.
- Si ces étapes ne suffisent pas à résoudre le problème, contactez l'équipe Azure HDInsight.
- Vérifiez que vous avez correctement configuré votre connexion ODBC/Java Database Connectivity (JDBC).
Code d'erreur : 2348
Message:
Le stockage principal n'a pas été initialisé. Veuillez vérifier les propriétés du service lié au stockage dans le service lié HDI.
Cause: Les propriétés du service lié au stockage ne sont pas définies correctement.
Recommandation: seules les chaînes de connexion complètes sont prises en charge dans le service lié au stockage principal pour les activités HDI. Vérifiez que vous n'utilisez pas d'autorisations ou d'applications MSI.
Code d'erreur : 2350
Message:
Impossible de préparer les fichiers pour l'exécution '%jobId;'. Cluster HDI : '%cluster;', erreur : '%errorMessage;'
Cause: Les informations d'identification fournies pour se connecter au stockage où les fichiers doivent être situés sont incorrectes ou les fichiers n'existent pas là-bas.
Recommandation: Cette erreur se produit lorsque le service se prépare pour les activités HDI et essaie de copier des fichiers sur le stockage principal avant de soumettre la tâche à HDI. Vérifiez que les fichiers existent à l'emplacement indiqué et que la connexion de stockage est correcte. Comme les activités HDI ne prennent pas en charge l'authentification MSI sur les comptes de stockage liés aux activités HDI, vérifiez que ces services liés disposent de clés complètes ou utilisent Azure Key Vault.
Code d'erreur : 2351
Message:
Impossible d'ouvrir le fichier '%filePath;' dans conteneur/fileSystem '%container;'.
Cause: Le fichier n'existe pas au chemin spécifié.
Recommandation: Vérifiez si le fichier existe réellement et que le service lié avec les informations de connexion pointant vers ce fichier dispose des informations d'identification correctes.
Code d'erreur : 2352
Message:
Le stockage de fichiers n'a pas été initialisé. Veuillez vérifier les propriétés du service lié au stockage de fichiers dans l'activité HDI.
Cause: Les propriétés du service lié au stockage de fichiers ne sont pas définies correctement.
Recommandation: vérifiez que les propriétés du service lié de stockage de fichiers sont correctement configurées.
Code d'erreur : 2353
Message:
Le stockage de script n'a pas été initialisé. Veuillez vérifier les propriétés du service lié de stockage de script dans l'activité HDI.
Cause: Les propriétés du service lié de stockage de script ne sont pas définies correctement.
Recommandation: vérifiez que les propriétés du service lié de stockage de script sont correctement configurées.
Code d'erreur : 2354
Message:
Le type de service lié au stockage '%linkedServiceType;' n'est pas pris en charge pour '%executorType;' activités pour la propriété '%linkedServicePropertyName;'.
Cause : Le type de service lié au stockage n'est pas pris en charge par l'activité.
Recommandation: vérifiez que le service lié sélectionné possède l'un des types pris en charge pour l'activité. Les activités HDI prennent en charge les services liés AzureBlobStorage et AzureBlobFSStorage.
Pour plus d'informations, lisezComparer les options de stockage à utiliser avec les clusters Azure HDInsight
Code d'erreur : 2355
Message:
La '%value' fournie pour commandEnvironment est incorrecte. La valeur attendue doit être un tableau de chaînes où chaque chaîne a le format CmdEnvVarName=CmdEnvVarValue.
Cause: La valeur fournie pour
commandEnvironment
est incorrect.Recommandation: Vérifiez que la valeur fournie est similaire à :
\"NomVariable=ValeurVariable\"]
Vérifiez également que chaque variable n'apparaît qu'une seule fois dans la liste.
Code d'erreur : 2356
Message:
La commandeEnvironment contient déjà une variable nommée '%variableName;'.
Cause: La valeur fournie pour
commandEnvironment
est incorrect.Recommandation: Vérifiez que la valeur fournie est similaire à :
\"NomVariable=ValeurVariable\"]
Vérifiez également que chaque variable n'apparaît qu'une seule fois dans la liste.
Code d'erreur : 2357
Message:
Le certificat ou le mot de passe est incorrect pour le stockage ADLS Gen 1.
Cause: Les informations d'identification fournies sont incorrectes.
Recommandation: Vérifiez que les informations de connexion dans ADLS Gen 1 sont liées au service et vérifiez que la connexion de test réussit.
Code d'erreur : 2358
Message:
La valeur '%value;' pour la propriété requise « TimeToLive » dans le service lié HDInsight à la demande « %linkedServiceName ; » a un format invalide. Il doit s'agir d'une période comprise entre '00:05:00' et '24:00:00'.
Cause: La valeur fournie pour la propriété requise
Temps de vivre
a un format invalide.Recommandation: Mettez à jour la valeur dans la plage suggérée et réessayez.
Code d'erreur : 2359
Message:
La valeur '%value;' pour la propriété 'rôles' n'est pas valide. Les types attendus sont 'zookeeper', 'headnode' et 'workernode'.
Cause: La valeur fournie pour la propriété
les rôles
est invalide.Recommandation: Mettez à jour la valeur pour qu'elle soit l'une des suggestions et réessayez.
Code d'erreur : 2360
Message:
La chaîne de connexion dans HCatalogLinkedService n'est pas valide. Une erreur s'est produite lors de la tentative d'analyse : '%message;'.
Cause: La chaîne de connexion fournie pour le
HCatalogLinkedService
est invalide.Recommandation: mettez à jour la valeur avec une chaîne de connexion Azure SQL correcte et réessayez.
Code d'erreur : 2361
Message:
Échec de la création du cluster HDI à la demande. Le nom du cluster est '%clusterName;'.
Cause: La création du cluster a échoué et le service n'a pas renvoyé d'erreur du service HDInsight.
Recommandation: Ouvrez le portail Azure et essayez de trouver la ressource HDI avec le nom fourni, puis vérifiez l'état de provisionnement. Contactez l'équipe d'assistance HDInsight pour obtenir de l'aide.
Code d'erreur : 2362
Message:
Seuls les comptes de stockage Azure Blob sont pris en charge en tant que stockages supplémentaires pour le service lié à la demande HDInsight.
Cause: Le stockage supplémentaire fourni n'était pas le stockage Azure Blob.
Recommandation: fournissez un compte de stockage Azure Blob en tant que stockage supplémentaire pour le service lié à la demande HDInsight.
Erreur SSL lors du service lié à l'aide du cluster HDInsight ESP
Message:
Échec de la connexion au cluster HDInsight : 'ERREUR [HY000] [Microsoft][DriverSupport] (1100) La vérification du certificat SSL a échoué car le certificat est manquant ou incorrect.'
Cause: Le problème est probablement lié à System Trust Store.
Résolution: Vous pouvez naviguer jusqu'au cheminMicrosoft Integration Runtime\4.0\Shared\ODBC Drivers\Microsoft Hive ODBC Driver\libet ouvrez DriverConfiguration64.exe pour modifier le paramètre.
Activité HDI bloquée dans la préparation du cluster
Si l'activité HDI est bloquée dans la préparation du cluster, suivez les instructions ci-dessous :
Assurez-vous que le délai d'expiration est supérieur à ce qui est décrit ci-dessous et attendez la fin de l'exécution ou jusqu'à ce qu'il soit expiré, et attendez la durée de vie (TTL) avant de soumettre de nouvelles tâches.
Le temps maximum par défaut nécessaire pour faire tourner un cluster est de 2 heures, et si vous avez un script d'initialisation, il s'additionnera jusqu'à 2 heures supplémentaires.
Assurez-vous que le stockage et HDI sont provisionnés dans la même région.
Assurez-vous que le principal de service utilisé pour accéder au cluster HDI est valide.
Si le problème persiste, comme solution de contournement, supprimez le service lié HDI et recréez-le avec un nouveau nom.
Activité Web
Code d'erreur : 2001
Message:
La longueur de la sortie d'exécution dépasse la limite (environ 4 Mo actuellement).
Cause : la taille de la sortie d'exécution est supérieure à 4 Mo, mais la taille de charge utile de réponse de sortie maximale prise en charge est de 4 Mo.
Recommandation: assurez-vous que la taille de la sortie d'exécution ne dépasse pas 4 Mo. Pour plus d'informations, voirComment faire évoluer la taille des données déplacées à l'aide d'Azure Data Factory.
Code d'erreur : 2002
Message:
La charge utile, y compris les configurations sur l'activité/l'ensemble de données/le service lié, est trop volumineuse. Veuillez vérifier si vous avez des paramètres avec une très grande valeur et essayez de réduire sa taille.
Cause: La charge utile que vous tentez d'envoyer est trop volumineuse.
Recommandation: Faire référence àLa charge utile est trop grande.
Code d'erreur : 2003
Message:
Il existe d'importantes exécutions d'activités externes simultanées qui provoquent des échecs en raison de la limitation sous l'abonnement
, la région et la limitation
. Veuillez réduire les exécutions simultanées. Pour connaître les limites, consultez https://aka.ms/adflimits. Cause: Trop d'activités sont exécutées simultanément. Cela peut se produire lorsque trop de pipelines sont déclenchés à la fois.
Recommandation: réduire la simultanéité du pipeline. Vous devrez peut-être répartir l'heure de déclenchement de vos pipelines.
Code d'erreur : 2010
Message:
Le runtime d'intégration auto-hébergé '
' est hors ligne Cause: le runtime d'intégration auto-hébergé est hors ligne ou le runtime d'intégration Azure a expiré ou n'est pas enregistré.
Recommandation: assurez-vous que votre environnement d'exécution d'intégration auto-hébergé est opérationnel. Faire référence àDépanner le runtime d'intégration auto-hébergépour plus d'informations.
Code d'erreur : 2105
Message:
Le type de valeur '
', dans la clé ' ' n'est pas le type attendu ' ' Cause : Les données générées dans l'expression de contenu dynamique ne correspondent pas à la clé et entraînent un échec de l'analyse JSON.
Recommandation: examinez le champ clé et corrigez la définition de contenu dynamique.
Code d'erreur : 2108
Message:
Erreur lors de l'appel du point de terminaison '
'. Code d'état de la réponse : 'NA - Inconnu'. Plus de détails : Message d'exception : 'NA - Inconnu [ClientSideException] URL non valide : . Veuillez vérifier que l'URL ou le runtime d'intégration est valide et réessayez. Les URL Localhost ne sont autorisées qu'avec SelfHosted Integration Runtime' Cause: Impossible d'accéder à l'URL fournie. Cela peut se produire en raison d'un problème de connexion réseau, de l'impossibilité de résoudre l'URL ou de l'utilisation d'une URL localhost sur un runtime d'intégration Azure.
Recommandation: vérifiez que l'URL fournie est accessible.
Message:
Erreur lors de l'appel du point de terminaison '%url;'. Code d'état de la réponse : '%code;'
Cause: La demande a échoué en raison d'un problème sous-jacent tel que la connectivité réseau, une défaillance DNS, une validation de certificat de serveur ou un délai d'attente.
Recommandation: Utilisez Fiddler/Postman/Netmon/Wireshark pour valider la requête.
Utilisation du violoniste
UtiliserVioloneuxpour créer une session HTTP de l'application Web surveillée :
Téléchargez, installez et ouvrezVioloneux.
Si votre application Web utilise HTTPS, accédez àOutils>Options de violoneux>HTTPS.
Dans l'onglet HTTPS, sélectionnez à la foisCapturez les connexions HTTPSetDécrypter le trafic HTTPS.
Si votre application utilise des certificats TLS/SSL, ajoutez le certificat Fiddler à votre appareil.
Aller à:Outils>Options de violoneux>HTTPS>Actions>Exporter le certificat racine vers le bureau.
Désactivez la capture en accédant àDéposer>Capturer le trafic. Ou appuyez surF12.
Effacez le cache de votre navigateur afin que tous les éléments mis en cache soient supprimés et doivent être téléchargés à nouveau.
Créer une demande :
Sélectionnez leCompositeurlanguette.
Définissez la méthode HTTP et l'URL.
Si nécessaire, ajoutez des en-têtes et un corps de requête.
SélectionnerExécuter.
Activez à nouveau la capture du trafic et terminez la transaction problématique sur votre page.
Aller à:Déposer>Sauvegarder>Toutes les séances.
Pour plus d'informations, voirPremiers pas avec Fiddler.
Code d'erreur : 2113
Message:
ExtractAuthorizationCertificate : impossible de générer un certificat à partir d'une combinaison chaîne/mot de passe Base64
Cause: Impossible de générer un certificat à partir de la combinaison chaîne/mot de passe Base64.
Recommandation: Vérifiez que la combinaison de certificat et de mot de passe PFX encodé en Base64 que vous utilisez est correctement saisie.
Code d'erreur : 2403
Message:
Échec de l'obtention du jeton d'accès à partir de MSI pour Datafactory
, région . Veuillez vérifier que l'URL de la ressource est valide et réessayer.
Cause : Impossible d'acquérir un jeton d'accès à partir de l'URL de ressource fournie.
Recommandation: Vérifiez que vous avez fourni l'URL de ressource correcte pour votre identité managée.
Général
Erreur NULL du jeton de continuation REST
Message d'erreur:{"token":null,"range":{"min":..}
Cause:Lors d'une requête sur plusieurs partitions/pages, le service backend renvoie un jeton de continuation au format JObject avec 3 propriétés :Token, plages de clés min et max, par exemple, {"token":null,"range":{"min":"05C1E9AB0DAD76","max":"05C1E9CD673398"}}). En fonction des données source, l'interrogation peut aboutir à 0 indiquant un jeton manquant bien qu'il y ait plus de données à récupérer.
Recommandation:Lorsque le continuationToken est non nul, comme la chaîne {"token":null,"range":{"min":"05C1E9AB0DAD76","max":"05C1E9CD673398"}}, il est nécessaire d'appeler à nouveau l'API queryActivityRuns avec le jeton de continuation de la réponse précédente. Vous devez à nouveau transmettre la chaîne complète pour l'API de requête. Les activités seront retournées dans les pages suivantes pour le résultat de la requête. Vous devez ignorer qu'il y a un tableau vide dans cette page, tant que la valeur continuationToken complète != null, vous devez continuer à interroger. Pour plus de détails, veuillez consulterAPI REST pour la requête d'exécution du pipeline.
Problème d'activité bloquée
Lorsque vous observez que l'activité dure beaucoup plus longtemps que vos courses normales avec à peine aucun progrès, il peut arriver qu'elle soit bloquée. Vous pouvez essayer de l'annuler et réessayer pour voir si cela aide. S'il s'agit d'une activité de copie, vous pouvez en savoir plus sur la surveillance des performances et le dépannage à partir deRésoudre les problèmes de performances des activités de copie; s'il s'agit d'un flux de données, apprenez deCartographier les performances des flux de donnéeset guide de réglage.
La charge utile est trop grande
Message d'erreur: La charge utile, y compris les configurations sur l'activité/l'ensemble de données/le service lié, est trop volumineuse. Veuillez vérifier si vous avez des paramètres avec une très grande valeur et essayez de réduire sa taille.
Cause:La charge utile de chaque exécution d'activité inclut la configuration de l'activité, les ensembles de données associés et les configurations de service(s) lié(s) le cas échéant, ainsi qu'une petite partie des propriétés système générées par type d'activité. La limite de cette taille de charge utile est de 896 Ko, comme indiqué dans la documentation des limites Azure pourUsine de donnéesetAzure Synapse Analytique.
Recommandation:Vous atteignez cette limite probablement parce que vous transmettez une ou plusieurs valeurs de paramètre importantes à partir de la sortie d'activité en amont ou externe, en particulier si vous transmettez des données réelles entre les activités dans le flux de contrôle. Vérifiez si vous pouvez réduire la taille des valeurs de paramètre volumineuses ou ajustez votre logique de pipeline pour éviter de transmettre de telles valeurs entre les activités et gérez-les plutôt à l'intérieur de l'activité.
Une compression non prise en charge entraîne la corruption des fichiers
Symptômes: Vous essayez de décompresser un fichier stocké dans un conteneur d'objets blob. Une activité de copie unique dans un pipeline a une source avec le type de compression défini sur "deflate64" (ou tout type non pris en charge). Cette activité s'exécute avec succès et produit le fichier texte contenu dans le fichier zip. Cependant, il y a un problème avec le texte dans le fichier et ce fichier semble corrompu. Lorsque ce fichier est décompressé localement, tout va bien.
Cause: Votre fichier zip est compressé par l'algorithme de "deflate64", alors que la bibliothèque zip interne d'Azure Data Factory ne supporte que "deflate". Si le fichier zip est compressé par le système Windows et que la taille globale du fichier dépasse un certain nombre, Windows utilisera « deflate64 » par défaut, qui n'est pas pris en charge dans Azure Data Factory. D'un autre côté, si la taille du fichier est plus petite ou si vous utilisez des outils zip tiers prenant en charge la spécification de l'algorithme de compression, Windows utilisera "deflate" par défaut.
Conseil
En fait, les deuxFormat binaire dans Azure Data Factory et Synapse AnalyticsetFormat de texte délimité dans Azure Data Factory et Azure Synapse Analyticsindiquez clairement que le format "deflate64" n'est pas pris en charge dans Azure Data Factory.
Exécuter le pipeline passe le paramètre de tableau en tant que chaîne au pipeline enfant
Message d'erreur: L'opération sur la cible ForEach1 a échoué : l'exécution de l'action de modèle 'MainForEach1' a échoué : le résultat de l'évaluation de l'expression 'foreach' '@pipeline().parameters.
Cause:Même si dans le pipeline d'exécution, vous créez le paramètre de type tableau, comme indiqué dans l'image ci-dessous, le pipeline échouera.
Cela est dû au fait que la charge utile est transmise du pipeline parent à l'enfant sous forme de chaîne. Nous pouvons le voir lorsque nous vérifions l'entrée transmise au pipeline enfant.
Recommandation:Pour résoudre le problème, nous pouvons tirer parti de la fonction de création de tableau, comme indiqué dans l'image ci-dessous.
Ensuite, notre pipeline réussira. Et nous pouvons voir dans la zone de saisie que le paramètre passé est un tableau.
Prochaines étapes
Pour plus d'aide sur le dépannage, essayez ces ressources :
- Blog Usine de données
- Demandes de fonctionnalités Data Factory
- Forum Stack Overflow pour Data Factory
- Informations Twitter sur Data Factory
- Vidéos azur