Polecenie cmdlet Save-AzDataFactoryLog pobiera pliki dziennika skojarzone z przetwarzaniem programu Pig lub Hive w usłudze Azure HDInsight lub w przypadku działań niestandardowych na lokalnym dysku twardym.
Najpierw uruchom polecenie cmdlet Get-AzDataFactoryRun, aby uzyskać identyfikator uruchomienia działania dla wycinka danych, a następnie użyj tego identyfikatora, aby pobrać pliki dziennika z magazynu binarnego dużego obiektu (BLOB) skojarzonego z klastrem usługi HDInsight.
Jeśli nie określisz parametru DownloadLogs , polecenie cmdlet zwróci tylko lokalizację plików dziennika.
Jeśli określisz ciąg DownloadLogs bez określenia katalogu wyjściowego (parametr wyjściowy ), pliki dziennika zostaną pobrane do domyślnego folderu Dokumenty.
Jeśli określisz ciąg DownloadLogs wraz z folderem wyjściowym (Output), pliki dziennika zostaną pobrane do określonego folderu.
Przykłady
Przykład 1. Zapisywanie plików dziennika w określonym folderze
To polecenie zapisuje pliki dziennika dla przebiegu działania z identyfikatorem 841b77c9-d56c-48d1-99a3-8c16c3e77d39, gdzie działanie należy do potoku w fabryce danych o nazwie LogProcessingFactory w grupie zasobów o nazwie ADF.
Pliki dziennika są zapisywane w folderze C:\Test.
Przykład 2. Zapisywanie plików dziennika w domyślnym folderze Dokumenty
Wskazuje, że to polecenie cmdlet pobiera pliki dziennika na komputer lokalny.
Jeśli folder wyjściowy nie zostanie określony, pliki są zapisywane w folderze Dokumenty w podfolderze.
To polecenie cmdlet obsługuje typowe parametry: -Debug, -ErrorAction, -ErrorVariable, -InformationAction, -InformationVariable, -OutBuffer, -OutVariable, -PipelineVariable, -ProgressAction, -Verbose, -WarningAction i -WarningVariable. Aby uzyskać więcej informacji, zobacz about_CommonParameters.
Źródło tej treści można znaleźć na GitHubie, gdzie można także tworzyć i przeglądać problemy oraz pull requesty. Więcej informacji znajdziesz w naszym przewodniku dla współautorów.