Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
W tym samouczku pokazano, jak lokalnie trenować i oceniać model wykrywania obiektów w czasie rzeczywistym w aplikacji platformy UWP. Model zostanie wytrenowany lokalnie za pomocą biblioteki TensorFlow na maszynie za pośrednictwem interfejsów API DirectML, który zapewnia przyspieszone trenowanie procesora GPU na wszystkich urządzeniach z systemem Windows. Wytrenowany model zostanie następnie zintegrowany z aplikacją platformy UWP, która używa kamery internetowej do wykrywania obiektów w czasie rzeczywistym w czasie rzeczywistym przy użyciu interfejsów API uczenia maszynowego systemu Windows.
Zaczniemy od włączenia biblioteki TensorFlow na maszynie.
Jeśli chcesz dowiedzieć się, jak trenować model za pomocą biblioteki TensorFlow, możesz przejść do sekcji Trenowanie modelu.
Jeśli masz model TensorFlow, ale chcesz dowiedzieć się, jak przekonwertować go na format ONNX odpowiedni do użycia z interfejsami API WinML, zobacz konwertowanie modelu.
Jeśli masz model i chcesz dowiedzieć się, jak utworzyć aplikację WinML od podstaw, przejdź do sekcji Wdrażanie modelu.
Włączanie przyspieszania procesora GPU dla biblioteki TensorFlow za pomocą języka DirectML
Aby włączyć bibliotekę TensorFlow na maszynie, wykonaj następujące kroki.
Sprawdzanie wersji systemu Windows
Pakiet TensorFlow z językiem DirectML w natywnym systemie Windows działa w systemie Windows 10 w wersji 1709 (kompilacja 16299) lub nowszych wersjach systemu Windows. Numer wersji kompilacji można sprawdzić, uruchamiając polecenie winverUruchom (Windows logo key + R).
Sprawdzanie aktualizacji sterowników procesora GPU
Upewnij się, że masz zainstalowany najnowszy sterownik procesora GPU. Wybierz pozycję Sprawdź dostępność aktualizacji w sekcji Windows Updatew obszarze Ustawienia systemu Windows.
Konfigurowanie biblioteki TensorFlow w wersji zapoznawczej directML
W przypadku korzystania z biblioteki TensorFlow zaleca się skonfigurowanie wirtualnego środowiska języka Python w systemie Windows. Istnieje wiele narzędzi, których można użyć do skonfigurowania wirtualnego środowiska Python — na potrzeby tych instrukcji użyjemy miniconda od Anaconda. W pozostałej części tej konfiguracji przyjęto założenie, że używasz środowiska miniconda.
Konfigurowanie środowiska języka Python
Uwaga / Notatka
W poniższych poleceniach używamy języka Python 3.6. Jednak tensorflow-directml pakiet działa w środowisku python 3.5, 3.6 lub 3.7.
Pobierz i zainstaluj instalator Miniconda Windows na maszynie. Jeśli jest to potrzebne, istnieją dodatkowe wskazówki dotyczące konfigurowania w witrynie platformy Anaconda. Po zainstalowaniu narzędzia Miniconda utwórz środowisko przy użyciu języka Python o nazwie directml i aktywuj je za pomocą następujących poleceń:
conda create --name directml python=3.6
conda activate directml
Instalowanie pakietu Tensorflow z pakietem DirectML
Uwaga / Notatka
Pakiet tensorflow-directml obsługuje tylko tensorFlow 1.15.
Zainstaluj pakiet TensorFlow z DirectML za pomocą pip, uruchamiając następujące polecenie:
pip install tensorflow-directml
Weryfikowanie instalacji pakietu
Po zainstalowaniu tensorflow-directml pakietu możesz sprawdzić, czy działa prawidłowo, dodając dwa tensory. Skopiuj następujące wiersze do interaktywnej sesji języka Python:
import tensorflow.compat.v1 as tf
tf.enable_eager_execution(tf.ConfigProto(log_device_placement=True))
print(tf.add([1.0, 2.0], [3.0, 4.0]))
Powinieneś zobaczyć dane wyjściowe podobne do poniższych, gdzie operator dodawania jest umieszczony na urządzeniu DML.
Dalsze kroki
Teraz, gdy masz już posortowane wymagania wstępne, możesz przejść do tworzenia modelu WinML. W następnej części użyjesz biblioteki TensorFlow do utworzenia modelu wykrywania obiektów w czasie rzeczywistym.
Ważne
TensorFlow, logo TensorFlow i wszelkie powiązane znaki towarowe są znakami towarowymi Firmy Google Inc.