Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
W tym artykule pokazano, jak dodać źródło platformy Apache Kafka do strumienia zdarzeń usługi Fabric.
Apache Kafka to rozproszona platforma typu open source do tworzenia skalowalnych systemów danych w czasie rzeczywistym. Dzięki zintegrowaniu platformy Apache Kafka jako źródła w strumieniu zdarzeń można bezproblemowo przenieść zdarzenia w czasie rzeczywistym z platformy Apache Kafka i przetworzyć je przed routingiem do wielu miejsc docelowych w usłudze Fabric.
Wymagania wstępne
- Dostęp do obszaru roboczego typu Fabric z uprawnieniami współautora lub wyższymi.
- Klaster Apache Kafka jest uruchomiony.
- Platforma Apache Kafka musi być publicznie dostępna i nie znajdować się za zaporą lub być zabezpieczona w sieci wirtualnej.
Dodaj Apache Kafka jako źródło
W obszarze Analiza w czasie rzeczywistym w sieci szkieletowej wybierz pozycję Eventstream , aby utworzyć nowy strumień zdarzeń.
Na następnym ekranie wybierz pozycję Dodaj źródło zewnętrzne.
Na stronie Wybieranie źródła danych lub Źródła danych wybierz pozycję Apache Kafka.
Konfigurowanie platformy Apache Kafka i nawiązywanie z nią połączenia
Na stronie Łączenie wybierz pozycję Nowe połączenie.
W sekcji Ustawienia połączenia w polu Bootstrap Server wprowadź adres serwera Apache Kafka.
W sekcji Poświadczenia połączenia jeśli masz istniejące połączenie z klastrem Apache Kafka, wybierz je z listy rozwijanej Połączenie. W przeciwnym razie wykonaj następujące kroki:
- W polu Nazwa połączenia wprowadź nazwę połączenia.
- W polu Rodzaj uwierzytelniania upewnij się, że wybrano opcję Klucz interfejsu API.
- Dla Klucz i Tajny, wprowadź klucz API i klucz tajny.
Wybierz pozycję Połącz.
Teraz na stronie Connect wykonaj następujące kroki.
W polu Temat wprowadź topic platformy Kafka.
W polu Grupa odbiorców wprowadź grupę odbiorców klastra platformy Apache Kafka. To pole zawiera dedykowaną grupę odbiorców na potrzeby pobierania zdarzeń.
Wybierz pozycję Resetuj automatyczne przesunięcie , aby określić, gdzie rozpocząć odczytywanie przesunięć, jeśli nie ma zatwierdzenia.
W przypadku nowo dodanych źródeł platformy Apache Kafka jedynym obsługiwanym protokołem zabezpieczeń jest SASL_SSL. W przypadku korzystania z SASL_SSL certyfikat serwera musi być podpisany przez urząd certyfikacji znajdujący się na liście zaufanych urzędów certyfikacji.
Domyślny mechanizm SASL jest zwykle zwykły, chyba że skonfigurowano inaczej. Można wybrać mechanizm SCRAM-SHA-256 lub SCRAM-SHA-512 , który odpowiada wymaganiom w zakresie zabezpieczeń.
Wybierz Dalej. Na ekranie Przeglądanie i tworzenie przejrzyj podsumowanie, a następnie wybierz pozycję Dodaj.
Wyświetlanie zaktualizowanego strumienia zdarzeń
Źródło Apache Kafka dodane do strumienia zdarzeń można zobaczyć w trybie edycji.
Po wykonaniu tych kroków źródło platformy Apache Kafka jest dostępne do wizualizacji w widoku na żywo.
Uwaga
Aby wyświetlić podgląd zdarzeń z tego źródła platformy Apache Kafka, upewnij się, że klucz używany do tworzenia połączenia w chmurze ma uprawnienie do odczytu dla grup odbiorców z prefiksem "preview-".
W przypadku źródła platformy Apache Kafka podgląd może zawierać tylko komunikaty w formacie JSON .
Powiązana zawartość
Inne łączniki:
- Strumienie danych Amazon Kinesis
- Azure Cosmos DB
- Azure Event Hubs
- Azure IoT Hub
- Przechwytywanie zmian danych w usłudze Azure SQL Database (CDC)
- Niestandardowy punkt końcowy
- Google Cloud Pub/Sub
- CDC bazy danych MySQL
- CDC bazy danych PostgreSQL
- Dane przykładowe
- Zdarzenia usługi Azure Blob Storage
- Zdarzenie obszaru roboczego sieci szkieletowej