@azure/search-documents package
Klasy
| AzureKeyCredential |
Poświadczenie oparte na kluczu statycznym, które obsługuje aktualizowanie bazowej wartości klucza. |
| GeographyPoint |
Reprezentuje punkt geograficzny we współrzędnych globalnych. |
| IndexDocumentsBatch |
Klasa używana do wykonywania operacji wsadowych z wieloma dokumentami do indeksu. |
| SearchClient |
Klasa używana do wykonywania operacji względem indeksu wyszukiwania, w tym wykonywania zapytań dotyczących dokumentów w indeksie, a także dodawania, aktualizowania i usuwania. |
| SearchIndexClient |
Klasa do wykonywania operacji w celu zarządzania (tworzeniem, aktualizowaniem, listą/usuwaniem) indeksów, & synonimami. |
| SearchIndexerClient |
Klasa do wykonywania operacji w celu zarządzania (tworzeniem, aktualizowaniem, listą/usuwaniem) indeksatorów, źródłami danych & zestawami umiejętności. |
| SearchIndexingBufferedSender |
Klasa używana do wykonywania buforowanych operacji względem indeksu wyszukiwania, w tym dodawania, aktualizowania i usuwania. |
Interfejsy
| AnalyzeRequest |
Określa niektóre składniki tekstowe i analityczne używane do dzielenia tego tekstu na tokeny. |
| AnalyzeResult |
Wynik testowania analizatora tekstu. |
| AnalyzedTokenInfo |
Informacje o tokenie zwróconym przez analizator. |
| AsciiFoldingTokenFilter |
Konwertuje znaki alfabetyczne, liczbowe i symboliczne Unicode, które nie znajdują się w pierwszych 127 znakach ASCII (bloku Unicode "Basic Latin") na ich odpowiedniki ASCII, jeśli takie odpowiedniki istnieją. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| AutocompleteItem |
Wynik żądań autouzupełniania. |
| AutocompleteRequest |
Parametry dopasowania rozmytego i inne zachowania zapytań autouzupełniania. |
| AutocompleteResult |
Wynik zapytania autouzupełniania. |
| AzureActiveDirectoryApplicationCredentials |
Poświadczenia zarejestrowanej aplikacji utworzonej dla usługi wyszukiwania używane do uwierzytelnionego dostępu do kluczy szyfrowania przechowywanych w usłudze Azure Key Vault. |
| AzureOpenAIEmbeddingSkill |
Umożliwia wygenerowanie wektora osadzania dla danego tekstu wejściowego przy użyciu zasobu Azure OpenAI. |
| AzureOpenAIParameters |
Zawiera parametry specyficzne dla używania usługi Azure Open AI na potrzeby wektoryzacji w czasie wykonywania zapytań. |
| AzureOpenAIVectorizer |
Zawiera parametry specyficzne dla używania usługi Azure Open AI na potrzeby wektoryzacji w czasie wykonywania zapytań. |
| BM25Similarity |
Funkcja klasyfikacji oparta na algorytmie podobieństwa okapi BM25. BM25 to algorytm podobny do tf-IDF, który obejmuje normalizację długości (kontrolowaną przez parametr "b"), a także nasycenie częstotliwości terminów (kontrolowane przez parametr "k1"). |
| BaseCharFilter |
Typ podstawowy filtrów znaków. |
| BaseCognitiveServicesAccount |
Typ podstawowy opisujący dowolny zasób usługi Azure AI dołączony do zestawu umiejętności. |
| BaseDataChangeDetectionPolicy |
Typ podstawowy zasad wykrywania zmian danych. |
| BaseDataDeletionDetectionPolicy |
Typ podstawowy zasad wykrywania usuwania danych. |
| BaseLexicalAnalyzer |
Typ podstawowy analizatorów. |
| BaseLexicalNormalizer |
Typ podstawowy normalizowania. |
| BaseLexicalTokenizer |
Typ podstawowy tokenizatorów. |
| BaseScoringFunction |
Typ podstawowy funkcji, które mogą modyfikować wyniki dokumentu podczas klasyfikowania. |
| BaseSearchIndexerDataIdentity |
Abstrakcyjny typ podstawowy tożsamości danych. |
| BaseSearchIndexerSkill |
Typ podstawowy umiejętności. |
| BaseSearchRequestOptions |
Parametry do filtrowania, sortowania, tworzenia aspektów, stronicowania i innych zachowań zapytań wyszukiwania. |
| BaseTokenFilter |
Typ podstawowy filtrów tokenów. |
| BaseVectorQuery |
Parametry zapytania dla wektorów i zapytań wyszukiwania hybrydowego. |
| BaseVectorSearchAlgorithmConfiguration |
Zawiera opcje konfiguracji specyficzne dla algorytmu używanego podczas indeksowania i/lub wykonywania zapytań. |
| BaseVectorSearchCompression |
Zawiera opcje konfiguracji specyficzne dla metody kompresji używanej podczas indeksowania lub wykonywania zapytań. |
| BaseVectorSearchVectorizer |
Zawiera szczegółowe informacje dotyczące metody wektoryzacji, która ma być używana w czasie zapytania. |
| BinaryQuantizationCompression |
Zawiera opcje konfiguracji specyficzne dla binarnej metody kompresji kwantyzacji używanej podczas indeksowania i wykonywania zapytań. |
| CjkBigramTokenFilter |
Tworzy bigramy terminów CJK generowanych na podstawie standardowego tokenizatora. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| ClassicSimilarity |
Starszy algorytm podobieństwa, który używa implementacji TFIDFSimilarity Lucene tf-IDF. Ta odmiana TF-IDF wprowadza normalizację długości dokumentu statycznego, a także koordynujące czynniki, które karują dokumenty, które częściowo pasują tylko do wyszukiwanych zapytań. |
| ClassicTokenizer |
Tokenizator oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
| CognitiveServicesAccountKey |
Klucz konta w wielu regionach zasobu usługi Azure AI dołączony do zestawu umiejętności. |
| CommonGramTokenFilter |
Konstruowanie bigramów dla często występujących terminów podczas indeksowania. Pojedyncze terminy są również indeksowane, a bigramy są nakładane. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| ComplexField |
Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola. |
| ConditionalSkill |
Umiejętność umożliwiająca scenariusze wymagające operacji logicznej w celu określenia danych do przypisania do danych wyjściowych. |
| CorsOptions |
Definiuje opcje kontrolowania współużytkowania zasobów między źródłami (CORS) dla indeksu. |
| CreateOrUpdateIndexOptions |
Opcje operacji tworzenia/aktualizowania indeksu. |
| CreateOrUpdateSkillsetOptions |
Opcje tworzenia/aktualizowania operacji zestawu umiejętności. |
| CreateOrUpdateSynonymMapOptions |
Opcje operacji tworzenia/aktualizowania synonimu. |
| CreateorUpdateDataSourceConnectionOptions |
Opcje operacji tworzenia/aktualizowania źródła danych. |
| CreateorUpdateIndexerOptions |
Opcje operacji tworzenia/aktualizowania indeksatora. |
| CustomAnalyzer |
Umożliwia przejęcie kontroli nad procesem konwertowania tekstu na tokeny z możliwością indeksowania/wyszukiwania. Jest to konfiguracja zdefiniowana przez użytkownika składająca się z jednego wstępnie zdefiniowanego tokenizera i co najmniej jednego filtru. Tokenizer jest odpowiedzialny za podzielenie tekstu na tokeny i filtry modyfikowania tokenów emitowanych przez tokenizatora. |
| CustomEntity |
Obiekt zawierający informacje o znalezionych dopasowaniach i powiązanych metadanych. |
| CustomEntityAlias |
Obiekt złożony, który może służyć do określania alternatywnych pisowni lub synonimów nazwy jednostki głównej. |
| CustomEntityLookupSkill |
Umiejętność szuka tekstu z niestandardowej, zdefiniowanej przez użytkownika listy wyrazów i fraz. |
| CustomLexicalNormalizer |
Umożliwia skonfigurowanie normalizacji dla pól możliwych do filtrowania, sortowania i tworzenia aspektów, które domyślnie działają z ścisłym dopasowaniem. Jest to konfiguracja zdefiniowana przez użytkownika składająca się z co najmniej jednego filtru, który modyfikuje przechowywany token. |
| DefaultCognitiveServicesAccount |
Pusty obiekt reprezentujący domyślny zasób usługi Azure AI dla zestawu umiejętności. |
| DeleteDataSourceConnectionOptions |
Opcje operacji usuwania źródła danych. |
| DeleteIndexOptions |
Opcje operacji usuwania indeksu. |
| DeleteIndexerOptions |
Opcje operacji usuwania indeksatora. |
| DeleteSkillsetOptions |
Opcje usuwania operacji zestawu umiejętności. |
| DeleteSynonymMapOptions |
Opcje usuwania operacji synonimów. |
| DictionaryDecompounderTokenFilter |
Rozkłada złożone wyrazy znalezione w wielu językach niemieckich. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| DistanceScoringFunction |
Definiuje funkcję, która zwiększa wyniki na podstawie odległości od lokalizacji geograficznej. |
| DistanceScoringParameters |
Udostępnia wartości parametrów funkcji oceniania odległości. |
| DocumentExtractionSkill |
Umiejętność wyodrębniania zawartości z pliku w potoku wzbogacania. |
| DocumentIntelligenceLayoutSkill |
Umiejętność, która wyodrębnia informacje o zawartości i układzie za pośrednictwem usług Azure AI Services z plików w potoku wzbogacania. |
| DocumentIntelligenceLayoutSkillChunkingProperties |
Steruje kardynalnością dzielenia zawartości na fragmenty. |
| EdgeNGramTokenFilter |
Generuje n-gramy danego rozmiaru, zaczynając od przodu lub z tyłu tokenu wejściowego. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| EdgeNGramTokenizer |
Tokenizuje dane wejściowe z krawędzi do n-gramów danego rozmiaru. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
| ElisionTokenFilter |
Usuwa elizji. Na przykład "l'avion" (płaszczyzna) zostanie przekonwertowana na "avion" (płaszczyzna). Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| EntityLinkingSkill |
Przy użyciu interfejsu API analizy tekstu wyodrębnia połączone jednostki z tekstu. |
| EntityRecognitionSkill |
Rozpoznawanie jednostek analizy tekstu. |
| EntityRecognitionSkillV3 |
Przy użyciu interfejsu API analizy tekstu wyodrębnia jednostki różnych typów z tekstu. |
| ExhaustiveKnnParameters |
Zawiera parametry specyficzne dla wyczerpującego algorytmu KNN. |
| ExtractiveQueryAnswer |
Wyodrębnia kandydatów odpowiedzi z zawartości dokumentów zwracanych w odpowiedzi na zapytanie wyrażone jako pytanie w języku naturalnym. |
| ExtractiveQueryCaption |
Wyodrębnia podpisy z pasujących dokumentów, które zawierają fragmenty istotne dla zapytania wyszukiwania. |
| FacetResult |
Pojedynczy zasobnik wyniku zapytania aspektowego. Raportuje liczbę dokumentów z wartością pola należącą do określonego zakresu lub z określoną wartością lub interwałem. |
| FieldMapping |
Definiuje mapowanie między polem w źródle danych a polem docelowym w indeksie. |
| FieldMappingFunction |
Reprezentuje funkcję, która przekształca wartość ze źródła danych przed indeksowaniem. |
| FreshnessScoringFunction |
Definiuje funkcję, która zwiększa wyniki na podstawie wartości pola daty i godziny. |
| FreshnessScoringParameters |
Udostępnia wartości parametrów funkcji oceniania świeżości. |
| GetDocumentOptions |
Opcje pobierania pojedynczego dokumentu. |
| HighWaterMarkChangeDetectionPolicy |
Definiuje zasady wykrywania zmian danych, które przechwytują zmiany na podstawie wartości kolumny wysokiego znacznika wody. |
| HnswParameters |
Zawiera parametry specyficzne dla algorytmu hnsw. |
| ImageAnalysisSkill |
Umiejętność analizująca pliki obrazów. Wyodrębnia bogaty zestaw funkcji wizualnych na podstawie zawartości obrazu. |
| IndexDocumentsClient |
Klient indeksowania dokumentów |
| IndexDocumentsOptions |
Opcje modyfikowania operacji wsadowej indeksu. |
| IndexDocumentsResult |
Odpowiedź zawierająca stan operacji dla wszystkich dokumentów w żądaniu indeksowania. |
| IndexerExecutionResult |
Reprezentuje wynik pojedynczego wykonywania indeksatora. |
| IndexingParameters |
Reprezentuje parametry wykonywania indeksatora. |
| IndexingParametersConfiguration |
Słownik właściwości konfiguracji specyficznych dla indeksatora. Każda nazwa to nazwa określonej właściwości. Każda wartość musi być typu pierwotnego. |
| IndexingResult |
Stan operacji indeksowania dla pojedynczego dokumentu. |
| IndexingSchedule |
Reprezentuje harmonogram wykonywania indeksatora. |
| InputFieldMappingEntry |
Mapowanie pól wejściowych dla umiejętności. |
| KeepTokenFilter |
Filtr tokenu, który przechowuje tylko tokeny z tekstem zawartym na określonej liście wyrazów. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| KeyPhraseExtractionSkill |
Umiejętność, która korzysta z analizy tekstu na potrzeby wyodrębniania kluczowych fraz. |
| KeywordMarkerTokenFilter |
Oznacza terminy jako słowa kluczowe. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| KeywordTokenizer |
Emituje całe dane wejściowe jako pojedynczy token. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
| LanguageDetectionSkill |
Umiejętność, która wykrywa język tekstu wejściowego i zgłasza pojedynczy kod języka dla każdego dokumentu przesłanego na żądanie. Kod języka jest sparowany z wynikiem wskazującym pewność analizy. |
| LengthTokenFilter |
Usuwa wyrazy, które są za długie lub za krótkie. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| LimitTokenFilter |
Ogranicza liczbę tokenów podczas indeksowania. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| ListSearchResultsPageSettings |
Argumenty pobierania następnej strony wyników wyszukiwania. |
| LuceneStandardAnalyzer |
Standardowy analizator Apache Lucene; Składa się z standardowego tokenizatora, małe litery filtru i filtru zatrzymania. |
| LuceneStandardTokenizer |
Podział tekstu zgodnie z regułami segmentacji tekstu Unicode. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
| MagnitudeScoringFunction |
Definiuje funkcję, która zwiększa wyniki na podstawie wielkości pola liczbowego. |
| MagnitudeScoringParameters |
Dostarcza wartości parametrów do funkcji oceniania wielkości. |
| MappingCharFilter |
Filtr znaków, który stosuje mapowania zdefiniowane za pomocą opcji mapowania. Dopasowanie jest chciwe (najdłuższe dopasowanie wzorca w danym punkcie wygrywa). Zastąpienie może być pustym ciągiem. Ten filtr znaków jest implementowany przy użyciu platformy Apache Lucene. |
| MergeSkill |
Umiejętność scalania dwóch lub większej liczby ciągów w jeden ujednolicony ciąg z opcjonalnym ogranicznikiem zdefiniowanym przez użytkownika oddzielającym każdą część składnika. |
| MicrosoftLanguageStemmingTokenizer |
Dzieli tekst przy użyciu reguł specyficznych dla języka i zmniejsza liczbę wyrazów do ich podstawowych formularzy. |
| MicrosoftLanguageTokenizer |
Dzieli tekst przy użyciu reguł specyficznych dla języka. |
| NGramTokenFilter |
Generuje n-gramy danego rozmiaru. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| NGramTokenizer |
Tokenizuje dane wejściowe do n-gramów danego rozmiaru. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
| OcrSkill |
Umiejętność wyodrębniania tekstu z plików obrazów. |
| OutputFieldMappingEntry |
Mapowanie pól wyjściowych dla umiejętności. |
| PIIDetectionSkill |
Korzystając z interfejsu API analizy tekstu, wyodrębnia dane osobowe z tekstu wejściowego i umożliwia ich maskowanie. |
| PathHierarchyTokenizer |
Tokenizer dla hierarchii przypominających ścieżkę. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
| PatternAnalyzer |
Elastycznie oddziela tekst na terminy za pomocą wzorca wyrażenia regularnego. Ten analizator jest implementowany przy użyciu platformy Apache Lucene. |
| PatternCaptureTokenFilter |
Używa wyrażeń regularnych Języka Java do emitowania wielu tokenów — jednej dla każdej grupy przechwytywania w co najmniej jednym wzorze. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| PatternReplaceCharFilter |
Filtr znaków, który zastępuje znaki w ciągu wejściowym. Używa wyrażenia regularnego do identyfikowania sekwencji znaków w celu zachowania i wzorca zastępczego w celu zidentyfikowania znaków do zastąpienia. Na przykład, biorąc pod uwagę tekst wejściowy "aa bb aa bb", wzorzec "(aa)\s+(bb)" i zastąpienie wartości "$1#$2", wynikiem będzie "aa#bb aa#bb". Ten filtr znaków jest implementowany przy użyciu platformy Apache Lucene. |
| PatternReplaceTokenFilter |
Filtr znaków, który zastępuje znaki w ciągu wejściowym. Używa wyrażenia regularnego do identyfikowania sekwencji znaków w celu zachowania i wzorca zastępczego w celu zidentyfikowania znaków do zastąpienia. Na przykład, biorąc pod uwagę tekst wejściowy "aa bb aa bb", wzorzec "(aa)\s+(bb)" i zastąpienie wartości "$1#$2", wynikiem będzie "aa#bb aa#bb". Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| PatternTokenizer |
Tokenizer, który używa dopasowania wzorca wyrażeń regularnych do konstruowania unikatowych tokenów. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
| PhoneticTokenFilter |
Tworzenie tokenów dla dopasowań fonetycznych. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| QueryAnswerResult |
Odpowiedź to fragment tekstowy wyodrębniony z zawartości najbardziej odpowiednich dokumentów pasujących do zapytania. Odpowiedzi są wyodrębniane z pierwszych wyników wyszukiwania. Kandydaci odpowiedzi są oceniani i wybierane są najważniejsze odpowiedzi. |
| QueryCaptionResult |
Podpisy są najbardziej reprezentatywnymi fragmentami z dokumentu stosunkowo do zapytania wyszukiwania. Są one często używane jako podsumowanie dokumentu. Podpisy są zwracane tylko w przypadku zapytań typu |
| RescoringOptions |
Zawiera opcje rescoringu. |
| ResourceCounter |
Reprezentuje użycie i limit przydziału zasobu. |
| ScalarQuantizationCompression |
Zawiera opcje konfiguracji specyficzne dla metody kompresji kwantyzacji skalarnej używanej podczas indeksowania i wykonywania zapytań. |
| ScalarQuantizationParameters |
Zawiera parametry specyficzne dla kwantyzacji skalarnych. |
| ScoringProfile |
Definiuje parametry indeksu wyszukiwania mającego wpływ na ocenianie w zapytaniach wyszukiwania. |
| SearchClientOptions |
Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego. |
| SearchDocumentsPageResult |
Odpowiedź zawierająca wyniki strony wyszukiwania z indeksu. |
| SearchDocumentsResult |
Odpowiedź zawierająca wyniki wyszukiwania z indeksu. |
| SearchDocumentsResultBase |
Odpowiedź zawierająca wyniki wyszukiwania z indeksu. |
| SearchIndex |
Reprezentuje definicję indeksu wyszukiwania, która opisuje pola i zachowanie wyszukiwania indeksu. |
| SearchIndexClientOptions |
Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego. |
| SearchIndexStatistics |
Statystyki dla danego indeksu. Statystyki są zbierane okresowo i nie mają gwarancji, że zawsze będą up-to-date. |
| SearchIndexer |
Reprezentuje indeksator. |
| SearchIndexerClientOptions |
Opcje klienta używane do konfigurowania żądań interfejsu API wyszukiwania poznawczego. |
| SearchIndexerDataContainer |
Reprezentuje informacje o jednostce (takiej jak tabela Azure SQL lub kolekcja CosmosDB), które będą indeksowane. |
| SearchIndexerDataNoneIdentity |
Czyści właściwość tożsamości źródła danych. |
| SearchIndexerDataSourceConnection |
Reprezentuje definicję źródła danych, która może służyć do konfigurowania indeksatora. |
| SearchIndexerDataUserAssignedIdentity |
Określa tożsamość źródła danych do użycia. |
| SearchIndexerError |
Reprezentuje błąd indeksowania na poziomie elementu lub dokumentu. |
| SearchIndexerIndexProjection |
Definicja dodatkowych projekcji do pomocniczych indeksów wyszukiwania. |
| SearchIndexerIndexProjectionParameters |
Słownik właściwości konfiguracji specyficznych dla projekcji indeksu. Każda nazwa to nazwa określonej właściwości. Każda wartość musi być typu pierwotnego. |
| SearchIndexerIndexProjectionSelector |
Opis danych do przechowywania w wyznaczonym indeksie wyszukiwania. |
| SearchIndexerKnowledgeStore |
Definicja dodatkowych projekcji w obiektach blob platformy Azure, tabelach lub plikach wzbogaconych danych. |
| SearchIndexerKnowledgeStoreBlobProjectionSelector |
Klasa abstrakcyjna do współużytkowania właściwości między selektorami. |
| SearchIndexerKnowledgeStoreFileProjectionSelector |
Definicja projekcji dla danych do przechowywania w usłudze Azure Files. |
| SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definicja projekcji dla danych do przechowywania w obiekcie blob platformy Azure. |
| SearchIndexerKnowledgeStoreParameters |
Słownik właściwości konfiguracji specyficznych dla magazynu wiedzy. Każda nazwa to nazwa określonej właściwości. Każda wartość musi być typu pierwotnego. |
| SearchIndexerKnowledgeStoreProjection |
Obiekt kontenera dla różnych selektorów projekcji. |
| SearchIndexerKnowledgeStoreProjectionSelector |
Klasa abstrakcyjna do współużytkowania właściwości między selektorami. |
| SearchIndexerKnowledgeStoreTableProjectionSelector |
Opis danych do przechowywania w tabelach platformy Azure. |
| SearchIndexerLimits | |
| SearchIndexerSkillset |
Lista umiejętności. |
| SearchIndexerStatus |
Reprezentuje bieżący stan i historię wykonywania indeksatora. |
| SearchIndexerWarning |
Reprezentuje ostrzeżenie na poziomie elementu. |
| SearchIndexingBufferedSenderOptions |
Opcje wyszukiwaniaIndexingBufferedSender. |
| SearchResourceEncryptionKey |
Klucz szyfrowania zarządzany przez klienta w usłudze Azure Key Vault. Klucze tworzone i zarządzane mogą służyć do szyfrowania lub odszyfrowania danych magazynowanych w usłudze Azure Cognitive Search, takich jak indeksy i mapy synonimów. |
| SearchServiceStatistics |
Odpowiedź z żądania pobierania statystyk usługi. Jeśli to się powiedzie, obejmuje liczniki i limity poziomu usług. |
| SearchSuggester |
Definiuje sposób stosowania interfejsu API sugerowanego do grupy pól w indeksie. |
| SemanticConfiguration |
Definiuje określoną konfigurację, która ma być używana w kontekście możliwości semantycznych. |
| SemanticField |
Pole używane w ramach konfiguracji semantycznej. |
| SemanticPrioritizedFields |
Opisuje pola tytułów, zawartości i słów kluczowych, które mają być używane do semantycznego klasyfikowania, podpisów, wyróżnień i odpowiedzi. |
| SemanticSearch |
Definiuje parametry indeksu wyszukiwania mającego wpływ na możliwości semantyczne. |
| SemanticSearchOptions |
Definiuje opcje semantycznych zapytań wyszukiwania |
| SentimentSkill |
Analiza tekstu dodatnio-ujemna analiza tonacji, oceniana jako wartość zmiennoprzecinkowa w zakresie od zera do 1. |
| SentimentSkillV3 |
Korzystając z interfejsu API analizy tekstu, ocenia tekst bez struktury i dla każdego rekordu, udostępnia etykiety tonacji (takie jak "negatywne", "neutralne" i "pozytywne") na podstawie najwyższego wskaźnika ufności znalezionego przez usługę na poziomie zdania i dokumentu. |
| ServiceCounters |
Reprezentuje liczniki zasobów na poziomie usługi i limity przydziału. |
| ServiceLimits |
Reprezentuje różne limity poziomu usług. |
| ShaperSkill |
Umiejętność przekształcania danych wyjściowych. Tworzy typ złożony do obsługi pól złożonych (nazywanych również polami wieloczęściowym). |
| ShingleTokenFilter |
Tworzy kombinacje tokenów jako pojedynczy token. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| Similarity |
Typ podstawowy algorytmów podobieństwa. Algorytmy podobieństwa służą do obliczania wyników, które są związane z zapytaniami do dokumentów. Im wyższa ocena, tym bardziej istotne jest, aby dokument był przeznaczony dla tego konkretnego zapytania. Te wyniki są używane do klasyfikacji wyników wyszukiwania. |
| SimpleField |
Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola. |
| SnowballTokenFilter |
Filtr, który wynika ze słów przy użyciu stemmeru wygenerowanego przez Śnieżkę. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| SoftDeleteColumnDeletionDetectionPolicy |
Definiuje zasady wykrywania usuwania danych, które implementują strategię usuwania nietrwałego. Określa, czy element powinien zostać usunięty na podstawie wartości wyznaczonej kolumny "usuwanie nietrwałe". |
| SplitSkill |
Umiejętność dzielenia ciągu na fragmenty tekstu. |
| SqlIntegratedChangeTrackingPolicy |
Definiuje zasady wykrywania zmian danych, które przechwytują zmiany przy użyciu funkcji zintegrowanego śledzenia zmian usługi Azure SQL Database. |
| StemmerOverrideTokenFilter |
Zapewnia możliwość zastępowania innych filtrów ściągnięcia za pomocą niestandardowego ściągnięcia opartego na słowniku. Wszystkie terminy oparte na słowniku będą oznaczone jako słowa kluczowe, aby nie były one stemmers w dół łańcucha. Należy umieścić przed wszelkimi filtrami macierzystymi. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| StemmerTokenFilter |
Filtr macierzysty specyficzny dla języka. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| StopAnalyzer |
Dzieli tekst na litery inne niż litery; Stosuje małe litery i filtry tokenu stopword. Ten analizator jest implementowany przy użyciu platformy Apache Lucene. |
| StopwordsTokenFilter |
Usuwa słowa zatrzymania ze strumienia tokenu. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| SuggestDocumentsResult |
Odpowiedź zawierająca wyniki zapytania sugestii z indeksu. |
| SuggestRequest |
Parametry filtrowania, sortowania, dopasowywania rozmytego i innych sugestii dotyczących zachowań zapytań. |
| SynonymMap |
Reprezentuje definicję mapy synonimów. |
| SynonymTokenFilter |
Pasuje do synonimów pojedynczych lub wieloznanych w strumieniu tokenu. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| TagScoringFunction |
Definiuje funkcję, która zwiększa wyniki dokumentów przy użyciu wartości ciągów pasujących do danej listy tagów. |
| TagScoringParameters |
Udostępnia wartości parametrów funkcji oceniania tagów. |
| TextTranslationSkill |
Umiejętność tłumaczenia tekstu z jednego języka na inny. |
| TextWeights |
Definiuje wagi pól indeksu, dla których dopasowania powinny zwiększyć ocenianie w zapytaniach wyszukiwania. |
| TruncateTokenFilter |
Obcina terminy do określonej długości. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| UaxUrlEmailTokenizer |
Tokenizuje adresy URL i wiadomości e-mail jako jeden token. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene. |
| UniqueTokenFilter |
Filtruje tokeny z tym samym tekstem co poprzedni token. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
| VectorSearch |
Zawiera opcje konfiguracji związane z wyszukiwaniem wektorów. |
| VectorSearchOptions |
Definiuje opcje zapytań wyszukiwania wektorowego |
| VectorSearchProfile |
Definiuje kombinację konfiguracji do użycia z wyszukiwaniem wektorowym. |
| VectorizableTextQuery |
Parametry zapytania do użycia do wyszukiwania wektorowego, gdy zostanie podana wartość tekstowa, która musi zostać wektoryzowana. |
| VectorizedQuery |
Parametry zapytania do użycia do wyszukiwania wektorów po podaniu nieprzetworzonej wartości wektora. |
| WebApiParameters |
Określa właściwości nawiązywania połączenia z wektoryzatorem zdefiniowanym przez użytkownika. |
| WebApiSkill |
Umiejętność, która może wywołać punkt końcowy internetowego interfejsu API, umożliwiając rozszerzenie zestawu umiejętności przez wywołanie kodu niestandardowego. |
| WebApiVectorizer |
Określa wektoryzator zdefiniowany przez użytkownika do generowania wektora osadzania ciągu zapytania. Integracja zewnętrznego wektoryzatora jest osiągana przy użyciu niestandardowego internetowego interfejsu API zestawu umiejętności. |
| WordDelimiterTokenFilter |
Dzieli wyrazy na subwords i wykonuje opcjonalne przekształcenia w grupach podrzędnych. Ten filtr tokenu jest implementowany przy użyciu platformy Apache Lucene. |
Aliasy typu
| AnalyzeTextOptions |
Opcje analizowania operacji tekstowej. |
| AutocompleteMode |
Definiuje wartości dla autouzupełnianiaMode. |
| AutocompleteOptions |
Opcje pobierania tekstu uzupełniania dla częściowego tekstu searchText. |
| AzureOpenAIModelName |
Definiuje wartości dla elementu AzureOpenAIModelName. Znane wartości obsługiwane przez usługę
text-embedding-ada-002 |
| BlobIndexerDataToExtract | |
| BlobIndexerImageAction | |
| BlobIndexerPDFTextRotationAlgorithm | |
| BlobIndexerParsingMode | |
| CharFilter |
Zawiera możliwe przypadki charfilter. |
| CharFilterName |
Definiuje wartości charFilterName. Znane wartości obsługiwane przez usługęhtml_strip: filtr znaków, który próbuje usunąć konstrukcje HTML. Zobacz https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
| CjkBigramTokenFilterScripts |
Definiuje wartości CjkBigramTokenFilterScripts. |
| CognitiveServicesAccount |
Zawiera możliwe przypadki dla konta CognitiveServicesAccount. |
| ComplexDataType |
Definiuje wartości parametru ComplexDataType. Możliwe wartości obejmują: "Edm.ComplexType", "Collection(Edm.ComplexType)" |
| CountDocumentsOptions |
Opcje wykonywania operacji licznika w indeksie. |
| CreateDataSourceConnectionOptions |
Opcje tworzenia operacji źródła danych. |
| CreateIndexOptions |
Opcje tworzenia operacji indeksu. |
| CreateIndexerOptions |
Opcje tworzenia operacji indeksatora. |
| CreateSkillsetOptions |
Opcje tworzenia operacji zestawu umiejętności. |
| CreateSynonymMapOptions |
Opcje tworzenia operacji synonimów. |
| CustomEntityLookupSkillLanguage | |
| DataChangeDetectionPolicy |
Zawiera możliwe przypadki dla elementu DataChangeDetectionPolicy. |
| DataDeletionDetectionPolicy |
Zawiera możliwe przypadki dla elementu DataDeletionDetectionPolicy. |
| DeleteDocumentsOptions |
Opcje operacji usuwania dokumentów. |
| DocumentIntelligenceLayoutSkillChunkingUnit |
Definiuje wartości dla DocumentIntelligenceLayoutSkillChunkingUnit. Znane wartości obsługiwane przez usługęcharacters: Określa fragment według znaków. |
| DocumentIntelligenceLayoutSkillExtractionOptions |
Definiuje wartości dla DocumentIntelligenceLayoutSkillExtractionOptions. Znane wartości obsługiwane przez usługę
images: Określ, że zawartość obrazu ma zostać wyodrębniona z dokumentu. |
| DocumentIntelligenceLayoutSkillMarkdownHeaderDepth |
Definiuje wartości dla DocumentIntelligenceLayoutSkillMarkdownHeaderDepth. Znane wartości obsługiwane przez usługę
h1: Poziom nagłówka 1. |
| DocumentIntelligenceLayoutSkillOutputFormat |
Definiuje wartości dla DocumentIntelligenceLayoutSkillOutputFormat. Znane wartości obsługiwane przez usługę
text: Określ format danych wyjściowych jako tekst. |
| DocumentIntelligenceLayoutSkillOutputMode |
Definiuje wartości dla DocumentIntelligenceLayoutSkillOutputMode. Znane wartości obsługiwane przez usługęoneToMany: określ, że dane wyjściowe powinny być analizowane jako "oneToMany". |
| EdgeNGramTokenFilterSide |
Definiuje wartości elementu EdgeNGramTokenFilterSide. |
| EntityCategory | |
| EntityRecognitionSkillLanguage | |
| ExcludedODataTypes | |
| ExhaustiveKnnAlgorithmConfiguration |
Zawiera opcje konfiguracji specyficzne dla wyczerpującego algorytmu KNN używanego podczas wykonywania zapytań, które będą wykonywać wyszukiwanie siłowe w całym indeksie wektorów. |
| ExtractDocumentKey | |
| GetDataSourceConnectionOptions |
Opcje pobierania operacji źródła danych. |
| GetIndexOptions |
Opcje pobierania operacji indeksu. |
| GetIndexStatisticsOptions |
Opcje pobierania operacji statystyk indeksu. |
| GetIndexerOptions |
Opcje pobierania operacji indeksatora. |
| GetIndexerStatusOptions |
Opcje pobierania operacji stanu indeksatora. |
| GetServiceStatisticsOptions |
Opcje pobierania operacji statystyk usługi. |
| GetSkillSetOptions |
Opcje uzyskiwania operacji zestawu umiejętności. |
| GetSynonymMapsOptions |
Opcje pobierania operacji synonimów. |
| HnswAlgorithmConfiguration |
Zawiera opcje konfiguracji specyficzne dla algorytmu hnsw przybliżonych najbliższych sąsiadów używanych w czasie indeksowania. |
| ImageAnalysisSkillLanguage | |
| ImageDetail | |
| IndexActionType |
Definiuje wartości parametru IndexActionType. |
| IndexDocumentsAction |
Reprezentuje akcję indeksu działającą w dokumencie. |
| IndexIterator |
Iterator do wyświetlania listy indeksów, które istnieją w usłudze Search. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację. |
| IndexNameIterator |
Iterator do wyświetlania listy indeksów, które istnieją w usłudze Search. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację. |
| IndexProjectionMode |
Definiuje wartości parametru IndexProjectionMode. Znane wartości obsługiwane przez usługę
skipIndexingParentDocuments: dokument źródłowy zostanie pominięty podczas zapisywania w indeksie docelowym indeksatora. |
| IndexerExecutionEnvironment | |
| IndexerExecutionStatus |
Definiuje wartości parametru IndexerExecutionStatus. |
| IndexerStatus |
Definiuje wartości indeksatoraStatus. |
| KeyPhraseExtractionSkillLanguage | |
| LexicalAnalyzer |
Zawiera możliwe przypadki analizatora. |
| LexicalAnalyzerName |
Definiuje wartości lexicalAnalyzerName. Znane wartości obsługiwane przez usługę
ar.microsoft: Microsoft analyzer for Arabski. |
| LexicalNormalizer |
Zawiera możliwe przypadki leksykalneNormalizer. |
| LexicalNormalizerName |
Definiuje wartości lexicalNormalizerName. Znane wartości obsługiwane przez usługę
asciifolding: konwertuje alfabetyczne, liczbowe i symboliczne znaki Unicode, które nie znajdują się w pierwszych 127 znakach ASCII (blok Unicode "Basic Latin") na ich odpowiedniki ASCII, jeśli takie odpowiedniki istnieją. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html |
| LexicalTokenizer |
Zawiera możliwe przypadki tokenizatora. |
| LexicalTokenizerName |
Definiuje wartości lexicalTokenizerName. Znane wartości obsługiwane przez usługę
klasyczny: tokenizer oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
| ListDataSourceConnectionsOptions |
Opcje operacji list źródeł danych. |
| ListIndexersOptions |
Opcje operacji indeksatorów listy. |
| ListIndexesOptions |
Opcje operacji indeksów listy. |
| ListSkillsetsOptions |
Opcje operacji zestawów umiejętności listy. |
| ListSynonymMapsOptions |
Opcje operacji synonimów listyMaps. |
| MergeDocumentsOptions |
Opcje operacji scalania dokumentów. |
| MergeOrUploadDocumentsOptions |
Opcje operacji scalania lub przekazywania dokumentów. |
| MicrosoftStemmingTokenizerLanguage |
Definiuje wartości microsoftStemmingTokenizerLanguage. |
| MicrosoftTokenizerLanguage |
Definiuje wartości dla elementu MicrosoftTokenizerLanguage. |
| NarrowedModel |
Zawęża typ modelu, aby uwzględnić tylko wybrane pola |
| OcrLineEnding |
Definiuje wartości dla funkcji OcrLineEnding. Znane wartości obsługiwane przez usługę
spacji: Linie są oddzielone pojedynczym znakiem spacji. |
| OcrSkillLanguage | |
| PIIDetectionSkillMaskingMode | |
| PhoneticEncoder |
Definiuje wartości phoneticEncoder. |
| QueryAnswer |
Wartość określająca, czy odpowiedzi powinny być zwracane w ramach odpowiedzi wyszukiwania.
Ten parametr jest prawidłowy tylko wtedy, gdy typ zapytania jest "semantyczny". Jeśli ustawiono wartość |
| QueryCaption |
Wartość określająca, czy podpisy powinny być zwracane w ramach odpowiedzi wyszukiwania. Ten parametr jest prawidłowy tylko wtedy, gdy typ zapytania jest "semantyczny". W przypadku ustawienia zapytanie zwraca podpisy wyodrębnione z kluczowych fragmentów w najwyżej sklasyfikowanych dokumentach. Gdy napisy są "wyodrębnione", wyróżnianie jest domyślnie włączone. Wartość domyślna to "none". |
| QueryType |
Definiuje wartości parametru QueryType. |
| RankingOrder |
Definiuje wartości dla RankingOrder. Znane wartości obsługiwane przez usługę
BoostedRerankerScore: Ustawia porządek sortowania jako BoostedRerankerScore |
| RegexFlags | |
| ResetIndexerOptions |
Opcje resetowania operacji indeksatora. |
| RunIndexerOptions |
Opcje uruchamiania operacji indeksatora. |
| ScoringFunction |
Zawiera możliwe przypadki ocenianiaFunction. |
| ScoringFunctionAggregation |
Definiuje wartości funkcji ScoringFunctionAggregation. |
| ScoringFunctionInterpolation |
Definiuje wartości funkcji ScoringFunctionInterpolation. |
| ScoringStatistics |
Definiuje wartości dla funkcji ScoringStatistics. |
| SearchField |
Reprezentuje pole w definicji indeksu, które opisuje nazwę, typ danych i zachowanie wyszukiwania pola. |
| SearchFieldArray |
Jeśli |
| SearchFieldDataType |
Definiuje wartości parametru SearchFieldDataType. Znane wartości obsługiwane przez usługę:Edm.String: wskazuje, że pole zawiera ciąg. Edm.Int32: wskazuje, że pole zawiera 32-bitową liczbę całkowitą ze znakiem. Edm.Int64: wskazuje, że pole zawiera 64-bitową liczbę całkowitą ze znakiem. Edm.Double: wskazuje, że pole zawiera liczbę zmiennoprzecinkową IEEE o podwójnej precyzji. Edm.Boolean: wskazuje, że pole zawiera wartość logiczną (prawda lub fałsz). Edm.DateTimeOffset: wskazuje, że pole zawiera wartość daty/godziny, w tym informacje o strefie czasowej. Edm.GeographyPoint: Wskazuje, że pole zawiera lokalizację geograficzną pod względem długości geograficznej i szerokości geograficznej. Edm.ComplexType: wskazuje, że pole zawiera jeden lub więcej złożonych obiektów, które z kolei mają pola podrzędne innych typów. Edm.Single: wskazuje, że pole zawiera liczbę zmiennoprzecinkową o pojedynczej precyzji. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Single). Edm.Half: wskazuje, że pole zawiera liczbę zmiennoprzecinkową o pół precyzji. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Half). Edm.Int16: Wskazuje, że pole zawiera 16-bitową liczbę całkowitą ze znakiem. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Int16). Edm.SByte: wskazuje, że pole zawiera 8-bitową liczbę całkowitą ze znakiem. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.SByte). Edm.Byte: wskazuje, że pole zawiera 8-bitową liczbę całkowitą bez znaku. Jest to prawidłowe tylko wtedy, gdy jest używane jako część typu kolekcji, tj. Collection(Edm.Byte). |
| SearchIndexerDataIdentity |
Zawiera możliwe przypadki elementu SearchIndexerDataIdentity. |
| SearchIndexerDataSourceType | |
| SearchIndexerSkill |
Zawiera możliwe przypadki umiejętności. |
| SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderDeleteDocuments. |
| SearchIndexingBufferedSenderFlushDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderFlushDocuments. |
| SearchIndexingBufferedSenderMergeDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderMergeDocuments. |
| SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderMergeOrUploadDocuments. |
| SearchIndexingBufferedSenderUploadDocumentsOptions |
Opcje wyszukiwaniaIndexingBufferedSenderUploadDocuments. |
| SearchIterator |
Iterator wyników wyszukiwania zapytania patykowego. Będzie wysyłać żądania zgodnie z potrzebami podczas iteracji. Użyj metody .byPage(), aby wysłać jedno żądanie do serwera na iterację. |
| SearchMode |
Definiuje wartości dla elementu SearchMode. |
| SearchOptions |
Opcje zatwierdzania pełnego żądania wyszukiwania. |
| SearchPick |
Głęboko wybieraj pola języka T przy użyciu prawidłowych ścieżek OData wyszukiwania poznawczego OData $select. |
| SearchRequestOptions |
Parametry do filtrowania, sortowania, tworzenia aspektów, stronicowania i innych zachowań zapytań wyszukiwania. |
| SearchRequestQueryTypeOptions | |
| SearchResult |
Zawiera dokument znaleziony przez zapytanie wyszukiwania oraz skojarzone metadane. |
| SelectArray |
Jeśli |
| SelectFields |
Tworzy połączenie prawidłowych ścieżek OData wyszukiwania poznawczego OData $select dla języka T przy użyciu przechodzenia po kolejności drzewa pól zakorzenionego w lokalizacji T. |
| SemanticErrorMode | |
| SemanticErrorReason | |
| SemanticSearchResultsType | |
| SentimentSkillLanguage | |
| SimilarityAlgorithm |
Zawiera możliwe przypadki podobieństwa. |
| SnowballTokenFilterLanguage |
Definiuje wartości snowballTokenFilterLanguage. |
| SplitSkillLanguage | |
| StemmerTokenFilterLanguage |
Definiuje wartości dla stemmerTokenFilterLanguage. |
| StopwordsList |
Definiuje wartości stopwordsList. |
| SuggestNarrowedModel | |
| SuggestOptions |
Opcje pobierania sugestii na podstawie elementu searchText. |
| SuggestResult |
Wynik zawierający dokument znaleziony przez zapytanie sugestii oraz skojarzone metadane. |
| TextSplitMode | |
| TextTranslationSkillLanguage | |
| TokenCharacterKind |
Definiuje wartości tokenCharacterKind. |
| TokenFilter |
Zawiera możliwe przypadki tokenfiltru. |
| TokenFilterName |
Definiuje wartości TokenFilterName. Znane wartości obsługiwane przez usługę
arabic_normalization: filtr tokenu, który stosuje arabski normalizator w celu normalizacji orthografii. Zobacz http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
| UnionToIntersection | |
| UploadDocumentsOptions |
Opcje operacji przekazywania dokumentów. |
| VectorEncodingFormat |
Definiuje wartości elementu VectorEncodingFormat. Znane wartości obsługiwane przez usługępakowaneBit: format kodowania reprezentujący bity pakowane w szerszy typ danych. |
| VectorFilterMode | |
| VectorQuery |
Parametry zapytania dla wektorów i zapytań wyszukiwania hybrydowego. |
| VectorQueryKind | |
| VectorSearchAlgorithmConfiguration |
Zawiera opcje konfiguracji specyficzne dla algorytmu używanego podczas indeksowania i/lub wykonywania zapytań. |
| VectorSearchAlgorithmKind | |
| VectorSearchAlgorithmMetric | |
| VectorSearchCompression |
Zawiera opcje konfiguracji specyficzne dla metody kompresji używanej podczas indeksowania lub wykonywania zapytań. |
| VectorSearchCompressionKind |
Definiuje wartości elementu VectorSearchCompressionKind. Znane wartości obsługiwane przez usługę
scalarQuantization: Scalar Quantization, typ metody kompresji. W kwantyzacji skalarnej wartości oryginalnych wektorów są kompresowane do węższego typu przez dyskretyzowanie i reprezentowanie każdego składnika wektora przy użyciu ograniczonego zestawu kwantyzowanych wartości, zmniejszając w ten sposób ogólny rozmiar danych. |
| VectorSearchCompressionRescoreStorageMethod |
Definiuje wartości dla metody VectorSearchCompressionRescoreStorageMethod. Znane wartości obsługiwane przez usługę
preserveOriginals: Ta opcja powoduje zachowanie oryginalnych wektorów o pełnej precyzji. Wybierz tę opcję, aby uzyskać maksymalną elastyczność i najwyższą jakość skompresowanych wyników wyszukiwania. Zużywa to więcej miejsca do magazynowania, ale umożliwia ponownekorowanie i nadmierne próbkowanie. |
| VectorSearchCompressionTarget |
Definiuje wartości elementu VectorSearchCompressionTarget. Znane wartości obsługiwane przez usługęint8 |
| VectorSearchVectorizer |
Zawiera opcje konfiguracji dotyczące sposobu wektoryzacji zapytań wektorów tekstowych. |
| VectorSearchVectorizerKind |
Definiuje wartości vectorSearchVectorizerKind. Znane wartości obsługiwane przez usługę
azureOpenAI: Generuj osadzanie przy użyciu zasobu usługi Azure OpenAI w czasie wykonywania zapytania. |
| VisualFeature | |
Wyliczenia
Funkcje
| create |
Metoda pomocnika do utworzenia obiektu SynonymMap. Jest to tylko metoda NodeJS. |
| odata(Template |
Unika wyrażenia filtru odata, aby uniknąć błędów z literałami ciągu cudzysłowu. Przykładowe użycie:
Aby uzyskać więcej informacji na temat obsługiwanej składni, zobacz: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Szczegóły funkcji
createSynonymMapFromFile(string, string)
Metoda pomocnika do utworzenia obiektu SynonymMap. Jest to tylko metoda NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parametry
- name
-
string
Nazwa synonimuMap.
- filePath
-
string
Ścieżka pliku zawierającego synonimy (oddzielone przez nowe wiersze)
Zwraca
Promise<SynonymMap>
SynonimMap, obiekt
odata(TemplateStringsArray, unknown[])
Unika wyrażenia filtru odata, aby uniknąć błędów z literałami ciągu cudzysłowu. Przykładowe użycie:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Aby uzyskać więcej informacji na temat obsługiwanej składni, zobacz: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parametry
- strings
-
TemplateStringsArray
Tablica ciągów dla wyrażenia
- values
-
unknown[]
Tablica wartości wyrażenia
Zwraca
string