@azure/search-documents package
Classes
| AzureKeyCredential |
Uma credencial baseada em chave estática que dá suporte à atualização do valor da chave subjacente. |
| GeographyPoint |
Representa um ponto geográfico em coordenadas globais. |
| IndexDocumentsBatch |
Classe usada para executar operações em lote com vários documentos para o índice. |
| KnowledgeRetrievalClient |
Classe usada para realizar operações contra uma base de conhecimento. |
| SearchClient |
Classe usada para executar operações em um índice de pesquisa, incluindo consultar documentos no índice, bem como adicioná-los, atualizá-los e removê-los. |
| SearchIndexClient |
Classe para executar operações para gerenciar índices (criar, atualizar, listar/excluir), & sinônimos. |
| SearchIndexerClient |
Classe para executar operações para gerenciar (criar, atualizar, listar/excluir) indexadores, fontes de dados & conjuntos de habilidades. |
| SearchIndexingBufferedSender |
Classe usada para executar operações em buffer em um índice de pesquisa, incluindo adição, atualização e remoção delas. |
Interfaces
| AIServices |
Parâmetros para a fonte de conhecimento do Armazenamento de Blobs do Azure. |
| AIServicesAccountIdentity |
A conta de várias regiões de um recurso de serviço de IA do Azure anexado a um conjunto de habilidades. |
| AIServicesAccountKey |
A chave da conta de um recurso de serviço de IA do Azure anexado a um conjunto de habilidades, a ser usado com o subdomínio do recurso. |
| AIServicesVisionParameters |
Especifica os parâmetros da Visão dos Serviços de IA para vetorizar uma imagem ou texto de consulta. |
| AIServicesVisionVectorizer |
Especifica os parâmetros da Visão dos Serviços de IA para vetorizar uma imagem ou texto de consulta. |
| AnalyzeRequest |
Especifica alguns componentes de texto e análise usados para dividir esse texto em tokens. |
| AnalyzeResult |
O resultado do teste de um analisador no texto. |
| AnalyzedTokenInfo |
Informações sobre um token retornado por um analisador. |
| AsciiFoldingTokenFilter |
Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latino Básico") em seus equivalentes ASCII, se esses equivalentes existirem. Esse filtro de token é implementado usando o Apache Lucene. |
| AutocompleteItem |
O resultado das solicitações de preenchimento automático. |
| AutocompleteRequest |
Parâmetros para correspondência difusa e outros comportamentos de consulta de preenchimento automático. |
| AutocompleteResult |
O resultado da consulta de preenchimento automático. |
| AzureActiveDirectoryApplicationCredentials |
Credenciais de um aplicativo registrado criado para seu serviço de pesquisa, usado para acesso autenticado às chaves de criptografia armazenadas no Azure Key Vault. |
| AzureBlobKnowledgeSource |
Configuração para a fonte de conhecimento do Armazenamento de Blobs do Azure. |
| AzureBlobKnowledgeSourceParameters |
Parâmetros para a fonte de conhecimento do Armazenamento de Blobs do Azure. |
| AzureBlobKnowledgeSourceParams |
Especifica parâmetros de runtime para uma fonte de conhecimento de blob do Azure |
| AzureMachineLearningSkill |
A habilidade de AML permite que você estenda o enriquecimento de IA com um modelo AML (Azure Machine Learning) personalizado. Depois que um modelo AML é treinado e implantado, uma habilidade de AML o integra ao enriquecimento de IA. |
| AzureMachineLearningVectorizer |
Especifica um ponto de extremidade do Azure Machine Learning implantado por meio do Catálogo de Modelos do Azure AI Foundry para gerar a inserção vetorial de uma cadeia de caracteres de consulta. |
| AzureOpenAIEmbeddingSkill |
Permite que você gere uma inserção de vetor para uma determinada entrada de texto usando o recurso Azure OpenAI. |
| AzureOpenAIParameters |
Especifica os parâmetros para se conectar ao recurso do Azure OpenAI. |
| AzureOpenAITokenizerParameters | |
| AzureOpenAIVectorizer |
Contém os parâmetros específicos para usar um serviço de IA Aberta do Azure para vetorização no momento da consulta. |
| BM25Similarity |
Função de classificação com base no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo do tipo TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1'). |
| BaseAzureMachineLearningVectorizerParameters |
Especifica as propriedades comuns entre todos os tipos de autenticação de vetorizador AML. |
| BaseCharFilter |
Tipo base para filtros de caractere. |
| BaseCognitiveServicesAccount |
Tipo base para descrever qualquer recurso de serviço de IA do Azure anexado a um conjunto de habilidades. |
| BaseDataChangeDetectionPolicy |
Tipo base para políticas de detecção de alterações de dados. |
| BaseDataDeletionDetectionPolicy |
Tipo base para políticas de detecção de exclusão de dados. |
| BaseKnowledgeBaseActivityRecord |
Tipo base para registros de atividade. |
| BaseKnowledgeBaseMessageContent |
Especifica o tipo de conteúdo da mensagem. |
| BaseKnowledgeBaseModel |
Especifica os parâmetros de conexão para o modelo a ser usado para o planejamento de consultas. |
| BaseKnowledgeBaseReference |
Tipo de base para referências. |
| BaseKnowledgeBaseRetrievalActivityRecord |
Representa um registro de atividade de recuperação. |
| BaseKnowledgeRetrievalReasoningEffort | |
| BaseKnowledgeSource |
Representa uma definição de fonte de conhecimento. |
| BaseKnowledgeSourceParams | |
| BaseKnowledgeSourceVectorizer |
Especifica o método de vetorização a ser usado para o modelo de incorporação de fonte de conhecimento, com nome opcional. |
| BaseLexicalAnalyzer |
Tipo base para analisadores. |
| BaseLexicalNormalizer |
Tipo base para normalizadores. |
| BaseLexicalTokenizer |
Tipo base para tokenizadores. |
| BaseScoringFunction |
Tipo base para funções que podem modificar as pontuações do documento durante a classificação. |
| BaseSearchIndexerDataIdentity |
Tipo base abstrato para identidades de dados. |
| BaseSearchIndexerSkill |
Tipo base para habilidades. |
| BaseSearchRequestOptions |
Parâmetros para filtragem, classificação, faceta, paginação e outros comportamentos de consulta de pesquisa. |
| BaseTokenFilter |
Tipo base para filtros de token. |
| BaseVectorQuery |
Os parâmetros de consulta para consultas de pesquisa vetor e híbrida. |
| BaseVectorSearchAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo usado durante a indexação e/ou consulta. |
| BaseVectorSearchCompression |
Contém opções de configuração específicas para o método de compactação usado durante a indexação ou consulta. |
| BaseVectorSearchVectorizer |
Contém detalhes específicos para um método de vetorização a ser usado durante o tempo de consulta. |
| BaseVectorThreshold |
O limite usado para consultas de vetor. |
| BinaryQuantizationCompression |
Contém opções de configuração específicas para o método de compactação de quantização binária usado durante a indexação e a consulta. |
| ChatCompletionResponseFormat |
Determina como a resposta do modelo de linguagem deve ser serializada. O padrão é 'text'. |
| ChatCompletionResponseFormatJsonSchemaProperties |
Um dicionário aberto para propriedades estendidas. Obrigatório se 'type' == 'json_schema' |
| ChatCompletionSchema |
Objeto que define o esquema personalizado que o modelo usará para estruturar sua saída. |
| ChatCompletionSkill |
Uma habilidade que chama um modelo de linguagem por meio do ponto de extremidade Conclusões de Chat do Azure AI Foundry. |
| CjkBigramTokenFilter |
Forma bigrams de termos CJK gerados a partir do tokenizador padrão. Esse filtro de token é implementado usando o Apache Lucene. |
| ClassicSimilarity |
Algoritmo de similaridade herdado que usa a implementação lucene TFIDFSimilarity do TF-IDF. Essa variação de TF-IDF introduz a normalização do comprimento do documento estático, bem como fatores de coordenação que penalizam documentos que correspondem apenas parcialmente às consultas pesquisadas. |
| ClassicTokenizer |
Tokenizador baseado em gramática adequado para processar a maioria dos documentos em idioma europeu. Esse tokenizador é implementado usando o Apache Lucene. |
| CognitiveServicesAccountKey |
A chave da conta de várias regiões de um recurso de serviço de IA do Azure anexado a um conjunto de habilidades. |
| CommonGramTokenFilter |
Construa bigrams para termos frequentes durante a indexação. Termos únicos ainda são indexados também, com bigrams sobrepostos. Esse filtro de token é implementado usando o Apache Lucene. |
| CommonModelParameters |
Parâmetros de modelo de linguagem comum para conclusões de chat. Se omitido, os valores padrão serão usados. |
| CompletedSynchronizationState |
Representa o estado concluído da última sincronização. |
| ComplexField |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
| ConditionalSkill |
Uma habilidade que permite cenários que exigem uma operação booliana para determinar os dados a serem atribuídos a uma saída. |
| ContentUnderstandingSkill |
Uma habilidade que aproveita o Reconhecimento de Conteúdo de IA do Azure para processar e extrair insights estruturados de documentos, permitindo conteúdo enriquecido e pesquisável para indexação e recuperação aprimoradas de documentos |
| ContentUnderstandingSkillChunkingProperties |
Controla a cardinalidade para dividir o conteúdo. |
| CorsOptions |
Define opções para controlar o CORS (Compartilhamento de Recursos entre Origens) para um índice. |
| CreateKnowledgeBaseOptions | |
| CreateKnowledgeSourceOptions | |
| CreateOrUpdateAliasOptions |
Opções para criar ou atualizar a operação de alias. |
| CreateOrUpdateIndexOptions |
Opções para criar/atualizar a operação de índice. |
| CreateOrUpdateKnowledgeBaseOptions | |
| CreateOrUpdateKnowledgeSourceOptions | |
| CreateOrUpdateSkillsetOptions |
Opções para a operação de conjunto de habilidades de criação/atualização. |
| CreateOrUpdateSynonymMapOptions |
Opções para a operação de synonymmap de criação/atualização. |
| CreateorUpdateDataSourceConnectionOptions |
Opções para criar/atualizar a operação de fonte de dados. |
| CreateorUpdateIndexerOptions |
Opções para a operação do indexador de criação/atualização. |
| CustomAnalyzer |
Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizador predefinido e um ou mais filtros. O tokenizador é responsável por dividir texto em tokens e os filtros para modificar tokens emitidos pelo tokenizer. |
| CustomEntity |
Um objeto que contém informações sobre as correspondências que foram encontradas e metadados relacionados. |
| CustomEntityAlias |
Um objeto complexo que pode ser usado para especificar ortografias ou sinônimos alternativos para o nome da entidade raiz. |
| CustomEntityLookupSkill |
Uma habilidade procura texto de uma lista personalizada definida pelo usuário de palavras e frases. |
| CustomNormalizer |
Permite que você configure a normalização para campos filtrados, classificáveis e facetáveis, que, por padrão, operam com correspondência estrita. Essa é uma configuração definida pelo usuário que consiste em pelo menos um ou mais filtros, que modificam o token armazenado. |
| DebugInfo |
Contém informações de depuração que podem ser usadas para explorar ainda mais os resultados da pesquisa. |
| DefaultCognitiveServicesAccount |
Um objeto vazio que representa o recurso de serviço de IA do Azure padrão para um conjunto de habilidades. |
| DeleteAliasOptions |
Opções para excluir a operação de alias. |
| DeleteDataSourceConnectionOptions |
Opções para excluir a operação de fonte de dados. |
| DeleteIndexOptions |
Opções para excluir a operação de índice. |
| DeleteIndexerOptions |
Opções para excluir a operação do indexador. |
| DeleteKnowledgeBaseOptions | |
| DeleteKnowledgeSourceOptions | |
| DeleteSkillsetOptions |
Opções para excluir a operação do conjunto de habilidades. |
| DeleteSynonymMapOptions |
Opções para a operação de synonymmap de exclusão. |
| DictionaryDecompounderTokenFilter |
Decompõe palavras compostas encontradas em muitas línguas germânicas. Esse filtro de token é implementado usando o Apache Lucene. |
| DistanceScoringFunction |
Define uma função que aumenta as pontuações com base na distância de uma localização geográfica. |
| DistanceScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de distância. |
| DocumentDebugInfo |
Contém informações de depuração que podem ser usadas para explorar ainda mais os resultados da pesquisa. |
| DocumentExtractionSkill |
Uma habilidade que extrai conteúdo de um arquivo dentro do pipeline de enriquecimento. |
| DocumentIntelligenceLayoutSkill |
Uma habilidade que extrai informações de conteúdo e layout (como markdown), por meio dos Serviços de IA do Azure, de arquivos dentro do pipeline de enriquecimento. |
| DocumentIntelligenceLayoutSkillChunkingProperties |
Controla a cardinalidade para dividir o conteúdo. |
| EdgeNGramTokenFilter |
Gera n-gramas dos tamanhos fornecidos a partir da frente ou da parte traseira de um token de entrada. Esse filtro de token é implementado usando o Apache Lucene. |
| EdgeNGramTokenizer |
Tokeniza a entrada de uma borda em n-gramas dos tamanhos fornecidos. Esse tokenizador é implementado usando o Apache Lucene. |
| ElisionTokenFilter |
Remove elisões. Por exemplo, "l'avion" (o plano) será convertido em "avion" (plano). Esse filtro de token é implementado usando o Apache Lucene. |
| EntityLinkingSkill |
Usando a API de Análise de Texto, extrai entidades vinculadas do texto. |
| EntityRecognitionSkill |
Reconhecimento de entidade de análise de texto. |
| EntityRecognitionSkillV3 |
Usando a API de Análise de Texto, extrai entidades de diferentes tipos do texto. |
| ExhaustiveKnnParameters |
Contém os parâmetros específicos para o algoritmo KNN exaustivo. |
| ExtractiveQueryAnswer |
Extrai os candidatos de resposta do conteúdo dos documentos retornados em resposta a uma consulta expressa como uma pergunta em linguagem natural. |
| ExtractiveQueryCaption |
Extrai legendas dos documentos correspondentes que contêm passagens relevantes para a consulta de pesquisa. |
| FacetResult |
Um único bucket de um resultado de consulta de faceta. Relata o número de documentos com um valor de campo caindo dentro de um intervalo específico ou com um determinado valor ou intervalo. |
| FieldMapping |
Define um mapeamento entre um campo em uma fonte de dados e um campo de destino em um índice. |
| FieldMappingFunction |
Representa uma função que transforma um valor de uma fonte de dados antes da indexação. |
| FreshnessScoringFunction |
Define uma função que aumenta as pontuações com base no valor de um campo de data e hora. |
| FreshnessScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de atualização. |
| GenerativeQueryRewrites |
Gere termos de consulta alternativos para aumentar o recall de uma solicitação de pesquisa. |
| GetDocumentOptions |
Opções para recuperar um único documento. |
| GetIndexStatsSummaryOptionalParams |
Parâmetros opcionais. |
| GetIndexStatsSummaryOptions | |
| GetKnowledgeBaseOptions | |
| GetKnowledgeSourceOptions | |
| GetKnowledgeSourceStatusOptions | |
| HighWaterMarkChangeDetectionPolicy |
Define uma política de detecção de alteração de dados que captura alterações com base no valor de uma coluna de marca d'água alta. |
| HnswParameters |
Contém os parâmetros específicos do algoritmo hnsw. |
| HybridSearchOptions |
Os parâmetros de consulta para configurar comportamentos de pesquisa híbrida. |
| ImageAnalysisSkill |
Uma habilidade que analisa arquivos de imagem. Ele extrai um conjunto avançado de recursos visuais com base no conteúdo da imagem. |
| IndexDocumentsClient |
Cliente de Documentos de Índice |
| IndexDocumentsOptions |
Opções para a operação de modificação do lote de índice. |
| IndexDocumentsResult |
Resposta que contém o status das operações para todos os documentos na solicitação de indexação. |
| IndexStatisticsSummary |
Estatísticas de um determinado índice. As estatísticas são coletadas periodicamente e não são garantidas como sempre up-to-date. |
| IndexedOneLakeKnowledgeSource |
Configuração para a fonte de conhecimento do OneLake. |
| IndexedOneLakeKnowledgeSourceParameters |
Parâmetros para a fonte de conhecimento do OneLake. |
| IndexedOneLakeKnowledgeSourceParams |
Especifica parâmetros de runtime para uma fonte de conhecimento indexada do OneLake |
| IndexedSharePointKnowledgeSource |
Configuração para a fonte de conhecimento do SharePoint. |
| IndexedSharePointKnowledgeSourceParameters |
Parâmetros para a fonte de conhecimento do SharePoint. |
| IndexedSharePointKnowledgeSourceParams |
Especifica parâmetros de tempo de execução para uma fonte de conhecimento indexada do SharePoint |
| IndexerExecutionResult |
Representa o resultado de uma execução individual do indexador. |
| IndexerRuntime |
Representa o consumo cumulativo de runtime do indexador no serviço. |
| IndexerState |
Representa todo o estado que define e determina a execução atual do indexador. |
| IndexersResyncOptionalParams |
Parâmetros opcionais. |
| IndexingParameters |
Representa parâmetros para a execução do indexador. |
| IndexingParametersConfiguration |
Um dicionário de propriedades de configuração específicas do indexador. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo. |
| IndexingResult |
Status de uma operação de indexação para um único documento. |
| IndexingSchedule |
Representa um agendamento para a execução do indexador. |
| InputFieldMappingEntry |
Mapeamento de campo de entrada para uma habilidade. |
| KeepTokenFilter |
Um filtro de token que mantém apenas tokens com texto contido em uma lista de palavras especificada. Esse filtro de token é implementado usando o Apache Lucene. |
| KeyAuthAzureMachineLearningVectorizerParameters |
Especifica as propriedades para se conectar a um vetorizador AML com uma chave de autenticação. |
| KeyPhraseExtractionSkill |
Uma habilidade que usa a análise de texto para extração de frases-chave. |
| KeywordMarkerTokenFilter |
Marca termos como palavras-chave. Esse filtro de token é implementado usando o Apache Lucene. |
| KeywordTokenizer |
Emite toda a entrada como um único token. Esse tokenizador é implementado usando o Apache Lucene. |
| KnowledgeBase | |
| KnowledgeBaseAgenticReasoningActivityRecord |
Representa um registro de atividade de raciocínio agente. |
| KnowledgeBaseAzureBlobActivityArguments |
Representa os argumentos com os quais a atividade de recuperação de blob do Azure foi executada. |
| KnowledgeBaseAzureBlobActivityRecord |
Representa um registro de atividade de recuperação de blob do Azure. |
| KnowledgeBaseAzureBlobReference |
Representa uma referência de documento do Armazenamento de Blobs do Azure. |
| KnowledgeBaseAzureOpenAIModel |
Especifica o recurso OpenAI do Azure usado para fazer o planejamento de consulta. |
| KnowledgeBaseErrorAdditionalInfo |
As informações adicionais do erro de gerenciamento de recursos. |
| KnowledgeBaseErrorDetail |
Os detalhes do erro. |
| KnowledgeBaseIndexedOneLakeActivityArguments |
Representa os argumentos com que a atividade de recuperação indexada do OneLake foi conduzida. |
| KnowledgeBaseIndexedOneLakeActivityRecord |
Representa um registro indexado de atividade de recuperação do OneLake. |
| KnowledgeBaseIndexedOneLakeReference |
Representa uma referência de documento do Armazenamento de Blobs do Azure. |
| KnowledgeBaseIndexedSharePointActivityArguments |
Representa os argumentos com os quais a atividade indexada de recuperação do SharePoint foi executada. |
| KnowledgeBaseIndexedSharePointActivityRecord |
Representa um registro indexado de atividade de recuperação do SharePoint. |
| KnowledgeBaseIndexedSharePointReference |
Representa uma referência de documento do Armazenamento de Blobs do Azure. |
| KnowledgeBaseMessage |
O objeto de estilo de mensagem de linguagem natural. |
| KnowledgeBaseMessageImageContent |
Tipo de mensagem de texto. |
| KnowledgeBaseMessageImageContentImage | |
| KnowledgeBaseMessageTextContent |
Tipo de mensagem de texto. |
| KnowledgeBaseModelAnswerSynthesisActivityRecord |
Representa um registro de atividade de síntese de resposta do LLM. |
| KnowledgeBaseModelQueryPlanningActivityRecord |
Representa um registro de atividade de planejamento de consulta LLM. |
| KnowledgeBaseRemoteSharePointActivityArguments |
Representa os argumentos com que a atividade remota de recuperação do SharePoint foi executada. |
| KnowledgeBaseRemoteSharePointActivityRecord |
Representa um registro remoto de atividade de recuperação do SharePoint. |
| KnowledgeBaseRemoteSharePointReference |
Representa uma referência de documento remoto do SharePoint. |
| KnowledgeBaseRetrievalRequest |
O contrato de entrada para a solicitação de recuperação. |
| KnowledgeBaseRetrievalResponse |
O contrato de saída para a resposta de recuperação. |
| KnowledgeBaseSearchIndexActivityArguments |
Representa os argumentos com os quais a atividade de recuperação de índice de pesquisa foi executada. |
| KnowledgeBaseSearchIndexActivityRecord |
Representa um registro de atividade de recuperação de índice de pesquisa. |
| KnowledgeBaseSearchIndexFieldReference | |
| KnowledgeBaseSearchIndexReference |
Representa uma referência de documento do Azure Search. |
| KnowledgeBaseWebActivityArguments |
Representa os argumentos com que a atividade de recuperação web foi conduzida. |
| KnowledgeBaseWebActivityRecord |
Representa um registro de atividade de recuperação web. |
| KnowledgeBaseWebReference |
Representa uma referência de documento da Web. |
| KnowledgeRetrievalClientOptions |
Opções de cliente usadas para configurar solicitações de API de Pesquisa Cognitiva. |
| KnowledgeRetrievalIntent |
Uma consulta destinada a ser executada sem planejamento de consulta de modelo. |
| KnowledgeRetrievalLowReasoningEffort |
Execute a recuperação de conhecimento com baixo esforço de raciocínio. |
| KnowledgeRetrievalMediumReasoningEffort |
Execute a recuperação de conhecimento com esforço de raciocínio médio. |
| KnowledgeRetrievalMinimalReasoningEffort |
Execute a recuperação de conhecimento com o mínimo de esforço de raciocínio. |
| KnowledgeRetrievalReasoningEffort | |
| KnowledgeRetrievalSemanticIntent |
Uma consulta destinada a ser executada sem planejamento de consulta de modelo. |
| KnowledgeSourceAzureOpenAIVectorizer |
Especifica o recurso OpenAI do Azure usado para vetorizar uma cadeia de caracteres de consulta. |
| KnowledgeSourceIngestionParameters |
Consolida todas as configurações gerais de ingestão para fontes de conhecimento. |
| KnowledgeSourceReference | |
| KnowledgeSourceStatistics |
Informações estatísticas sobre o histórico de sincronização da fonte de conhecimento. |
| KnowledgeSourceStatus |
Representa o status e o histórico de sincronização de uma fonte de conhecimento. |
| LanguageDetectionSkill |
Uma habilidade que detecta o idioma do texto de entrada e relata um único código de idioma para cada documento enviado na solicitação. O código de idioma é emparelhado com uma pontuação que indica a confiança da análise. |
| LengthTokenFilter |
Remove palavras muito longas ou muito curtas. Esse filtro de token é implementado usando o Apache Lucene. |
| LimitTokenFilter |
Limita o número de tokens durante a indexação. Esse filtro de token é implementado usando o Apache Lucene. |
| ListIndexStatsSummary |
Resposta de uma solicitação para recuperar o resumo de estatísticas de todos os índices. Se for bem-sucedido, ele incluirá as estatísticas de cada índice no serviço. |
| ListKnowledgeBasesOptions | |
| ListKnowledgeSourcesOptions | |
| ListSearchResultsPageSettings |
Argumentos para recuperar a próxima página de resultados da pesquisa. |
| LuceneStandardAnalyzer |
Analisador standard do Apache Lucene; Composto pelo tokenizador padrão, filtro em letras minúsculas e filtro de parada. |
| LuceneStandardTokenizer |
Quebra o texto seguindo as regras de Segmentação de Texto Unicode. Esse tokenizador é implementado usando o Apache Lucene. |
| MagnitudeScoringFunction |
Define uma função que aumenta as pontuações com base na magnitude de um campo numérico. |
| MagnitudeScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de magnitude. |
| MappingCharFilter |
Um filtro de caractere que aplica mapeamentos definidos com a opção de mapeamentos. A correspondência é gananciosa (a correspondência de padrões mais longa em um determinado ponto vence). A substituição tem permissão para ser a cadeia de caracteres vazia. Esse filtro de caractere é implementado usando o Apache Lucene. |
| MergeSkill |
Uma habilidade para mesclar duas ou mais cadeias de caracteres em uma única cadeia de caracteres unificada, com um delimitador opcional definido pelo usuário separando cada parte do componente. |
| MicrosoftLanguageStemmingTokenizer |
Divide o texto usando regras específicas do idioma e reduz as palavras aos formulários base. |
| MicrosoftLanguageTokenizer |
Divide o texto usando regras específicas do idioma. |
| NGramTokenFilter |
Gera n-gramas dos tamanhos determinados. Esse filtro de token é implementado usando o Apache Lucene. |
| NGramTokenizer |
Tokeniza a entrada em n-gramas dos tamanhos fornecidos. Esse tokenizador é implementado usando o Apache Lucene. |
| NativeBlobSoftDeleteDeletionDetectionPolicy |
Define uma política de detecção de exclusão de dados utilizando o recurso de exclusão reversível nativo do Armazenamento de Blobs do Azure para detecção de exclusão. |
| NoAuthAzureMachineLearningVectorizerParameters |
Especifica as propriedades para se conectar a um vetor AML sem autenticação. |
| OcrSkill |
Uma habilidade que extrai texto de arquivos de imagem. |
| OutputFieldMappingEntry |
Mapeamento de campo de saída para uma habilidade. |
| PIIDetectionSkill |
Usando a API de Análise de Texto, extrai informações pessoais de um texto de entrada e oferece a opção de mascara-la. |
| PathHierarchyTokenizer |
Tokenizer para hierarquias semelhantes a caminho. Esse tokenizador é implementado usando o Apache Lucene. |
| PatternAnalyzer |
Separa o texto com flexibilidade em termos por meio de um padrão de expressão regular. Esse analisador é implementado usando o Apache Lucene. |
| PatternCaptureTokenFilter |
Usa regexes Java para emitir vários tokens – um para cada grupo de captura em um ou mais padrões. Esse filtro de token é implementado usando o Apache Lucene. |
| PatternReplaceCharFilter |
Um filtro de caractere que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, considerando o texto de entrada "aa bb aa bb", padrão "(aa)\s+(bb)" e substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de caractere é implementado usando o Apache Lucene. |
| PatternReplaceTokenFilter |
Um filtro de caractere que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres para preservar e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, considerando o texto de entrada "aa bb aa bb", padrão "(aa)\s+(bb)" e substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de token é implementado usando o Apache Lucene. |
| PatternTokenizer |
Tokenizer que usa a correspondência de padrões regex para construir tokens distintos. Esse tokenizador é implementado usando o Apache Lucene. |
| PhoneticTokenFilter |
Crie tokens para correspondências fonéticas. Esse filtro de token é implementado usando o Apache Lucene. |
| QueryAnswerResult |
Uma resposta é uma passagem de texto extraída do conteúdo dos documentos mais relevantes que corresponderam à consulta. As respostas são extraídas dos principais resultados da pesquisa. Os candidatos de resposta são pontuados e as principais respostas são selecionadas. |
| QueryCaptionResult |
As legendas são as passagens mais representativas do documento relativamente para a consulta de pesquisa. Eles geralmente são usados como resumo do documento. As legendas são retornadas apenas para consultas do tipo |
| QueryResultDocumentInnerHit |
Informações detalhadas de pontuação para um elemento individual de uma coleção complexa. |
| QueryResultDocumentRerankerInput |
As cadeias de caracteres concatenadas brutas que foram enviadas para o processo de enriquecimento semântico. |
| QueryResultDocumentSemanticField |
Descrição dos campos que foram enviados para o processo de enriquecimento semântico, bem como como eles foram usados |
| QueryResultDocumentSubscores |
A divisão de subscores entre os componentes de consulta de texto e vetor da consulta de pesquisa para este documento. Cada consulta de vetor é mostrada como um objeto separado na mesma ordem em que foram recebidos. |
| QueryRewritesDebugInfo |
Contém informações de depuração específicas para reescritas de consulta. |
| QueryRewritesValuesDebugInfo |
Contém informações de depuração específicas para reescritas de consulta. |
| RemoteSharePointKnowledgeSource |
Configuração para fonte de conhecimento remota do SharePoint. |
| RemoteSharePointKnowledgeSourceParameters |
Parâmetros para a fonte de conhecimento remota do SharePoint. |
| RemoteSharePointKnowledgeSourceParams |
Especifica parâmetros de tempo de execução para uma fonte de conhecimento remota do SharePoint |
| RescoringOptions |
Contém as opções de recortação. |
| ResetDocumentsOptions |
Opções para redefinir a operação de documentos. |
| ResetSkillsOptions |
Opções para redefinir a operação de habilidades. |
| ResourceCounter |
Representa o uso e a cota de um recurso. |
| RetrieveKnowledgeOptions | |
| ScalarQuantizationCompression |
Contém opções de configuração específicas para o método de compactação de quantização escalar usado durante a indexação e a consulta. |
| ScalarQuantizationParameters |
Contém os parâmetros específicos para a Quantização Escalar. |
| ScoringProfile |
Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa. |
| SearchAlias |
Representa um alias de índice, que descreve um mapeamento do nome do alias para um índice. O nome do alias pode ser usado no lugar do nome do índice para operações com suporte. |
| SearchClientOptions |
Opções do cliente usadas para configurar solicitações de API do AI Search. |
| SearchDocumentsPageResult |
Resposta que contém os resultados da página de pesquisa de um índice. |
| SearchDocumentsResult |
Resposta que contém os resultados da pesquisa de um índice. |
| SearchDocumentsResultBase |
Resposta que contém os resultados da pesquisa de um índice. |
| SearchIndex |
Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice. |
| SearchIndexClientOptions |
Opções do cliente usadas para configurar solicitações de API do AI Search. |
| SearchIndexFieldReference | |
| SearchIndexKnowledgeSource |
Fonte de conhecimento direcionada a um índice de pesquisa. |
| SearchIndexKnowledgeSourceParameters |
Parâmetros para a fonte de conhecimento do índice de pesquisa. |
| SearchIndexKnowledgeSourceParams |
Especifica parâmetros de tempo de execução para uma fonte de conhecimento de índice de pesquisa |
| SearchIndexStatistics |
Estatísticas de um determinado índice. As estatísticas são coletadas periodicamente e não são garantidas como sempre up-to-date. |
| SearchIndexer |
Representa um indexador. |
| SearchIndexerCache | |
| SearchIndexerClientOptions |
Opções do cliente usadas para configurar solicitações de API do AI Search. |
| SearchIndexerDataContainer |
Representa informações sobre a entidade (como a tabela SQL do Azure ou a coleção cosmosDB) que serão indexadas. |
| SearchIndexerDataNoneIdentity |
Limpa a propriedade de identidade de uma fonte de dados. |
| SearchIndexerDataSourceConnection |
Representa uma definição de fonte de dados, que pode ser usada para configurar um indexador. |
| SearchIndexerDataUserAssignedIdentity |
Especifica a identidade de uma fonte de dados a ser usada. |
| SearchIndexerError |
Representa um erro de indexação no nível do item ou do documento. |
| SearchIndexerIndexProjection |
Definição de projeções adicionais para índices de pesquisa secundários. |
| SearchIndexerIndexProjectionParameters |
Um dicionário de propriedades de configuração específicas da projeção de índice. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo. |
| SearchIndexerIndexProjectionSelector |
Descrição de quais dados armazenar no índice de pesquisa designado. |
| SearchIndexerKnowledgeStore |
Definição de projeções adicionais para blob, tabela ou arquivos do Azure de dados enriquecidos. |
| SearchIndexerKnowledgeStoreBlobProjectionSelector |
Classe abstrata para compartilhar propriedades entre seletores concretos. |
| SearchIndexerKnowledgeStoreFileProjectionSelector |
Definição de projeção para quais dados armazenar nos Arquivos do Azure. |
| SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definição de projeção para quais dados armazenar no Blob do Azure. |
| SearchIndexerKnowledgeStoreParameters |
Um dicionário de propriedades de configuração específicas do repositório de conhecimento. Cada nome é o nome de uma propriedade específica. Cada valor deve ser de um tipo primitivo. |
| SearchIndexerKnowledgeStoreProjection |
Objeto de contêiner para vários seletores de projeção. |
| SearchIndexerKnowledgeStoreProjectionSelector |
Classe abstrata para compartilhar propriedades entre seletores concretos. |
| SearchIndexerKnowledgeStoreTableProjectionSelector |
Descrição de quais dados armazenar nas Tabelas do Azure. |
| SearchIndexerLimits | |
| SearchIndexerSkillset |
Uma lista de habilidades. |
| SearchIndexerStatus |
Representa o status atual e o histórico de execução de um indexador. |
| SearchIndexerWarning |
Representa um aviso no nível do item. |
| SearchIndexingBufferedSenderOptions |
Opções para SearchIndexingBufferedSender. |
| SearchResourceEncryptionKey |
Uma chave de criptografia gerenciada pelo cliente no Azure Key Vault. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso no Azure AI Search, como índices e mapas de sinônimos. |
| SearchScoreThreshold |
Os resultados da consulta de vetor serão filtrados com base no valor '@search.score'. Observe que esta é a @search.score retornada como parte da resposta de pesquisa. A direção do limite será escolhida para @search.scoresuperiores. |
| SearchServiceStatistics |
Resposta de uma solicitação obter estatísticas de serviço. Se tiver êxito, ele inclui contadores e limites de nível de serviço. |
| SearchSuggester |
Define como a API de Sugestão deve se aplicar a um grupo de campos no índice. |
| SemanticConfiguration |
Define uma configuração específica a ser usada no contexto de funcionalidades semânticas. |
| SemanticDebugInfo |
Opções de depuração para consultas de pesquisa semântica. |
| SemanticField |
Um campo usado como parte da configuração semântica. |
| SemanticPrioritizedFields |
Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, realces e respostas. |
| SemanticSearch |
Define parâmetros para um índice de pesquisa que influenciam as funcionalidades semânticas. |
| SemanticSearchOptions |
Define opções para consultas de pesquisa semântica |
| SentimentSkill |
Análise de sentimento positivo-negativo da análise de texto, pontuada como um valor de ponto flutuante em um intervalo de zero a 1. |
| SentimentSkillV3 |
Usando a API de Análise de Texto, avalia o texto não estruturado e, para cada registro, fornece rótulos de sentimento (como "negativo", "neutro" e "positivo") com base na pontuação de confiança mais alta encontrada pelo serviço em uma frase e no nível do documento. |
| ServiceCounters |
Representa cotas e contadores de recursos no nível do serviço. |
| ServiceLimits |
Representa vários limites de nível de serviço. |
| ShaperSkill |
Uma habilidade para remodelar as saídas. Ele cria um tipo complexo para dar suporte a campos compostos (também conhecidos como campos de várias partes). |
| SharePointSensitivityLabelInfo |
Informações sobre o rótulo de confidencialidade aplicado a um documento do SharePoint. |
| ShingleTokenFilter |
Cria combinações de tokens como um único token. Esse filtro de token é implementado usando o Apache Lucene. |
| Similarity |
Tipo base para algoritmos de similaridade. Algoritmos de similaridade são usados para calcular pontuações que vinculam consultas a documentos. Quanto maior a pontuação, mais relevante é o documento para essa consulta específica. Essas pontuações são usadas para classificar os resultados da pesquisa. |
| SimpleField |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
| SingleVectorFieldResult |
Um único resultado de campo de vetor. Os valores de similaridade de @search.score e vetor são retornados. A similaridade de vetor está relacionada a @search.score por uma equação. |
| SnowballTokenFilter |
Um filtro que resulta em palavras usando um lematizador gerado por Bola de Neve. Esse filtro de token é implementado usando o Apache Lucene. |
| SoftDeleteColumnDeletionDetectionPolicy |
Define uma política de detecção de exclusão de dados que implementa uma estratégia de exclusão reversível. Ele determina se um item deve ser excluído com base no valor de uma coluna designada como "exclusão reversível". |
| SplitSkill |
Uma habilidade para dividir uma cadeia de caracteres em partes de texto. |
| SqlIntegratedChangeTrackingPolicy |
Define uma política de detecção de alteração de dados que captura alterações usando o recurso controle de alterações integrado do Banco de Dados SQL do Azure. |
| StemmerOverrideTokenFilter |
Fornece a capacidade de substituir outros filtros com base em dicionário personalizado. Todos os termos de lematização de dicionário serão marcados como palavras-chave para que não sejam decorrentes de lematizadores na cadeia. Deve ser colocado antes de qualquer filtro de contenção. Esse filtro de token é implementado usando o Apache Lucene. |
| StemmerTokenFilter |
Filtro de lematização específico da linguagem. Esse filtro de token é implementado usando o Apache Lucene. |
| StopAnalyzer |
Divide o texto em letras não letras; Aplica os filtros de token de letras minúsculas e palavras irrelevantes. Esse analisador é implementado usando o Apache Lucene. |
| StopwordsTokenFilter |
Remove palavras irrelevantes de um fluxo de token. Esse filtro de token é implementado usando o Apache Lucene. |
| SuggestDocumentsResult |
Resposta que contém os resultados da consulta de sugestão de um índice. |
| SuggestRequest |
Parâmetros para filtragem, classificação, correspondência difusa e outros comportamentos de consulta de sugestões. |
| SynchronizationState |
Representa o estado atual de uma sincronização contínua que abrange várias execuções do indexador. |
| SynonymMap |
Representa uma definição de mapa de sinônimos. |
| SynonymTokenFilter |
Corresponde a sinônimos de uma ou várias palavras em um fluxo de token. Esse filtro de token é implementado usando o Apache Lucene. |
| TagScoringFunction |
Define uma função que aumenta as pontuações de documentos com valores de cadeia de caracteres correspondentes a uma determinada lista de marcas. |
| TagScoringParameters |
Fornece valores de parâmetro para uma função de pontuação de marca. |
| TextResult |
A pontuação BM25 ou Classic para a parte de texto da consulta. |
| TextTranslationSkill |
Uma habilidade para traduzir texto de um idioma para outro. |
| TextWeights |
Define os pesos nos campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa. |
| TokenAuthAzureMachineLearningVectorizerParameters |
Especifica as propriedades para se conectar a um vetor AML com uma identidade gerenciada. |
| TruncateTokenFilter |
Trunca os termos para um comprimento específico. Esse filtro de token é implementado usando o Apache Lucene. |
| UaxUrlEmailTokenizer |
Tokeniza urls e emails como um token. Esse tokenizador é implementado usando o Apache Lucene. |
| UniqueTokenFilter |
Filtra tokens com o mesmo texto do token anterior. Esse filtro de token é implementado usando o Apache Lucene. |
| VectorSearch |
Contém opções de configuração relacionadas à pesquisa de vetor. |
| VectorSearchOptions |
Define opções para consultas de pesquisa de vetor |
| VectorSearchProfile |
Define uma combinação de configurações a serem usadas com a pesquisa de vetor. |
| VectorSimilarityThreshold |
Os resultados da consulta de vetor serão filtrados com base na métrica de similaridade de vetor. Observe que essa é a definição canônica da métrica de similaridade, não a versão de "distância". A direção do limite (maior ou menor) será escolhida automaticamente de acordo com a métrica usada pelo campo. |
| VectorizableImageBinaryQuery |
Os parâmetros de consulta a serem usados para pesquisa de vetor quando um binário codificado em base 64 de uma imagem que precisa ser vetorizada é fornecido. |
| VectorizableImageUrlQuery |
Os parâmetros de consulta a serem usados para pesquisa de vetor quando uma URL que representa um valor de imagem que precisa ser vetorizado é fornecida. |
| VectorizableTextQuery |
Os parâmetros de consulta a serem usados para pesquisa de vetor quando um valor de texto que precisa ser vetorizado é fornecido. |
| VectorizedQuery |
Os parâmetros de consulta a serem usados para pesquisa de vetor quando um valor de vetor bruto é fornecido. |
| VectorsDebugInfo | |
| VisionVectorizeSkill |
Permite que você gere uma inserção de vetor para uma determinada entrada de imagem ou texto usando a API de Vetorização da Visão dos Serviços de IA do Azure. |
| WebApiParameters |
Especifica as propriedades para se conectar a um vetor definido pelo usuário. |
| WebApiSkill |
Uma habilidade que pode chamar um ponto de extremidade de API Web, permitindo que você estenda um conjunto de habilidades fazendo com que ele chame seu código personalizado. |
| WebApiVectorizer |
Especifica um vetor definido pelo usuário para gerar a inserção de vetor de uma cadeia de caracteres de consulta. A integração de um vetorizador externo é obtida usando a interface de API Web personalizada de um conjunto de habilidades. |
| WebKnowledgeSource |
Fonte de conhecimento direcionando resultados da Web. |
| WebKnowledgeSourceDomain |
Configuração para domínio de fonte de conhecimento da Web. |
| WebKnowledgeSourceDomains |
Configuração de permissão/bloqueio de domínio para fonte de conhecimento da Web. |
| WebKnowledgeSourceParameters |
Parâmetros para fonte de conhecimento da Web. |
| WebKnowledgeSourceParams |
Especifica parâmetros de tempo de execução para uma fonte de conhecimento da Web |
| WordDelimiterTokenFilter |
Divide palavras em sub palavras e executa transformações opcionais em grupos de sub palavras. Esse filtro de token é implementado usando o Apache Lucene. |
Aliases de tipo
| AIFoundryModelCatalogName |
Define valores para AIFoundryModelCatalogName. Valores conhecidos compatíveis com o serviço
OpenAI-CLIP-Image-Text-Embeddings-vit-base-patch32 |
| AliasIterator |
Um iterador para listar os aliases que existem no serviço de Pesquisa. Isso fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
| AnalyzeTextOptions |
Opções para analisar a operação de texto. |
| AutocompleteMode |
Define valores para AutocompleteMode. |
| AutocompleteOptions |
Opções para recuperar o texto de conclusão de um searchText parcial. |
| AzureMachineLearningVectorizerParameters |
Especifica as propriedades para se conectar a um vetorizador AML. |
| AzureOpenAIModelName |
Define valores para AzureOpenAIModelName. Valores conhecidos compatíveis com o serviço
text-embedding-ada-002 |
| BaseKnowledgeRetrievalIntent | |
| BaseKnowledgeRetrievalOutputMode |
Define valores para KnowledgeRetrievalOutputMode. Valores conhecidos compatíveis com o serviço
extractiveData: retorna dados das fontes de conhecimento diretamente sem alteração geradora. |
| BlobIndexerDataToExtract | |
| BlobIndexerImageAction | |
| BlobIndexerPDFTextRotationAlgorithm | |
| BlobIndexerParsingMode | |
| CharFilter |
Contém os casos possíveis para CharFilter. |
| CharFilterName |
Define valores para CharFilterName. Valores conhecidos compatíveis com o serviçohtml_strip: um filtro de caractere que tenta remover constructos HTML. Consulte https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
| ChatCompletionExtraParametersBehavior |
Define valores para ChatCompletionExtraParametersBehavior. Valores conhecidos compatíveis com o serviço
passThrough: Passa todos os parâmetros extras diretamente para o modelo. |
| ChatCompletionResponseFormatType |
Define valores para ChatCompletionResponseFormatType. Valores conhecidos compatíveis com o serviço
Texto |
| CjkBigramTokenFilterScripts |
Define valores para CjkBigramTokenFilterScripts. |
| CognitiveServicesAccount |
Contém os casos possíveis para CognitiveServicesAccount. |
| ComplexDataType |
Define valores para ComplexDataType. Os valores possíveis incluem: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
| ContentUnderstandingSkillChunkingUnit |
Define valores para ConteúdoEntendendoHabilidadeChunkingUnit. Valores conhecidos compatíveis com o serviçocaracteres: Especifica o pedaço por caracteres. |
| ContentUnderstandingSkillExtractionOptions |
Define valores para ConteúdoEntendendoOEscolhasDeExtração. Valores conhecidos compatíveis com o serviço
images: especifique que o conteúdo da imagem deve ser extraído do documento. |
| CountDocumentsOptions |
Opções para executar a operação de contagem no índice. |
| CreateAliasOptions |
Opções para criar operação de alias. |
| CreateDataSourceConnectionOptions |
Opções para criar operação de fonte de dados. |
| CreateIndexOptions |
Opções para criar operação de índice. |
| CreateIndexerOptions |
Opções para criar operação de indexador. |
| CreateSkillsetOptions |
Opções para criar uma operação de conjunto de habilidades. |
| CreateSynonymMapOptions |
Opções para criar operação de synonymmap. |
| CustomEntityLookupSkillLanguage | |
| DataChangeDetectionPolicy |
Contém os casos possíveis para DataChangeDetectionPolicy. |
| DataDeletionDetectionPolicy |
Contém os casos possíveis para DataDeletionDetectionPolicy. |
| DeleteDocumentsOptions |
Opções para a operação de exclusão de documentos. |
| DocumentIntelligenceLayoutSkillChunkingUnit |
Define valores para DocumentIntelligenceLayoutSkillChunkingUnit. Valores conhecidos compatíveis com o serviçocaracteres: Especifica o pedaço por caracteres. |
| DocumentIntelligenceLayoutSkillExtractionOptions |
Define valores para DocumentIntelligenceLayoutSkillExtractionOptions. Valores conhecidos compatíveis com o serviço
images: especifique que o conteúdo da imagem deve ser extraído do documento. |
| DocumentIntelligenceLayoutSkillMarkdownHeaderDepth |
Define valores para DocumentIntelligenceLayoutSkillMarkdownHeaderDepth. Valores conhecidos compatíveis com o serviço
h1: Cabeçalho nível 1. |
| DocumentIntelligenceLayoutSkillOutputFormat |
Define valores para DocumentIntelligenceLayoutSkillOutputFormat. Valores conhecidos compatíveis com o serviço
text: especifique o formato da saída como texto. |
| DocumentIntelligenceLayoutSkillOutputMode |
Define valores para DocumentIntelligenceLayoutSkillOutputMode. Valores conhecidos compatíveis com o serviçooneToMany: especifique que a saída deve ser analisada como 'oneToMany'. |
| EdgeNGramTokenFilterSide |
Define valores para EdgeNGramTokenFilterSide. |
| EntityCategory | |
| EntityRecognitionSkillLanguage | |
| ExcludedODataTypes | |
| ExhaustiveKnnAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice de vetor. |
| ExtractDocumentKey | |
| GetAliasOptions |
Opções para obter a operação de alias. |
| GetDataSourceConnectionOptions |
Opções para obter a operação de fonte de dados. |
| GetIndexOptions |
Opções para obter a operação de índice. |
| GetIndexStatisticsOptions |
Opções para obter a operação de estatísticas de índice. |
| GetIndexStatsSummaryResponse |
Contém dados de resposta para a operação getIndexStatsSummary. |
| GetIndexerOptions |
Opções para obter a operação do indexador. |
| GetIndexerStatusOptions |
Opções para obter a operação de status do indexador. |
| GetServiceStatisticsOptions |
Opções para obter a operação de estatísticas de serviço. |
| GetSkillSetOptions |
Opções para obter a operação do conjunto de habilidades. |
| GetSynonymMapsOptions |
Opções para obter a operação de sinônimos. |
| HnswAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo de vizinho mais próximo aproximado do hnsw usado durante o tempo de indexação. |
| HybridCountAndFacetMode |
Define valores para HybridCountAndFacetMode. Valores conhecidos compatíveis com o serviço
countRetrievableResults: inclua apenas documentos que foram correspondidos na janela de recuperação 'maxTextRecallSize' ao calcular 'count' e 'facetas'. |
| ImageAnalysisSkillLanguage | |
| ImageDetail | |
| IndexActionType |
Define valores para IndexActionType. |
| IndexDocumentsAction |
Representa uma ação de índice que opera em um documento. |
| IndexIterator |
Um iterador para listar os índices que existem no serviço de Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
| IndexNameIterator |
Um iterador para listar os índices que existem no serviço de Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
| IndexProjectionMode |
Define valores para IndexProjectionMode. Valores conhecidos compatíveis com o serviço
skipIndexingParentDocuments: o documento de origem será ignorado da gravação no índice de destino do indexador. |
| IndexStatisticsSummaryIterator |
Um iterador para resumos de estatísticas para cada índice no serviço de Pesquisa. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
| IndexedSharePointContainerName |
Define valores para IndexedSharePointContainerName. Valores conhecidos compatíveis com o serviço
defaultSiteLibrary: Indexar conteúdo da biblioteca de documentos padrão do site. |
| IndexerExecutionEnvironment | |
| IndexerExecutionStatus |
Define valores para IndexerExecutionStatus. |
| IndexerExecutionStatusDetail |
Define valores para IndexerExecutionStatusDetail. Valores conhecidos compatíveis com o serviço
resetDocs: indica que a redefinição que ocorreu foi para uma chamada para ResetDocs. |
| IndexerPermissionOption |
Define valores para IndexerPermissionOption. Valores conhecidos compatíveis com o serviço
userIds: indexador para assimilar userIds da ACL da fonte de dados para o índice. |
| IndexerResyncOption |
Define valores para IndexerResyncOption. Valores conhecidos compatíveis com o serviçopermissions: indexador para realimentar dados de permissões pré-selecionados da fonte de dados para o índice. |
| IndexerStatus |
Define valores para IndexerStatus. |
| IndexingMode |
Define valores para IndexingMode. Valores conhecidos compatíveis com o serviço
indexingAllDocs: o indexador está indexando todos os documentos na fonte de dados. |
| KeyPhraseExtractionSkillLanguage | |
| KnowledgeBaseActivityRecord | |
| KnowledgeBaseIterator |
Um iterador para listar as bases de conhecimento existentes no serviço de Busca. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
| KnowledgeBaseMessageContent | |
| KnowledgeBaseModel | |
| KnowledgeBaseReference | |
| KnowledgeBaseRetrievalActivityRecord | |
| KnowledgeRetrievalOutputMode |
Define valores para KnowledgeRetrievalOutputMode. Valores conhecidos compatíveis com o serviço
extractiveData: retorna dados das fontes de conhecimento diretamente sem alteração geradora. |
| KnowledgeRetrievalReasoningEffortUnion | |
| KnowledgeSource | |
| KnowledgeSourceContentExtractionMode |
Define valores para KnowledgeSourceContentExtractionMode. Valores conhecidos compatíveis com o serviço
mínimo: extrai apenas metadados essenciais enquanto adia a maior parte do processamento de conteúdo. |
| KnowledgeSourceIngestionPermissionOption |
Define valores para KnowledgeSourceIngestionPermissionOption. Valores conhecidos compatíveis com o serviço
userIds: Ingerir identificadores explícitos de usuário junto com o conteúdo do documento. |
| KnowledgeSourceIterator |
Um iterador para listar as fontes de conhecimento que existem no serviço de Busca. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
| KnowledgeSourceKind |
Define valores para KnowledgeSourceKind. Valores conhecidos compatíveis com o serviço
searchIndex: Uma fonte de conhecimento que recupera dados de um Índice de Busca. |
| KnowledgeSourceParams | |
| KnowledgeSourceSynchronizationStatus |
Define valores para KnowledgeSourceSynchronizationStatus. Valores conhecidos compatíveis com o serviço
criação: A fonte de conhecimento está sendo provisionada. |
| KnowledgeSourceVectorizer | |
| LexicalAnalyzer |
Contém os casos possíveis para o Analisador. |
| LexicalAnalyzerName |
Define valores para LexicalAnalyzerName. Valores conhecidos compatíveis com o serviço
ar.microsoft: Analisador da Microsoft para árabe. |
| LexicalNormalizer |
Contém os casos possíveis para LexicalNormalizer. |
| LexicalNormalizerName |
Define valores para LexicalNormalizerName. Valores conhecidos compatíveis com o serviço
asciifolding: converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latino Básico") em seus equivalentes ASCII, se esses equivalentes existirem. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html |
| LexicalTokenizer |
Contém os casos possíveis para o Tokenizer. |
| LexicalTokenizerName |
Define valores para LexicalTokenizerName. Valores conhecidos compatíveis com o serviço
clássico: tokenizador baseado em gramática adequado para processar a maioria dos documentos de idioma europeu. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
| ListAliasesOptions |
Opções para a operação de aliases de lista. |
| ListDataSourceConnectionsOptions |
Opções para uma operação de fontes de dados de lista. |
| ListIndexersOptions |
Opções para uma operação de indexadores de lista. |
| ListIndexesOptions |
Opções para uma operação de índices de lista. |
| ListSkillsetsOptions |
Opções para uma operação de conjuntos de habilidades de lista. |
| ListSynonymMapsOptions |
Opções para uma operação synonymMaps de lista. |
| MarkdownHeaderDepth |
Define valores para MarkdownHeaderDepth. Valores conhecidos compatíveis com o serviço
h1: indica que cabeçalhos até um nível de h1 serão considerados ao agrupar o conteúdo de markdown. |
| MarkdownParsingSubmode |
Define valores para MarkdownParsingSubmode. Valores conhecidos compatíveis com o serviço
oneToMany: indica que cada seção do arquivo markdown (até uma profundidade especificada) será analisada em documentos de pesquisa individuais. Isso pode resultar em um único arquivo markdown produzindo vários documentos de pesquisa. Esse é o sub-modo padrão. |
| MergeDocumentsOptions |
Opções para a operação de mesclagem de documentos. |
| MergeOrUploadDocumentsOptions |
Opções para a operação de mesclagem ou upload de documentos. |
| MicrosoftStemmingTokenizerLanguage |
Define valores para MicrosoftStemmingTokenizerLanguage. |
| MicrosoftTokenizerLanguage |
Define valores para MicrosoftTokenizerLanguage. |
| NarrowedModel |
Restringe o tipo de modelo para incluir apenas os Campos selecionados |
| OcrLineEnding |
Define valores para OcrLineEnding. Valores conhecidos compatíveis com o serviço
espaço: as linhas são separadas por um único caractere de espaço. |
| OcrSkillLanguage | |
| PIIDetectionSkillMaskingMode | |
| PermissionFilter |
Define valores para PermissionFilter. Valores conhecidos compatíveis com o serviço
userIds: O campo representa os IDs de usuário que devem ser usados para filtrar o acesso a documentos em consultas. |
| PhoneticEncoder |
Define valores para PhoneticEncoder. |
| QueryAnswer |
Um valor que especifica se as respostas devem ser retornadas como parte da resposta de pesquisa.
Esse parâmetro só será válido se o tipo de consulta for 'semântico'. Se definido como |
| QueryCaption |
Um valor que especifica se as legendas devem ser retornadas como parte da resposta de pesquisa. Esse parâmetro só será válido se o tipo de consulta for 'semântico'. Se definida, a consulta retornará legendas extraídas das principais passagens nos documentos mais bem classificados. Quando Legendas são 'extrativas', o realce é habilitado por padrão. O padrão é 'none'. |
| QueryDebugMode |
Define valores para QueryDebugMode. Valores conhecidos compatíveis com o serviço
desabilitado: nenhuma informação de depuração de consulta será retornada. |
| QueryLanguage |
Define valores para QueryLanguage. Valores conhecidos compatíveis com o serviço
none: idioma de consulta não especificado. |
| QueryRewrites |
Define opções para regravações de consulta. |
| QuerySpeller |
Define valores para QuerySpellerType. Valores conhecidos compatíveis com o serviço
nenhum: o verificador ortográfico não está habilitado. |
| QueryType |
Define valores para QueryType. |
| RankingOrder |
Define valores para RankingOrder. Valores conhecidos compatíveis com o serviço
BoostedRerankerScore: Define a ordem de classificação como BoostedRerankerScore |
| RegexFlags | |
| ResetIndexerOptions |
Opções para redefinir a operação do indexador. |
| RunIndexerOptions |
Opções para executar a operação do indexador. |
| ScoringFunction |
Contém os casos possíveis para ScoreFunction. |
| ScoringFunctionAggregation |
Define valores para ScoreFunctionAggregation. |
| ScoringFunctionInterpolation |
Define valores para ScoreFunctionInterpolation. |
| ScoringStatistics |
Define valores para ScoreStatistics. |
| SearchField |
Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo. |
| SearchFieldArray |
Se |
| SearchFieldDataType |
Define valores para SearchFieldDataType. Valores conhecidos compatíveis com o serviço:Edm.String: indica que um campo contém uma cadeia de caracteres. Edm.Int32: indica que um campo contém um inteiro com sinal de 32 bits. Edm.Int64: indica que um campo contém um inteiro com sinal de 64 bits. Edm.Double: indica que um campo contém um número de ponto flutuante de precisão dupla IEEE. Edm.Boolean: indica que um campo contém um valor booliano (verdadeiro ou falso). Edm.DateTimeOffset: indica que um campo contém um valor de data/hora, incluindo informações de fuso horário. Edm.GeographyPoint: indica que um campo contém uma localização geográfica em termos de longitude e latitude. Edm.ComplexType: indica que um campo contém um ou mais objetos complexos que, por sua vez, têm sub-campos de outros tipos. Edm.Single: indica que um campo contém um número de ponto flutuante de precisão única. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Single). Edm.Half: indica que um campo contém um número de ponto flutuante de meia precisão. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Half). Edm.Int16: indica que um campo contém um inteiro com sinal de 16 bits. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Int16). Edm.SByte: indica que um campo contém um inteiro com sinal de 8 bits. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.SByte). Edm.Byte: indica que um campo contém um inteiro sem sinal de 8 bits. Isso só é válido quando usado como parte de um tipo de coleção, ou seja, Collection(Edm.Byte). |
| SearchIndexAlias |
Objeto Alias de pesquisa. |
| SearchIndexPermissionFilterOption |
Define valores para SearchIndexPermissionFilterOption. Valores conhecidos compatíveis com o serviço
enabled |
| SearchIndexerDataIdentity |
Contém os casos possíveis para SearchIndexerDataIdentity. |
| SearchIndexerDataSourceType | |
| SearchIndexerSkill |
Contém os casos possíveis para Skill. |
| SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opções para SearchIndexingBufferedSenderDeleteDocuments. |
| SearchIndexingBufferedSenderFlushDocumentsOptions |
Opções para SearchIndexingBufferedSenderFlushDocuments. |
| SearchIndexingBufferedSenderMergeDocumentsOptions |
Opções para SearchIndexingBufferedSenderMergeDocuments. |
| SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opções para SearchIndexingBufferedSenderMergeOrUploadDocuments. |
| SearchIndexingBufferedSenderUploadDocumentsOptions |
Opções para SearchIndexingBufferedSenderUploadDocuments. |
| SearchIterator |
Um iterador para resultados de pesquisa de uma consulta paticular. Fará solicitações conforme necessário durante a iteração. Use .byPage() para fazer uma solicitação ao servidor por iteração. |
| SearchMode |
Define valores para SearchMode. |
| SearchOptions |
Opções para confirmar uma solicitação de pesquisa completa. |
| SearchPick |
Escolha profundamente os campos de T usando caminhos de $select OData de pesquisa de IA válidos. |
| SearchRequestOptions |
Parâmetros para filtragem, classificação, faceta, paginação e outros comportamentos de consulta de pesquisa. |
| SearchRequestQueryTypeOptions | |
| SearchResult |
Contém um documento encontrado por uma consulta de pesquisa, além de metadados associados. |
| SelectArray |
Se |
| SelectFields |
Produz uma união de caminhos de OData de pesquisa de IA válidos $select para T usando uma passagem pós-ordem da árvore de campo enraizada em T. |
| SemanticErrorMode | |
| SemanticErrorReason | |
| SemanticFieldState |
Define valores para SemanticFieldState. Valores conhecidos compatíveis com o serviço
used: O campo foi totalmente utilizado para enriquecimento semântico. |
| SemanticQueryRewritesResultType |
Define valores para SemanticQueryRewritesResultType. Valores conhecidos compatíveis com o serviçooriginalQueryOnly: as reescritas de consulta não foram geradas com êxito para esta solicitação. Somente a consulta original foi usada para recuperar os resultados. |
| SemanticSearchResultsType | |
| SentimentSkillLanguage | |
| SimilarityAlgorithm |
Contém os casos possíveis para Similaridade. |
| SnowballTokenFilterLanguage |
Define valores para o Bola de NeveTokenFilterLanguage. |
| SplitSkillEncoderModelName |
Define valores para SplitSkillEncoderModelName. Valores conhecidos compatíveis com o serviço
r50k_base: Refere-se a um modelo base treinado com um vocabulário de 50.000 tokens, geralmente usado em tarefas gerais de processamento de linguagem natural. |
| SplitSkillLanguage | |
| SplitSkillUnit |
Define valores para SplitSkillUnit. Valores conhecidos compatíveis com o serviço
caracteres: O comprimento será medido por caractere. |
| StemmerTokenFilterLanguage |
Define valores para StemmerTokenFilterLanguage. |
| StopwordsList |
Define valores para StopwordsList. |
| SuggestNarrowedModel | |
| SuggestOptions |
Opções para recuperar sugestões com base no searchText. |
| SuggestResult |
Um resultado que contém um documento encontrado por uma consulta de sugestão, além de metadados associados. |
| TextSplitMode | |
| TextTranslationSkillLanguage | |
| TokenCharacterKind |
Define valores para TokenCharacterKind. |
| TokenFilter |
Contém os casos possíveis para TokenFilter. |
| TokenFilterName |
Define valores para TokenFilterName. Valores conhecidos compatíveis com o serviço
arabic_normalization: um filtro de token que aplica o normalizador árabe para normalizar a orthografia. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
| UnionToIntersection | |
| UploadDocumentsOptions |
Opções para a operação de upload de documentos. |
| VectorEncodingFormat |
Define valores para VectorEncodingFormat. Valores conhecidos compatíveis com o serviçopackedBit: formato de codificação que representa bits empacotados em um tipo de dados mais amplo. |
| VectorFilterMode | |
| VectorQuery |
Os parâmetros de consulta para consultas de pesquisa vetor e híbrida. |
| VectorQueryKind | |
| VectorSearchAlgorithmConfiguration |
Contém opções de configuração específicas para o algoritmo usado durante a indexação e/ou consulta. |
| VectorSearchAlgorithmKind | |
| VectorSearchAlgorithmMetric | |
| VectorSearchCompression |
Contém opções de configuração específicas para o método de compactação usado durante a indexação ou consulta. |
| VectorSearchCompressionKind |
Define valores para VectorSearchCompressionKind. Valores conhecidos compatíveis com o serviço
scalarQuantization: Quantization Escalar, um tipo de método de compactação. Na quantização escalar, os valores de vetores originais são compactados para um tipo mais estreito discretizando e representando cada componente de um vetor usando um conjunto reduzido de valores quantizados, reduzindo assim o tamanho geral dos dados. |
| VectorSearchCompressionRescoreStorageMethod |
Define valores para VectorSearchCompressionRescoreStorageMethod. Valores conhecidos compatíveis com o serviço
preserveOriginals: Esta opção preserva os vetores originais de precisão total. Escolha essa opção para obter a máxima flexibilidade e a mais alta qualidade dos resultados da pesquisa compactada. Isso consome mais armazenamento, mas permite a recorção e a sobrecarga. |
| VectorSearchCompressionTarget |
Define valores para VectorSearchCompressionTarget. Valores conhecidos compatíveis com o serviçoint8 |
| VectorSearchVectorizer |
Contém opções de configuração sobre como vetorizar consultas de vetor de texto. |
| VectorSearchVectorizerKind |
Define valores para VectorSearchVectorizerKind. Valores conhecidos compatíveis com o serviço
azureOpenAI: gerar inserções usando um recurso do Azure OpenAI no momento da consulta. |
| VectorThreshold |
O limite usado para consultas de vetor. |
| VisualFeature | |
| WebApiSkills | |
Enumerações
Funções
| create |
Método auxiliar para criar um objeto SynonymMap. Este é um método somente NodeJS. |
| odata(Template |
Escapa de uma expressão de filtro odata para evitar erros com literais de cadeia de caracteres entre aspas. Uso de exemplo:
Para obter mais informações sobre a sintaxe com suporte, consulte: https://learn.microsoft.com/azure/search/search-query-odata-filter |
Detalhes da função
createSynonymMapFromFile(string, string)
Método auxiliar para criar um objeto SynonymMap. Este é um método somente NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parâmetros
- name
-
string
Nome do SynonymMap.
- filePath
-
string
Caminho do arquivo que contém os sinônimos (semperados por novas linhas)
Retornos
Promise<SynonymMap>
Objeto SynonymMap
odata(TemplateStringsArray, unknown[])
Escapa de uma expressão de filtro odata para evitar erros com literais de cadeia de caracteres entre aspas. Uso de exemplo:
import { odata } from "@azure/search-documents";
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Para obter mais informações sobre a sintaxe com suporte, consulte: https://learn.microsoft.com/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parâmetros
- strings
-
TemplateStringsArray
Matriz de cadeias de caracteres para a expressão
- values
-
unknown[]
Matriz de valores para a expressão
Retornos
string