microsoft-cognitiveservices-speech-sdk package
Classes
| ActivityReceivedEventArgs |
Define o conteúdo da mensagem/eventos recebidos. |
| AudioConfig |
Representa a configuração de entrada de áudio usada para especificar que tipo de entrada usar (microfone, arquivo, fluxo). |
| AudioInputStream |
Representa o fluxo de entrada de áudio usado para configurações de entrada de áudio personalizadas. |
| AudioOutputStream |
Representa o fluxo de saída de áudio usado para configurações de saída de áudio personalizadas. |
| AudioStreamFormat |
Representa o formato de fluxo de áudio usado para configurações de entrada de áudio personalizadas. |
| AutoDetectSourceLanguageConfig |
Configuração de deteção automática de idioma. |
| AutoDetectSourceLanguageResult |
Formato de saída |
| AvatarConfig |
Define a configuração do avatar falante. |
| AvatarEventArgs |
Define o conteúdo para eventos de avatares falantes. |
| AvatarSynthesizer |
Define o sintetizador de avatar. |
| AvatarVideoFormat |
Define o formato de vídeo de saída do avatar. |
| AvatarWebRTCConnectionResult |
Define o resultado da conexão WebRTC do avatar. |
| BaseAudioPlayer |
Base audio player class TODO: Reproduz apenas PCM por enquanto. |
| BotFrameworkConfig |
Classe que define configurações para o objeto do conector do serviço de diálogo para usar um back-end do Bot Framework. |
| CancellationDetails |
Contém informações detalhadas sobre o motivo pelo qual um resultado foi cancelado. |
| CancellationDetailsBase |
Contém informações detalhadas sobre o motivo pelo qual um resultado foi cancelado. |
| Connection |
Connection é uma classe proxy para gerenciar a conexão com o serviço de fala do Recognizer especificado. Por padrão, um Recognizer gerencia de forma autônoma a conexão com o serviço quando necessário. A classe Connection fornece métodos adicionais para que os usuários abram ou fechem explicitamente uma conexão e assinem as alterações de status da conexão. O uso de Conexão é opcional e, principalmente, para cenários em que é necessário ajustar o comportamento do aplicativo com base no status da conexão. Opcionalmente, os usuários podem chamar Open() para configurar manualmente uma conexão com antecedência antes de iniciar o reconhecimento no Recognizer associado a essa conexão. Se o Reconhecedor precisar se conectar ou desconectar ao serviço, ele configurará ou desligará a conexão independentemente. Neste caso, a Ligação será notificada por alteração do estado da ligação através de eventos Ligados/Desconectados. Adicionado na versão 1.2.1. |
| ConnectionEventArgs |
Define a carga útil para eventos de conexão como Conectado/Desconectado. Adicionado na versão 1.2.0 |
| ConnectionMessage |
ConnectionMessage representa mensagens específicas de implementação enviadas e recebidas do serviço de fala. Essas mensagens são fornecidas para fins de depuração e não devem ser usadas para casos de uso de produção com o Serviço de Fala dos Serviços Cognitivos do Azure. As mensagens enviadas e recebidas do Serviço de Fala estão sujeitas a alterações sem aviso prévio. Isso inclui conteúdo de mensagens, cabeçalhos, cargas úteis, pedidos, etc. Adicionado na versão 1.11.0. |
| ConnectionMessageEventArgs | |
| Conversation | |
| ConversationExpirationEventArgs |
Define o conteúdo para eventos de sessão como SessionStarted/Stopped, SoundStarted/Stopped. |
| ConversationParticipantsChangedEventArgs |
Define o conteúdo para eventos de sessão como SessionStarted/Stopped, SoundStarted/Stopped. |
| ConversationTranscriber |
Executa o reconhecimento de fala com separação de alto-falante do microfone, arquivo ou outros fluxos de entrada de áudio e, como resultado, obtém texto transcrito. |
| ConversationTranscriptionCanceledEventArgs |
Define o conteúdo de um RecognitionErrorEvent. |
| ConversationTranscriptionEventArgs |
Define o conteúdo da conversa transcrita/transcrevendo o evento. |
| ConversationTranscriptionResult |
Define o resultado da transcrição da conversa. |
| ConversationTranslationCanceledEventArgs | |
| ConversationTranslationEventArgs |
Define a carga útil para eventos de sessão como Início/Fim de Fala Detetado |
| ConversationTranslationResult |
Resultado da tradução do texto. |
| ConversationTranslator |
Participe, saia ou conecte-se a uma conversa. |
| Coordinate |
Define uma coordenada no espaço 2D. |
| CustomCommandsConfig |
Classe que define configurações para o objeto do conector de serviço de diálogo para usar um back-end CustomCommands. |
| Diagnostics |
Define a API de diagnóstico para gerenciar a saída do console Adicionado na versão 1.21.0 |
| DialogServiceConfig |
Classe que define configurações básicas para conector de serviço de diálogo |
| DialogServiceConnector |
Conector de serviço de diálogo |
| KeywordRecognitionModel |
Representa um modelo de reconhecimento de palavra-chave para reconhecer quando o usuário diz uma palavra-chave para iniciar o reconhecimento de fala adicional. |
| Meeting | |
| MeetingTranscriber | |
| MeetingTranscriptionCanceledEventArgs |
Define o conteúdo de um MeetingTranscriptionCanceledEvent. |
| MeetingTranscriptionEventArgs |
Define o conteúdo do evento transcrito/transcritor da reunião. |
| NoMatchDetails |
Contém informações detalhadas sobre os resultados do reconhecimento NoMatch. |
| Participant |
Representa um participante de uma conversa. Adicionado na versão 1.4.0 |
| PhraseListGrammar |
Permite a adição de novas frases para melhorar o reconhecimento de fala. As frases adicionadas ao reconhecedor entram em vigor no início do próximo reconhecimento ou na próxima vez que o SpeechSDK precisar se reconectar ao serviço de fala. |
| PronunciationAssessmentConfig |
Configuração de avaliação de pronúncia. |
| PronunciationAssessmentResult |
Resultados da avaliação da pronúncia. |
| PropertyCollection |
Representa a coleção de propriedades e seus valores. |
| PullAudioInputStream |
Representa o fluxo de entrada de áudio usado para configurações de entrada de áudio personalizadas. |
| PullAudioInputStreamCallback |
Uma classe base abstrata que define métodos de retorno de chamada (read() e close()) para fluxos de entrada de áudio personalizados). |
| PullAudioOutputStream |
Representa o fluxo de saída de áudio push com backup de memória usado para configurações de saída de áudio personalizadas. |
| PushAudioInputStream |
Representa o fluxo de entrada de áudio por push com backup de memória usado para configurações de entrada de áudio personalizadas. |
| PushAudioOutputStream |
Representa o fluxo de saída de áudio usado para configurações de saída de áudio personalizadas. |
| PushAudioOutputStreamCallback |
Uma classe base abstrata que define métodos de retorno de chamada (write() e close()) para fluxos de saída de áudio personalizados). |
| RecognitionEventArgs |
Define a carga útil para eventos de sessão como Início/Fim de Fala Detetado |
| RecognitionResult |
Define o resultado do reconhecimento de fala. |
| Recognizer |
Define a classe base Recognizer, que contém principalmente manipuladores de eventos comuns. |
| ServiceEventArgs |
Define a carga útil para qualquer evento de mensagem de serviço adicionado na versão 1.9.0 |
| SessionEventArgs |
Define o conteúdo para eventos de sessão como SessionStarted/Stopped, SoundStarted/Stopped. |
| SourceLanguageConfig |
Configuração do idioma de origem. |
| SpeakerAudioDestination |
Representa o destino de áudio de reprodução do alto-falante, que só funciona no navegador. Observação: o SDK tentará usar de extensões de fonte de mídia para reproduzir áudio. O formato Mp3 tem melhores suportes no Microsoft Edge, Chrome e Safari (desktop), portanto, é melhor especificar o formato mp3 para reprodução. |
| SpeechConfig |
Configuração de fala. |
| SpeechConfigImpl | |
| SpeechRecognitionCanceledEventArgs | |
| SpeechRecognitionEventArgs |
Define o conteúdo do evento de reconhecimento/reconhecimento de fala. |
| SpeechRecognitionResult |
Define o resultado do reconhecimento de fala. |
| SpeechRecognizer |
Executa o reconhecimento de fala do microfone, arquivo ou outros fluxos de entrada de áudio e, como resultado, obtém texto transcrito. |
| SpeechSynthesisBookmarkEventArgs |
Define o conteúdo do evento de marcador de síntese de fala. |
| SpeechSynthesisEventArgs |
Define o conteúdo de eventos de síntese de fala. |
| SpeechSynthesisResult |
Define o resultado da síntese de fala. |
| SpeechSynthesisVisemeEventArgs |
Define o conteúdo do evento viseme de síntese de fala. |
| SpeechSynthesisWordBoundaryEventArgs |
Define o conteúdo do evento limite de palavras de síntese de fala. |
| SpeechSynthesizer |
Define a classe SpeechSynthesizer para conversão de texto em fala. Atualizado na versão 1.16.0 |
| SpeechTranslationConfig |
Configuração de tradução de fala. |
| SynthesisResult |
Classe de base para resultados de síntese |
| SynthesisVoicesResult |
Define o resultado da síntese de fala. |
| Synthesizer | |
| TranslationRecognitionCanceledEventArgs |
Defina a carga útil de eventos de resultado cancelados de reconhecimento de fala. |
| TranslationRecognitionEventArgs |
Argumentos de evento de resultado de texto de tradução. |
| TranslationRecognitionResult |
Resultado da tradução do texto. |
| TranslationRecognizer |
Reconhecimento de tradução |
| TranslationSynthesisEventArgs |
Argumentos do evento Síntese de Tradução |
| TranslationSynthesisResult |
Define o resultado da síntese da tradução, ou seja, a saída de voz do texto traduzido na língua de chegada. |
| Translations |
Representa a coleção de parâmetros e seus valores. |
| TurnStatusReceivedEventArgs |
Define o conteúdo da mensagem/eventos recebidos. |
| User | |
| VoiceInfo |
Informações sobre a voz Speech Synthesis adicionadas na versão 1.20.0. |
Interfaces
| CancellationEventArgs | |
| ConversationInfo | |
| IParticipant |
Representa um participante de uma conversa. Adicionado na versão 1.4.0 |
| IPlayer |
Representa a interface do player de áudio para controlar a reprodução de áudio, como pausar, retomar, etc. |
| IVoiceJson | |
| MeetingInfo | |
| VoiceSignature | |
Enumerações
| AudioFormatTag | |
| CancellationErrorCode |
Define o código de erro no caso de CancellationReason ser Error. Adicionado na versão 1.1.0. |
| CancellationReason |
Define os possíveis motivos pelos quais um resultado de reconhecimento pode ser cancelado. |
| LanguageIdMode |
Modo de identificação de idioma |
| LogLevel | |
| NoMatchReason |
Define os possíveis motivos pelos quais um resultado de reconhecimento pode não ser reconhecido. |
| OutputFormat |
Defina os formatos de saída do Reconhecimento de Fala. |
| ParticipantChangedReason | |
| ProfanityOption |
Opção de palavrões. Adicionado na versão 1.7.0. |
| PronunciationAssessmentGradingSystem |
Define o sistema de pontos para calibração da pontuação de pronúncia; o valor padrão é FivePoint. Adicionado na versão 1.15.0 |
| PronunciationAssessmentGranularity |
Define a granularidade da avaliação da pronúncia; o valor padrão é Phoneme. Adicionado na versão 1.15.0 |
| PropertyId |
Define ids de propriedade de fala. |
| ResultReason |
Define as possíveis razões pelas quais um resultado de reconhecimento pode ser gerado. |
| ServicePropertyChannel |
Define os canais usados para passar as configurações de propriedade para o serviço. Adicionado na versão 1.7.0. |
| SpeechSynthesisBoundaryType |
Define o tipo de limite do evento limite da síntese de fala. |
| SpeechSynthesisOutputFormat |
Defina formatos de saída de áudio de síntese de fala. SpeechSynthesisOutputFormat Atualizado na versão 1.17.0 |
| SynthesisVoiceGender |
Define o género das vozes de síntese. Adicionado na versão 1.20.0. |
| SynthesisVoiceType | |