Partilhar via


microsoft-cognitiveservices-speech-sdk package

Classes

ActivityReceivedEventArgs

Define o conteúdo da mensagem/eventos recebidos.

AudioConfig

Representa a configuração de entrada de áudio usada para especificar que tipo de entrada usar (microfone, arquivo, fluxo).

AudioInputStream

Representa o fluxo de entrada de áudio usado para configurações de entrada de áudio personalizadas.

AudioOutputStream

Representa o fluxo de saída de áudio usado para configurações de saída de áudio personalizadas.

AudioStreamFormat

Representa o formato de fluxo de áudio usado para configurações de entrada de áudio personalizadas.

AutoDetectSourceLanguageConfig

Configuração de deteção automática de idioma.

AutoDetectSourceLanguageResult

Formato de saída

AvatarConfig

Define a configuração do avatar falante.

AvatarEventArgs

Define o conteúdo para eventos de avatares falantes.

AvatarSynthesizer

Define o sintetizador de avatar.

AvatarVideoFormat

Define o formato de vídeo de saída do avatar.

AvatarWebRTCConnectionResult

Define o resultado da conexão WebRTC do avatar.

BaseAudioPlayer

Base audio player class TODO: Reproduz apenas PCM por enquanto.

BotFrameworkConfig

Classe que define configurações para o objeto do conector do serviço de diálogo para usar um back-end do Bot Framework.

CancellationDetails

Contém informações detalhadas sobre o motivo pelo qual um resultado foi cancelado.

CancellationDetailsBase

Contém informações detalhadas sobre o motivo pelo qual um resultado foi cancelado.

Connection

Connection é uma classe proxy para gerenciar a conexão com o serviço de fala do Recognizer especificado. Por padrão, um Recognizer gerencia de forma autônoma a conexão com o serviço quando necessário. A classe Connection fornece métodos adicionais para que os usuários abram ou fechem explicitamente uma conexão e assinem as alterações de status da conexão. O uso de Conexão é opcional e, principalmente, para cenários em que é necessário ajustar o comportamento do aplicativo com base no status da conexão. Opcionalmente, os usuários podem chamar Open() para configurar manualmente uma conexão com antecedência antes de iniciar o reconhecimento no Recognizer associado a essa conexão. Se o Reconhecedor precisar se conectar ou desconectar ao serviço, ele configurará ou desligará a conexão independentemente. Neste caso, a Ligação será notificada por alteração do estado da ligação através de eventos Ligados/Desconectados. Adicionado na versão 1.2.1.

ConnectionEventArgs

Define a carga útil para eventos de conexão como Conectado/Desconectado. Adicionado na versão 1.2.0

ConnectionMessage

ConnectionMessage representa mensagens específicas de implementação enviadas e recebidas do serviço de fala. Essas mensagens são fornecidas para fins de depuração e não devem ser usadas para casos de uso de produção com o Serviço de Fala dos Serviços Cognitivos do Azure. As mensagens enviadas e recebidas do Serviço de Fala estão sujeitas a alterações sem aviso prévio. Isso inclui conteúdo de mensagens, cabeçalhos, cargas úteis, pedidos, etc. Adicionado na versão 1.11.0.

ConnectionMessageEventArgs
Conversation
ConversationExpirationEventArgs

Define o conteúdo para eventos de sessão como SessionStarted/Stopped, SoundStarted/Stopped.

ConversationParticipantsChangedEventArgs

Define o conteúdo para eventos de sessão como SessionStarted/Stopped, SoundStarted/Stopped.

ConversationTranscriber

Executa o reconhecimento de fala com separação de alto-falante do microfone, arquivo ou outros fluxos de entrada de áudio e, como resultado, obtém texto transcrito.

ConversationTranscriptionCanceledEventArgs

Define o conteúdo de um RecognitionErrorEvent.

ConversationTranscriptionEventArgs

Define o conteúdo da conversa transcrita/transcrevendo o evento.

ConversationTranscriptionResult

Define o resultado da transcrição da conversa.

ConversationTranslationCanceledEventArgs
ConversationTranslationEventArgs

Define a carga útil para eventos de sessão como Início/Fim de Fala Detetado

ConversationTranslationResult

Resultado da tradução do texto.

ConversationTranslator

Participe, saia ou conecte-se a uma conversa.

Coordinate

Define uma coordenada no espaço 2D.

CustomCommandsConfig

Classe que define configurações para o objeto do conector de serviço de diálogo para usar um back-end CustomCommands.

Diagnostics

Define a API de diagnóstico para gerenciar a saída do console Adicionado na versão 1.21.0

DialogServiceConfig

Classe que define configurações básicas para conector de serviço de diálogo

DialogServiceConnector

Conector de serviço de diálogo

KeywordRecognitionModel

Representa um modelo de reconhecimento de palavra-chave para reconhecer quando o usuário diz uma palavra-chave para iniciar o reconhecimento de fala adicional.

Meeting
MeetingTranscriber
MeetingTranscriptionCanceledEventArgs

Define o conteúdo de um MeetingTranscriptionCanceledEvent.

MeetingTranscriptionEventArgs

Define o conteúdo do evento transcrito/transcritor da reunião.

NoMatchDetails

Contém informações detalhadas sobre os resultados do reconhecimento NoMatch.

Participant

Representa um participante de uma conversa. Adicionado na versão 1.4.0

PhraseListGrammar

Permite a adição de novas frases para melhorar o reconhecimento de fala.

As frases adicionadas ao reconhecedor entram em vigor no início do próximo reconhecimento ou na próxima vez que o SpeechSDK precisar se reconectar ao serviço de fala.

PronunciationAssessmentConfig

Configuração de avaliação de pronúncia.

PronunciationAssessmentResult

Resultados da avaliação da pronúncia.

PropertyCollection

Representa a coleção de propriedades e seus valores.

PullAudioInputStream

Representa o fluxo de entrada de áudio usado para configurações de entrada de áudio personalizadas.

PullAudioInputStreamCallback

Uma classe base abstrata que define métodos de retorno de chamada (read() e close()) para fluxos de entrada de áudio personalizados).

PullAudioOutputStream

Representa o fluxo de saída de áudio push com backup de memória usado para configurações de saída de áudio personalizadas.

PushAudioInputStream

Representa o fluxo de entrada de áudio por push com backup de memória usado para configurações de entrada de áudio personalizadas.

PushAudioOutputStream

Representa o fluxo de saída de áudio usado para configurações de saída de áudio personalizadas.

PushAudioOutputStreamCallback

Uma classe base abstrata que define métodos de retorno de chamada (write() e close()) para fluxos de saída de áudio personalizados).

RecognitionEventArgs

Define a carga útil para eventos de sessão como Início/Fim de Fala Detetado

RecognitionResult

Define o resultado do reconhecimento de fala.

Recognizer

Define a classe base Recognizer, que contém principalmente manipuladores de eventos comuns.

ServiceEventArgs

Define a carga útil para qualquer evento de mensagem de serviço adicionado na versão 1.9.0

SessionEventArgs

Define o conteúdo para eventos de sessão como SessionStarted/Stopped, SoundStarted/Stopped.

SourceLanguageConfig

Configuração do idioma de origem.

SpeakerAudioDestination

Representa o destino de áudio de reprodução do alto-falante, que só funciona no navegador. Observação: o SDK tentará usar de extensões de fonte de mídia para reproduzir áudio. O formato Mp3 tem melhores suportes no Microsoft Edge, Chrome e Safari (desktop), portanto, é melhor especificar o formato mp3 para reprodução.

SpeechConfig

Configuração de fala.

SpeechConfigImpl
SpeechRecognitionCanceledEventArgs
SpeechRecognitionEventArgs

Define o conteúdo do evento de reconhecimento/reconhecimento de fala.

SpeechRecognitionResult

Define o resultado do reconhecimento de fala.

SpeechRecognizer

Executa o reconhecimento de fala do microfone, arquivo ou outros fluxos de entrada de áudio e, como resultado, obtém texto transcrito.

SpeechSynthesisBookmarkEventArgs

Define o conteúdo do evento de marcador de síntese de fala.

SpeechSynthesisEventArgs

Define o conteúdo de eventos de síntese de fala.

SpeechSynthesisResult

Define o resultado da síntese de fala.

SpeechSynthesisVisemeEventArgs

Define o conteúdo do evento viseme de síntese de fala.

SpeechSynthesisWordBoundaryEventArgs

Define o conteúdo do evento limite de palavras de síntese de fala.

SpeechSynthesizer

Define a classe SpeechSynthesizer para conversão de texto em fala. Atualizado na versão 1.16.0

SpeechTranslationConfig

Configuração de tradução de fala.

SynthesisResult

Classe de base para resultados de síntese

SynthesisVoicesResult

Define o resultado da síntese de fala.

Synthesizer
TranslationRecognitionCanceledEventArgs

Defina a carga útil de eventos de resultado cancelados de reconhecimento de fala.

TranslationRecognitionEventArgs

Argumentos de evento de resultado de texto de tradução.

TranslationRecognitionResult

Resultado da tradução do texto.

TranslationRecognizer

Reconhecimento de tradução

TranslationSynthesisEventArgs

Argumentos do evento Síntese de Tradução

TranslationSynthesisResult

Define o resultado da síntese da tradução, ou seja, a saída de voz do texto traduzido na língua de chegada.

Translations

Representa a coleção de parâmetros e seus valores.

TurnStatusReceivedEventArgs

Define o conteúdo da mensagem/eventos recebidos.

User
VoiceInfo

Informações sobre a voz Speech Synthesis adicionadas na versão 1.20.0.

Interfaces

CancellationEventArgs
ConversationInfo
IParticipant

Representa um participante de uma conversa. Adicionado na versão 1.4.0

IPlayer

Representa a interface do player de áudio para controlar a reprodução de áudio, como pausar, retomar, etc.

IVoiceJson
MeetingInfo
VoiceSignature

Enumerações

AudioFormatTag
CancellationErrorCode

Define o código de erro no caso de CancellationReason ser Error. Adicionado na versão 1.1.0.

CancellationReason

Define os possíveis motivos pelos quais um resultado de reconhecimento pode ser cancelado.

LanguageIdMode

Modo de identificação de idioma

LogLevel
NoMatchReason

Define os possíveis motivos pelos quais um resultado de reconhecimento pode não ser reconhecido.

OutputFormat

Defina os formatos de saída do Reconhecimento de Fala.

ParticipantChangedReason
ProfanityOption

Opção de palavrões. Adicionado na versão 1.7.0.

PronunciationAssessmentGradingSystem

Define o sistema de pontos para calibração da pontuação de pronúncia; o valor padrão é FivePoint. Adicionado na versão 1.15.0

PronunciationAssessmentGranularity

Define a granularidade da avaliação da pronúncia; o valor padrão é Phoneme. Adicionado na versão 1.15.0

PropertyId

Define ids de propriedade de fala.

ResultReason

Define as possíveis razões pelas quais um resultado de reconhecimento pode ser gerado.

ServicePropertyChannel

Define os canais usados para passar as configurações de propriedade para o serviço. Adicionado na versão 1.7.0.

SpeechSynthesisBoundaryType

Define o tipo de limite do evento limite da síntese de fala.

SpeechSynthesisOutputFormat

Defina formatos de saída de áudio de síntese de fala. SpeechSynthesisOutputFormat Atualizado na versão 1.17.0

SynthesisVoiceGender

Define o género das vozes de síntese. Adicionado na versão 1.20.0.

SynthesisVoiceType