Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
[O Microsoft Agent foi preterido a partir do Windows 7 e pode não estar disponível em versões subsequentes do Windows.]
Além de oferecer suporte à interação com mouse e teclado, o Microsoft Agent inclui suporte direto para entrada de fala. Como o suporte do Microsoft Agent para entrada de fala é baseado no Microsoft SAPI (Speech Application Programming Interface), você pode usar o Microsoft Agent com mecanismos de comando e controle de reconhecimento de fala que incluem o suporte necessário ao SAPI. Para obter mais informações sobre os requisitos do mecanismo de fala, consulte Requisitos de suporte do mecanismo de fala.
A Microsoft fornece um mecanismo de reconhecimento de fala de comando e controle que você pode usar com o Microsoft Agent. Para obter mais informações, consulte Seleção do mecanismo de fala.
O usuário pode iniciar a entrada de fala pressionando e segurando a tecla de atalho push-to-talk Listening. Neste modo de audição, se o motor de voz receber o início da entrada falada, mantém o canal de áudio aberto até detetar o fim do enunciado. No entanto, quando não recebe entrada, não bloqueia a saída de áudio. Isso permite que o usuário emita vários comandos de voz enquanto mantém pressionada a tecla e o caractere pode responder quando o usuário não está falando.
O modo de Escuta expira quando o utilizador liberta a tecla de Escuta. O usuário pode ajustar o tempo limite para este modo usando as Opções Avançadas de Caracteres. Não é possível definir esse tempo limite a partir do código do aplicativo cliente.
Se um caractere tentar falar enquanto o usuário está falando, a saída audível do caractere falha, embora o texto ainda possa ser exibido em seu balão de palavras. Se o caractere tiver o canal de áudio enquanto a tecla Listening é pressionada, o servidor transfere automaticamente o controle de volta para o usuário depois de processar o texto no método Speak. Um tom MIDI opcional é tocado para incentivar o usuário a começar a falar. Isso permite que o usuário forneça entrada mesmo se o aplicativo que conduz o caractere não conseguiu fornecer pausas lógicas em sua saída.
Você também pode usar o método Listen para iniciar a entrada de fala. Chamar esse método ativa o reconhecimento de fala por um período de tempo predefinido. Se não houver entrada durante esse intervalo, o Microsoft Agent desligará automaticamente o mecanismo de reconhecimento de fala e liberará o canal de áudio. Isso evita bloquear a entrada ou saída do dispositivo de áudio e minimiza a sobrecarga do processador que o reconhecimento de fala usa quando está ligado. Você também pode usar o método Listen para desativar a entrada de fala. No entanto, esteja ciente de que, como o mecanismo de reconhecimento de fala opera de forma assíncrona, o efeito pode não ser imediato. Como resultado, é possível receber um Command evento mesmo depois que seu código chamado Listen para desativar a entrada de fala.
Para dar suporte à entrada de fala, você define uma gramatical, um conjunto de palavras que você deseja que o mecanismo de reconhecimento de fala ouça e corresponda como a configuração Voice para umde Comandoem sua coleçãoComandos. Você pode incluir palavras opcionais e alternativas e sequências repetidas em sua gramática. Observe que o Agent não habilita a tecla de atalho Listening até que um de seus clientes tenha carregado com êxito um mecanismo de fala ou tenha criado um de voz para um de seus objetos Command.
Se o usuário pressiona a tecla de atalho Listening ou seu aplicativo cliente chama o método Listen para iniciar a entrada de fala, o mecanismo de reconhecimento de fala tenta fazer corresponder a entrada de um enunciado à gramática para os comandos que foram definidos e passa as informações de volta para o servidor. Em seguida, o servidor notifica o aplicativo cliente usando o evento Command (IAgentNotifySink::Command); passando de volta o objeto UserInput que inclui o ID de comando da melhor correspondência e as próximas duas correspondências alternativas (se houver), uma pontuação de confiança e o texto correspondente para cada correspondência.
O servidor também notifica seu aplicativo cliente quando ele corresponde a entrada de fala a um de seus comandos fornecidos. Embora o ID do comando seja NULL, você ainda obtém a pontuação de confiança e o texto correspondentes. Quando no modo de Escuta, o servidor reproduz automaticamente a animação atribuída ao estado de de Escuta do personagem. Em seguida, quando um enunciado é realmente detetado, o servidor reproduz a animação de estado Audição do personagem. O servidor manterá o caractere em um estado atento até que o enunciado tenha terminado. Isso fornece o feedback social apropriado para indicar o usuário para a entrada.
Se o usuário desativar a entrada de fala nas Opções Avançadas de Caracteres, a tecla de atalho Escuta também será desativada. Da mesma forma, tentar chamar o método Listen quando a entrada de fala estiver desabilitada fará com que o método falhe.