Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Este aplicativo de exemplo usa as APIs de Áudio Principal para renderizar dados de áudio em um dispositivo de saída, especificado pelo usuário. Este exemplo demonstra o buffer controlado por eventos para um cliente de renderização no modo compartilhado. Para um fluxo de modo compartilhado, o cliente compartilha o buffer de ponto de extremidade com o mecanismo de áudio.
Este tópico contém as seções a seguir.
- descrição
- requisitos de
- baixar o de exemplo
- compilar o de exemplo
- executando o de exemplo
- tópicos relacionados
Descrição
Este exemplo demonstra os seguintes recursos.
- da API MMDevice para enumeração e seleção de dispositivo multimídia.
- WASAPI para operações de gerenciamento de fluxo.
Requisitos
| Produto | Versão |
|---|---|
| do SDK do Windows | Windows 7 |
| Visual Studio | 2008 |
Baixando o exemplo
Este exemplo está disponível nos seguintes locais.
| Localização | Caminho/URL |
|---|---|
| Windows SDK | \Arquivos de Programas\Microsoft SDKs\Windows\v7.0\Samples\Multimedia\Audio\RenderSharedEventDriven\... |
Compilando o exemplo
Para criar o exemplo RenderSharedEventDriven, use as seguintes etapas:
- Abra o shell do CMD para o SDK do Windows e altere para o diretório de exemplo RenderSharedEventDriven.
- Execute o comando
start WASAPIRenderSharedEventDriven.slnno diretório RenderSharedEventDriven para abrir o projeto WASAPIRenderSharedEventDriven na janela do Visual Studio. - Na janela, selecione o de Depuração ou a configuração da solução de Versão, selecione o menu Criar na barra de menus e selecione a opção Criar. Se você não abrir o Visual Studio do shell do CMD para o SDK, o Visual Studio não terá acesso ao ambiente de build do SDK. Nesse caso, o exemplo não será compilado a menos que você defina explicitamente a variável de ambiente MSSdk, que é usada no arquivo de projeto, WASAPIRenderSharedEventDriven.vcproj.
Executando o exemplo
Se você criar o aplicativo de demonstração com êxito, um arquivo executável, WASAPIRenderSharedEventDriven.exe, será gerado. Para executá-lo, digite WASAPIRenderSharedEventDriven em uma janela de comando seguida por argumentos obrigatórios ou opcionais. O exemplo a seguir mostra como executar o exemplo especificando a duração da reprodução no dispositivo multimídia padrão.
WASAPIRenderSharedEventDriven.exe -d 20 -multimedia
A tabela a seguir mostra os argumentos.
| Argumento | Descrição |
|---|---|
| -? | Mostra ajuda. |
| -h | Mostra ajuda. |
| -f | Frequência de onda de seno no Hz. |
| -l | Latência de renderização de áudio em milissegundos. |
| -d | Duração da onda do seno em segundos. |
| -m | Desabilita o uso do MMCSS. |
| -consolar | Use o dispositivo de console padrão. |
| -Comunicações | Use o dispositivo de comunicação padrão. |
| -multimédia | Use o dispositivo multimídia padrão. |
| -Extremidade | Use o identificador de ponto de extremidade especificado no valor da opção. |
Se o aplicativo for executado sem argumentos, ele enumera os dispositivos disponíveis e solicita que o usuário selecione um dispositivo para a sessão de renderização. Depois que o usuário especifica um dispositivo, o aplicativo renderiza uma onda de seno a 440 Hz por 10 segundos. Esses valores podem ser modificados especificando -f e -d valores de alternância.
RenderSharedEventDriven demonstra o buffer controlado por eventos. O exemplo mostra como:
- Instancie um cliente de áudio, configure-o para ser executado no modo exclusivo e habilite o buffer controlado por eventos definindo o sinalizador AUDCLNT_STREAMFLAGS_EVENTCALLBACK na chamada para IAudioClient::Initialize.
- Associe o cliente aos exemplos que estão prontos para serem renderizados fornecendo um identificador de evento ao sistema chamando o método IAudioClient::SetEventHandle.
- Crie um thread de renderização para gerar exemplos do mecanismo de áudio.
- Verifique o formato de combinação do ponto de extremidade do dispositivo para determinar se os exemplos podem ser renderizados. Se o dispositivo não der suporte ao formato de combinação, os dados serão convertidos em PCM.
- Manipule a alternância de fluxo.
Depois que a sessão de renderização começa e o fluxo é iniciado, o mecanismo de áudio sinaliza o identificador de evento fornecido para notificar o cliente sempre que um buffer estiver pronto para o cliente processar. Os dados de áudio também podem ser processados em um loop controlado por temporizador. Esse modo é demonstrado no exemplo RenderSharedTimerDriven.
Para obter mais informações sobre como renderizar um fluxo, consulte Renderizando um stream.
Tópicos relacionados