Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Das Windows SDK enthält die folgenden Codebeispiele, die die Verwendung der Core Audio-APIs veranschaulichen. Die folgenden Beispiele befinden sich im Verzeichnis %MSSdk%\samples\multimedia\audio, wobei %MSSdk% das Stammverzeichnis der Windows SDK-Installation auf Ihrem Computer ist.
| Beispiel | BESCHREIBUNG |
|---|---|
| AECMicArray | In diesem Beispiel werden die MMDevice-, WASAPI-, DeviceTopology- und EndpointVolume-APIs verwendet, um einen qualitativ hochwertigen Sprachstream zu erfassen. Das Beispiel unterstützt akustische Echounterdrückung (AEC) und die Verarbeitung von Mikrofon-Arrays mit der AEC DMO, die auch als DSP für die Sprachaufnahme bezeichnet und von Microsoft bereitgestellt wird. |
| CaptureSharedEventDriven | Diese Beispielanwendung verwendet die Core Audio-APIs, um Audiodaten von einem Eingabegerät aufzunehmen, das vom Benutzer angegeben wird, und schreibt sie in einen eindeutig benannten Namen. WAV-Datei im aktuellen Verzeichnis. In diesem Beispiel wird die ereignisgesteuerte Pufferung veranschaulicht. |
| CaptureSharedTimerDriven | Diese Beispielanwendung verwendet die Core Audio-APIs, um Audiodaten von einem Eingabegerät aufzunehmen, das vom Benutzer angegeben wird, und schreibt sie in einen eindeutig benannten Namen. WAV-Datei im aktuellen Verzeichnis. In diesem Beispiel wird die zeitgesteuerte Pufferung veranschaulicht. |
| DuckingCaptureSample | Diese Beispielanwendung veranschaulicht das Öffnen und Schließen von Kommunikationsströmen und das Auslösen von Ducking-Ereignissen, die eine Anwendung zur Implementierung der Datenstromdämpfung verwenden kann. Diese Anwendung implementiert einen Chatclient, der Core Audio-APIs verwendet, um Audiodaten von einem Kommunikationsgerät zu lesen und auf dem Ausgabegerät wiederzugeben. |
| EndpointVolume | Diese Beispielanwendung verwendet die Core Audio-APIs, um die Lautstärke des Geräts zu ändern, die vom Benutzer angegeben wird. |
| OSD | In diesem Beispiel werden die MMDevice- und EndpointVolume-APIs verwendet, um eine Bildschirmanzeige zu implementieren, die Lautstärkeänderungen am Ausgabedatenstrom anzeigt, der über das standardmäßige Audiorenderingendpunktgerät wiedergegeben wird. Die Bildschirmanzeige wird angezeigt, wenn der Benutzer die Lautstärke im Windows-Lautstärkesteuerungsprogramm, Sndvol.exe, anpasst und verschwindet, nachdem die Lautstärke für einen kurzen Zeitraum unverändert bleibt. |
| RenderExclusiveEventDriven | Diese Beispielanwendung verwendet die Core Audio-APIs zum Rendern von Audiodaten auf einem Vom Benutzer angegebenen Ausgabegerät. In diesem Beispiel wird die ereignisgesteuerte Pufferung für einen Renderingclient im exklusiven Modus veranschaulicht. Bei einem Exklusivmodusdatenstrom teilt der Client den Endpunktpuffer mit dem Audiogerät. |
| RenderExclusiveTimerDriven | Diese Beispielanwendung verwendet die Core Audio-APIs zum Rendern von Audiodaten auf einem Vom Benutzer angegebenen Ausgabegerät. In diesem Beispiel wird die zeitgebergesteuerte Pufferung für einen Renderingclient im exklusiven Modus veranschaulicht. Bei einem Exklusivmodusdatenstrom teilt der Client den Endpunktpuffer mit dem Audiogerät. |
| RenderSharedEventDriven | Diese Beispielanwendung verwendet die Core Audio-APIs zum Rendern von Audiodaten auf einem Vom Benutzer angegebenen Ausgabegerät. In diesem Beispiel wird die ereignisgesteuerte Pufferung für einen Renderclient im gemeinsam genutzten Modus veranschaulicht. Bei einem Datenstrom im gemeinsam genutzten Modus teilt der Client den Endpunktpuffer mit dem Audiomodul. |
| RenderSharedTimerDriven | Diese Beispielanwendung verwendet die Core Audio-APIs zum Rendern von Audiodaten auf einem Vom Benutzer angegebenen Ausgabegerät. In diesem Beispiel wird die zeitgebergesteuerte Pufferung für einen Renderingclient im gemeinsam genutzten Modus veranschaulicht. Bei einem Datenstrom im gemeinsam genutzten Modus teilt der Client den Endpunktpuffer mit dem Audiomodul. |
| WinAudio | In diesem Beispiel werden die MMDevice-API und WASAPI verwendet, um Audiodatenströme wiederzugeben und zu erfassen. Über die Benutzeroberfläche dieser Beispielanwendung können Benutzer Audioendpunktgeräte auswählen, die Lautstärke der lokalen Audiositzung ändern und .wav Dateien und Mikrofoneingaben wiedergeben.
Anmerkung: Dieses Beispiel ist in Windows 7 veraltet. |
Sie können das Windows SDK von der Microsoft Windows SDK Download Center-Website herunterladen.
Zugehörige Themen