Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Übersicht
Um die Entwicklung sprachaktivierter Anwendungen zu vereinfachen, stellt Microsoft das Speech SDK für den Speech-Dienst bereit. Das Speech SDK bietet konsistente native Spracherkennungs- und Sprachübersetzungs-APIs.
Installieren des npm-Moduls
Installieren des npm-Moduls des Cognitive Services Speech SDK
npm install microsoft-cognitiveservices-speech-sdk
Beispiel
Die folgenden Codeausschnitte veranschaulichen, wie die einfache Spracherkennung in einer Datei funktioniert:
// Pull in the required packages.
var sdk = require("microsoft-cognitiveservices-speech-sdk");
var fs = require("fs");
// Replace with your own subscription key, service region (e.g., "westus"), and
// the name of the file you want to run through the speech recognizer.
var subscriptionKey = "YourSubscriptionKey";
var serviceRegion = "YourServiceRegion"; // e.g., "westus"
var filename = "YourAudioFile.wav"; // 16000 Hz, Mono
// Create the push stream we need for the speech sdk.
var pushStream = sdk.AudioInputStream.createPushStream();
// Open the file and push it to the push stream.
fs.createReadStream(filename).on('data', function(arrayBuffer) {
pushStream.write(arrayBuffer.buffer);
}).on('end', function() {
pushStream.close();
});
// We are done with the setup
console.log("Now recognizing from: " + filename);
// Create the audio-config pointing to our stream and
// the speech config specifying the language.
var audioConfig = sdk.AudioConfig.fromStreamInput(pushStream);
var speechConfig = sdk.SpeechConfig.fromSubscription(subscriptionKey, serviceRegion);
// Setting the recognition language to English.
speechConfig.speechRecognitionLanguage = "en-US";
// Create the speech recognizer.
var recognizer = new sdk.SpeechRecognizer(speechConfig, audioConfig);
// Start the recognizer and wait for a result.
recognizer.recognizeOnceAsync(
function (result) {
console.log(result);
recognizer.close();
recognizer = undefined;
},
function (err) {
console.trace("err - " + err);
recognizer.close();
recognizer = undefined;
});
Im vorherigen Beispiel wird die Single-Shot-Erkennung verwendet, die eine einzelne Äußerung erkennt. Sie können auch die fortlaufende Erkennung verwenden, um zu steuern, wann die Erkennung beendet werden soll. In unserer Schritt-für-Schritt-Schnellstartanleitung finden Sie viele weitere Optionen.
Beispiele
Azure SDK for JavaScript