AudioProcessingEvent
Veraltet: Diese Funktion wird nicht mehr empfohlen. Obwohl einige Browser sie möglicherweise noch unterstützen, könnte sie bereits aus den relevanten Webstandards entfernt worden sein, in Kürze entfernt werden oder nur noch aus Kompatibilitätsgründen bestehen. Vermeiden Sie die Verwendung und aktualisieren Sie vorhandenen Code, falls möglich; siehe die Kompatibilitätstabelle am Ende dieser Seite, um Ihre Entscheidung zu unterstützen. Beachten Sie, dass diese Funktion jederzeit aufhören könnte zu funktionieren.
Das AudioProcessingEvent
-Interface des Web Audio API repräsentiert Ereignisse, die auftreten, wenn ein Eingabepuffer eines ScriptProcessorNode
bereit zur Verarbeitung ist.
Ein audioprocess
-Ereignis mit diesem Interface wird auf einem ScriptProcessorNode
ausgelöst, wenn eine Audiobearbeitung erforderlich ist. Während der Audiobearbeitung wird der Eingabepuffer gelesen und verarbeitet, um Ausgabedaten zu erzeugen, die dann in den Ausgabepuffer geschrieben werden.
Warnung:
Diese Funktion wurde veraltet und sollte durch einen AudioWorklet
ersetzt werden.
Konstruktor
AudioProcessingEvent()
Veraltet-
Erstellt ein neues
AudioProcessingEvent
-Objekt.
Instanz-Eigenschaften
Implementiert auch die Eigenschaften, die von seinem Elternobjekt geerbt wurden, Event
.
playbackTime
Schreibgeschützt Veraltet-
Ein Double-Wert, der die Zeit repräsentiert, zu der das Audio abgespielt wird, definiert durch die Zeit von
AudioContext.currentTime
. inputBuffer
Schreibgeschützt Veraltet-
Ein
AudioBuffer
, das den Puffer mit den zu verarbeitenden Eingabedaten enthält. Die Anzahl der Kanäle ist als ParameternumberOfInputChannels
der FabrikmethodeAudioContext.createScriptProcessor()
definiert. Beachten Sie, dass der zurückgegebeneAudioBuffer
nur im Rahmen des Ereignishandlers gültig ist. outputBuffer
Schreibgeschützt Veraltet-
Ein
AudioBuffer
, das der Puffer ist, in den die Ausgabedaten geschrieben werden sollen. Die Anzahl der Kanäle ist als ParameternumberOfOutputChannels
der FabrikmethodeAudioContext.createScriptProcessor()
definiert. Beachten Sie, dass der zurückgegebeneAudioBuffer
nur im Rahmen des Ereignishandlers gültig ist.
Beispiele
Weißes Rauschen mit einem Script-Prozessor hinzufügen
Das folgende Beispiel zeigt, wie ein ScriptProcessorNode
verwendet wird, um einen Track, der über AudioContext.decodeAudioData()
geladen wurde, zu verarbeiten, indem ein wenig weißes Rauschen zu jedem Audio-Sample des Eingabetracks (Puffer) hinzugefügt und über den AudioDestinationNode
abgespielt wird. Für jeden Kanal und jedes Sample-Frame nimmt die Funktion scriptNode.onaudioprocess
das zugehörige audioProcessingEvent
und verwendet es, um durch jeden Kanal des Eingabepuffers und jedes Sample in jedem Kanal zu schleifen und eine kleine Menge weißes Rauschen hinzuzufügen, bevor dieses Ergebnis als Ausgabesample in jedem Fall gesetzt wird.
Hinweis: Für ein vollständiges, funktionierendes Beispiel besuchen Sie unser script-processor-node GitHub-Repo. (Sie können auch den Quellcode einsehen.)
const myScript = document.querySelector("script");
const myPre = document.querySelector("pre");
const playButton = document.querySelector("button");
// Create AudioContext and buffer source
let audioCtx;
async function init() {
audioCtx = new AudioContext();
const source = audioCtx.createBufferSource();
// Create a ScriptProcessorNode with a bufferSize of 4096 and
// a single input and output channel
const scriptNode = audioCtx.createScriptProcessor(4096, 1, 1);
// Load in an audio track using fetch() and decodeAudioData()
try {
const response = await fetch("viper.ogg");
const arrayBuffer = await response.arrayBuffer();
source.buffer = await audioCtx.decodeAudioData(arrayBuffer);
} catch (err) {
console.error(
`Unable to fetch the audio file: ${name} Error: ${err.message}`,
);
}
// Give the node a function to process audio events
scriptNode.addEventListener("audioprocess", (audioProcessingEvent) => {
// The input buffer is the song we loaded earlier
let inputBuffer = audioProcessingEvent.inputBuffer;
// The output buffer contains the samples that will be modified
// and played
let outputBuffer = audioProcessingEvent.outputBuffer;
// Loop through the output channels (in this case there is only one)
for (let channel = 0; channel < outputBuffer.numberOfChannels; channel++) {
let inputData = inputBuffer.getChannelData(channel);
let outputData = outputBuffer.getChannelData(channel);
// Loop through the 4096 samples
for (let sample = 0; sample < inputBuffer.length; sample++) {
// make output equal to the same as the input
outputData[sample] = inputData[sample];
// add noise to each output sample
outputData[sample] += (Math.random() * 2 - 1) * 0.1;
}
}
});
source.connect(scriptNode);
scriptNode.connect(audioCtx.destination);
source.start();
// When the buffer source stops playing, disconnect everything
source.addEventListener("ended", () => {
source.disconnect(scriptNode);
scriptNode.disconnect(audioCtx.destination);
});
}
// wire up play button
playButton.addEventListener("click", () => {
if (!audioCtx) {
init();
}
});
Spezifikationen
Browser-Kompatibilität
Loading…