中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Web?Audio瀏覽器采集麥克風音頻數據怎么實現

發布時間:2023-03-09 13:43:09 來源:億速云 閱讀:165 作者:iii 欄目:開發技術

今天小編給大家分享一下Web Audio瀏覽器采集麥克風音頻數據怎么實現的相關知識點,內容詳細,邏輯清晰,相信大部分人都還太了解這方面的知識,所以分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后有所收獲,下面我們一起來了解一下吧。

實現思路

我們仍然先介紹整體思路。采集音頻,首先我們通過navigator.mediaDevices.getUserMedia方法來獲取麥克風并錄制聲音。(navigator是瀏覽器NavigatorID標準接口的一種實現,可以用它來查詢一些關于運行當前腳本的應用程序的相關信息。這里我們不多討論這個對象,只介紹如何借助它錄制音頻)getUserMedia錄制聲音可以獲取到音頻流。然后我們通過Web Audio相關Api將音頻流轉化出實時的音頻數據。最后通過canvas將實時的音頻數據繪制成圖譜,通過反復這個過程,實現動態繪制實時圖譜的效果。整體的流程,如下圖:

Web?Audio瀏覽器采集麥克風音頻數據怎么實現

獲取麥克風權限,錄制聲音

瀏覽器的安全策略規定,navigator.mediaDevices.getUserMedia方法只能在https協議或者localhost域名下才有效。所以這里我們先用node搭建一個極簡版的本地web服務器,再獲取麥克風權限和錄制聲音。

// server.js
const http = require('http');
const path = require('path');
const fs = require('fs');
http.createServer((request, response) => {
  // 請求體
  console.log(new Date(), ':', JSON.stringify(request));
  // 需要加載的html文件
  const file = path.resolve(__dirname, './demo2.html');
  // 判斷文件是否存在
  fs.exists(file, exists => {
    if(!exists) console.log ('文件不存在,沙雕!');
    else {
      response.writeHeader(200, { "Content-Type" : "text/html" });
      response.end(fs.readFileSync(file, 'utf-8'));
    }
  });
}).listen(8090); // 監聽8090端口
/*
 * demo2.html
 * 獲取麥克風并錄制聲音
 */
let audioCtx = null; // 音頻上下文
let source = null; // 音頻源
let audioStream = null; // 錄音產生的音頻流
let analyserNode = null; // 用于分析音頻實時數據的節點
let animationFrame = null; // 定時器
function recordSound () {
  navigator.mediaDevices
    .getUserMedia({ 'audio': true })
    .then(initAudioData)
    .catch(e => {
      console.log('出問題了,沙雕:', e);
    });
}
// 停止錄制
function stopRecord () {
  // 關閉麥克風
  const tracks = audioStream.getAudioTracks();
  for (let i = 0, len = tracks.length; i < len; i++) {
    tracks[i].stop();
  }
  // 斷開音頻節點
  analyserNode.disconnect();
  source.disconnect();
  analyserNode = null;
  source = null;
  // 清除定時器
  clearInterval(animationFrame);
}
// 事件綁定
document.querySelector('#record').onclick = recordSound;
document.querySelector('#stop').onclick = stopRecord;

利用Web Audio Api 處理音頻流數據

獲取到音頻流之后,我們通過音頻上下文AudioContext,創建音頻源。這里選擇MediaStreamAudioSourceNode,它接收一個MediaStream對象來創建音頻源。 然后我們在音頻源和destination中間插入一個音頻節點,用來獲取及處理音頻數據,進而利用數據繪制出波形圖。這里選擇AnalyserNode,當然像ScriptProcessorNode和AudioWorkletNode節點也能夠實現獲取和處理實時音頻數據,具體可以參考相關Api。

// 音頻數據處理
function initAudioData (stream) {
  audioStream = stream;
  // 創建音頻上下文
  audioCtx = new (window.AudioContext || window.webkitAudioContext)();
  // 創建音頻源
  source = audioCtx.createMediaStreamSource(audioStream);
  // 創建音頻分析節點
  analyserNode = audioCtx.createAnalyser();
  // fftSize決定了能夠獲取到的音頻數據的數量
  analyserNode.fftSize = 4096;      
  // 音頻源連接至analyserNode
  source.connect(analyserNode);
  // analyserNode再連接至揚聲器播放
  analyserNode.connect(audioCtx.destination);
  // 簡單用定時器來繪制波形圖,當然也可以用requestAnimationFrame來以屏幕刷新的評率來反復執行繪制函數
  animateFrame = setInterval(drawWaver, 60);
}

實時獲取音頻數據,繪制波形圖

AnalyserNode創建之后,你可以制定長度,來實時獲取當前時間點的音頻時域數據,然后通過定時器或者requestAnimationFrame的回調來反復獲取數據、執行繪制函數來達成動態波形圖的效果。繪制方式,同樣是通過一個Float32Array數組對象來接收音頻時域數據,(數值范圍在-1到1之間)然后對數據進行采樣,這里我們每12條數據,取一個最大值一個最小值來繪制圖形。

// 繪制圖形
function drawWaver () {
  const originData = new Float32Array(analyserNode.fftSize);
  const positives = [];
  const negatives = [];
  // 獲取當前的實時音頻數據
  analyserNode.getFloatTimeDomainData(originData);
  // 每12位數據取一個最大值一個最小值 4096 / 12 = 341.3333
  for (let i = 0; i < 341; i++) {
    let temp = originData.slice(i * 12, (i + 1) * 12);
    positives.push(Math.max.apply(null, temp));
    negatives.push(Math.min.apply(null, temp));
  }
  // 創建canvas上下文
  let canvas = document.querySelector('#canvas');
  if (canvas.getContext) {
    let ctx = canvas.getContext('2d');
    canvas.width = positives.length * 4;
    let x = 0;
    let y = 100;
    ctx.fillStyle = '#fa541c';
    // canvas高度200,橫坐標在canvas中點100px的位置,橫坐標上方繪制正數據,下方繪制負數據
    for (let k = 0; k < positives.length; k++) {
      // 每個矩形寬3px,間隔1px,圖形總長度即為 length * 4
      ctx.fillRect(x + 4 * k, y - (100 * positives[k]), 3, 100 * positives[k]);
      ctx.fillRect(x + 4 * k, 100, 3, 100 * Math.abs(negatives[k]));
    }
  }
}

這樣,簡單的音頻采集以及實時圖譜的繪制就完成了。

以上就是“Web Audio瀏覽器采集麥克風音頻數據怎么實現”這篇文章的所有內容,感謝各位的閱讀!相信大家閱讀完這篇文章都有很大的收獲,小編每天都會為大家更新不同的知識,如果還想學習更多的知識,請關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

淮北市| 华阴市| 金沙县| 司法| 阿鲁科尔沁旗| 弋阳县| 盐边县| 商丘市| 海阳市| 柏乡县| 开原市| 兴业县| 阳原县| 晋江市| 上虞市| 雷州市| 旬邑县| 漳平市| 林周县| 祁连县| 苏尼特左旗| 嵩明县| 晋州市| 承德市| 尖扎县| 富平县| 常德市| 霍山县| 姜堰市| 基隆市| 子洲县| 浦江县| 阿拉尔市| 淄博市| 桦南县| 方正县| 朝阳市| 宝兴县| 青田县| 敦煌市| 扎兰屯市|