錄音功能一般來說在移動端比較常見,但是在pc端也要實現按住說話的功能呢?專案需求:按住說話,時長不超過60秒,生成語音檔案並上傳,我這裡用的是recorder.js
1.專案中新建一個recorder.js檔案,內容如下,也可在百度上直接搜一個
// 相容
window.URL = window.URL || window.webkitURL
navigator.getUserMedia = navigator.getUserMedia || navigator.webkitGetUserMedia || navigator.mozGetUserMedia || navigator.msGetUserMedia
let HZRecorder = function (stream, config) {
config = config || {}
config.sampleBits = config.sampleBits || 8 // 取樣數位 8, 16
config.sampleRate = config.sampleRate || (44100 / 6) // 取樣率(1/6 44100)
let context = new (window.webkitAudioContext || window.AudioContext)()
let audioInput = context.createMediaStreamSource(stream)
let createScript = context.createScriptProcessor || context.createJavaScriptNode
let recorder = createScript.apply(context, [4096, 1, 1])
let audioData = {
size: 0, // 錄音檔案長度
buffer: [], // 錄音快取
inputSampleRate: context.sampleRate, // 輸入取樣率
inputSampleBits: 16, // 輸入取樣數位 8, 16
outputSampleRate: config.sampleRate, // 輸出取樣率
oututSampleBits: config.sampleBits, // 輸出取樣數位 8, 16
input: function (data) {
this.buffer.push(new Float32Array(data))
this.size += data.length
},
compress: function () { // 合併壓縮
// 合併
let data = new Float32Array(this.size)
let offset = 0
for (let i = 0; i < this.buffer.length; i++) {
data.set(this.buffer[i], offset)
offset += this.buffer[i].length
}
// 壓縮
let compression = parseInt(this.inputSampleRate / this.outputSampleRate)
let length = data.length / compression
let result = new Float32Array(length)
let index = 0; let j = 0
while (index < length) {
result[index] = data[j]
j += compression
index++
}
return result
},
encodeWAV: function () {
let sampleRate = Math.min(this.inputSampleRate, this.outputSampleRate)
let sampleBits = Math.min(this.inputSampleBits, this.oututSampleBits)
let bytes = this.compress()
let dataLength = bytes.length * (sampleBits / 8)
let buffer = new ArrayBuffer(44 + dataLength)
let data = new DataView(buffer)
let channelCount = 1// 單聲道
let offset = 0
let writeString = function (str) {
for (let i = 0; i < str.length; i++) {
data.setUint8(offset + i, str.charCodeAt(i))
}
}
// 資源交換檔案識別符號
writeString('RIFF'); offset += 4
// 下個地址開始到檔案尾總位元組數,即檔案大小-8
data.setUint32(offset, 36 + dataLength, true); offset += 4
// WAV檔案標誌
writeString('WAVE'); offset += 4
// 波形格式標誌
writeString('fmt '); offset += 4
// 過濾位元組,一般為 0x10 = 16
data.setUint32(offset, 16, true); offset += 4
// 格式類別 (PCM形式取樣資料)
data.setUint16(offset, 1, true); offset += 2
// 通道數
data.setUint16(offset, channelCount, true); offset += 2
// 取樣率,每秒樣本數,表示每個通道的播放速度
data.setUint32(offset, sampleRate, true); offset += 4
// 波形資料傳輸率 (每秒平均位元組數) 單聲道×每秒資料位數×每樣本資料位/8
data.setUint32(offset, channelCount * sampleRate * (sampleBits / 8), true); offset += 4
// 快資料調整數 取樣一次佔用位元組數 單聲道×每樣本的資料位數/8
data.setUint16(offset, channelCount * (sampleBits / 8), true); offset += 2
// 每樣本資料位數
data.setUint16(offset, sampleBits, true); offset += 2
// 資料識別符號
writeString('data'); offset += 4
// 取樣資料總數,即資料總大小-44
data.setUint32(offset, dataLength, true); offset += 4
// 寫入取樣資料
if (sampleBits === 8) {
for (let i = 0; i < bytes.length; i++ , offset++) {
let s = Math.max(-1, Math.min(1, bytes[i]))
let val = s < 0 ? s * 0x8000 : s * 0x7FFF
val = parseInt(255 / (65535 / (val + 32768)))
data.setInt8(offset, val, true)
}
} else {
for (let i = 0; i < bytes.length; i++ , offset += 2) {
let s = Math.max(-1, Math.min(1, bytes[i]))
data.setInt16(offset, s < 0 ? s * 0x8000 : s * 0x7FFF, true)
}
}
return new Blob([data], { type: 'audio/mp3' })
}
}
// 開始錄音
this.start = function () {
audioInput.connect(recorder)
recorder.connect(context.destination)
}
// 停止
this.stop = function () {
recorder.disconnect()
}
// 獲取音訊檔案
this.getBlob = function () {
this.stop()
return audioData.encodeWAV()
}
// 回放
this.play = function (audio) {
let downRec = document.getElementById('downloadRec')
downRec.href = window.URL.createObjectURL(this.getBlob())
downRec.download = new Date().toLocaleString() + '.mp3'
audio.src = window.URL.createObjectURL(this.getBlob())
}
// 上傳
this.upload = function (url, callback) {
let fd = new FormData()
fd.append('audioData', this.getBlob())
let xhr = new XMLHttpRequest()
/* eslint-disable */
if (callback) {
xhr.upload.addEventListener('progress', function (e) {
callback('uploading', e)
}, false)
xhr.addEventListener('load', function (e) {
callback('ok', e)
}, false)
xhr.addEventListener('error', function (e) {
callback('error', e)
}, false)
xhr.addEventListener('abort', function (e) {
callback('cancel', e)
}, false)
}
/* eslint-disable */
xhr.open('POST', url)
xhr.send(fd)
}
// 音訊採集
recorder.onaudioprocess = function (e) {
audioData.input(e.inputBuffer.getChannelData(0))
// record(e.inputBuffer.getChannelData(0));
}
}
// 丟擲異常
HZRecorder.throwError = function (message) {
alert(message)
throw new function () { this.toString = function () { return message } }()
}
// 是否支援錄音
HZRecorder.canRecording = (navigator.getUserMedia != null)
// 獲取錄音機
HZRecorder.get = function (callback, config) {
if (callback) {
if (navigator.getUserMedia) {
navigator.getUserMedia(
{ audio: true } // 只啟用音訊
, function (stream) {
let rec = new HZRecorder(stream, config)
callback(rec)
}
, function (error) {
switch (error.code || error.name) {
case 'PERMISSION_DENIED':
case 'PermissionDeniedError':
HZRecorder.throwError('使用者拒絕提供資訊。')
break
case 'NOT_SUPPORTED_ERROR':
case 'NotSupportedError':
HZRecorder.throwError('瀏覽器不支援硬體裝置。')
break
case 'MANDATORY_UNSATISFIED_ERROR':
case 'MandatoryUnsatisfiedError':
HZRecorder.throwError('無法發現指定的硬體裝置。')
break
default:
HZRecorder.throwError('無法開啟麥克風。異常資訊:' + (error.code || error.name))
break
}
})
} else {
HZRecorder.throwErr('當前瀏覽器不支援錄音功能。'); return
}
}
}
export default HZRecorder
複製程式碼
2.頁面中使用,具體如下
<template>
<div class="wrap">
<el-form v-model="form">
<el-form-item>
<input type="button" class="btn-record-voice" @mousedown.prevent="mouseStart" @mouseup.prevent="mouseEnd" v-model="form.time"/>
<audio v-if="form.audioUrl" :src="form.audioUrl" controls="controls" class="content-audio" style="display: block;">語音</audio>
</el-form-item>
<el-form>
</div>
</template>
<script>
// 引入recorder.js
import recording from '@/js/recorder/recorder.js'
export default {
data() {
return {
form: {
time: '按住說話(60秒)',
audioUrl: ''
},
num: 60, // 按住說話時間
recorder: null,
interval: '',
audioFileList: [], // 上傳語音列表
startTime: '', // 語音開始時間
endTime: '', // 語音結束
}
},
methods: {
// 清除定時器
clearTimer () {
if (this.interval) {
this.num = 60
clearInterval(this.interval)
}
},
// 長按說話
mouseStart () {
this.clearTimer()
this.startTime = new Date().getTime()
recording.get((rec) => {
// 當首次按下時,要獲取瀏覽器的麥克風許可權,所以這時要做一個判斷處理
if (rec) {
// 首次按下,只呼叫一次
if (this.flag) {
this.mouseEnd()
this.flag = false
} else {
this.recorder = rec
this.interval = setInterval(() => {
if (this.num <= 0) {
this.recorder.stop()
this.num = 60
this.clearTimer()
} else {
this.num--
this.time = '鬆開結束(' + this.num + '秒)'
this.recorder.start()
}
}, 1000)
}
}
})
},
// 鬆開時上傳語音
mouseEnd () {
this.clearTimer()
this.endTime = new Date().getTime()
if (this.recorder) {
this.recorder.stop()
// 重置說話時間
this.num = 60
this.time = '按住說話(' + this.num + '秒)'
// 獲取語音二進位制檔案
let bold = this.recorder.getBlob()
// 將獲取的二進位制物件轉為二進位制檔案流
let files = new File([bold], 'test.mp3', {type: 'audio/mp3', lastModified: Date.now()})
let fd = new FormData()
fd.append('file', files)
fd.append('tenantId', 3) // 額外引數,可根據選擇填寫
// 這裡是通過上傳語音檔案的介面,獲取介面返回的路徑作為語音路徑
this.uploadFile(fd)
}
}
}
}
</script>
<style scoped>
</style>
複製程式碼
3.除了上述程式碼中的註釋外,還有一些地方需要注意
- 上傳語音時,一般會有兩個引數,一個是語音的路徑,一個是語音的時長,路徑直接就是
this.form.audioUrl
,不過時長這裡需要注意的是,由於我們一開始設定了定時器是有一秒的延遲,所以,要在獲取到的時長基礎上在減去一秒 - 初次按住說話一定要做判斷,不然就會報錯啦
- 第三點也是很重要的一點,因為我是在本地專案中測試的,可以實現錄音功能,但是打包到測試環境後,就無法訪問麥克風,經過多方嘗試後,發現是由於我們測試環境的地址是http://***,而在谷歌瀏覽器中有這樣一種安全策略,只允許在localhost下及https下才可以訪問 ,因此換一下就完美的解決了這個問題了
- 在使用過程中,針對不同的瀏覽器可能會有些相容性的問題,如果遇到了還需自己單獨處理下
好多東西都是在專案中才學會的,所以要趁著記憶還清晰,趕緊記下來,如果上述有什麼不對的地方,還請指正