vue使用websocket语音识别连续流式输出

首先安装recorder-core依赖

npm i recorder-core

第一部分html,按钮,显示文本

<template>
    <div class="sound">
        <textarea v-model="text" name="" id="" cols="30" rows="10" placeholder="点击按钮开始说话,您的语音将会被转为文本,请允许浏览器获取麦克风权限"></textarea>
        <div class="btn"> 
            <button @click="startSpeechRecognition()">开始识别</button>
        <button @click="closeWebsocket()">停止识别</button>
        </div>
    </div>
</template>

第二部分:record.js文件,录音文件放入utils文件中,在vue页面中引入使用

//Recorder
import Recorder from 'recorder-core'
// type
import 'recorder-core/src/engine/pcm.js'
//可选的扩展支持项
import 'recorder-core/src/extensions/wavesurfer.view.js'

export const jsRecorder = (cb) => {
  var testSampleRate = 16000
  var testBitRate = 16
  var SendFrameSize = 1280
  //  去掉console
  Recorder.CLog = () => {}

  //重置环境,每次开始录音时必须先调用此方法,清理环境
  var RealTimeSendTryReset = function () {
    realTimeSendTryChunks = null
  }

  var realTimeSendTryNumber
  var transferUploadNumberMax
  var realTimeSendTryChunk
  var realTimeSendTryChunks

  //=====实时处理核心函数==========
  var RealTimeSendTry = function (buffers, bufferSampleRate, isClose) {
    if (realTimeSendTryChunks == null) {
      realTimeSendTryNumber = 0
      transferUploadNumberMax = 0
      realTimeSendTryChunk = null
      realTimeSendTryChunks = []
    }
    //配置有效性检查
    if (testBitRate == 16 && SendFrameSize % 2 == 1) {
      return
    }

    var pcm = [],
      pcmSampleRate = 0
    if (buffers.length > 0) {
      //借用SampleData函数进行数据的连续处理,采样率转换是顺带的,得到新的pcm数据
      var chunk = Recorder.SampleData(
        buffers,
        bufferSampleRate,
        testSampleRate,
        realTimeSendTryChunk
      )

      //清理已处理完的缓冲数据,释放内存以支持长时间录音,最后完成录音时不能调用stop,因为数据已经被清掉了
      for (
        var i = realTimeSendTryChunk ? realTimeSendTryChunk.index : 0;
        i < chunk.index - 3;
        i++
      ) {
        buffers[i] = null
      }
      realTimeSendTryChunk = chunk //此时的chunk.data就是原始的音频16位pcm数据(小端LE),直接保存即为16位pcm文件、加个wav头即为wav文件、丢给mp3编码器转一下码即为mp3文件

      pcm = chunk.data
      pcmSampleRate = chunk.sampleRate
      if (pcmSampleRate != testSampleRate)
        //除非是onProcess给的bufferSampleRate低于testSampleRate
        throw new Error(
          '不应该出现pcm采样率' +
            pcmSampleRate +
            '和需要的采样率' +
            testSampleRate +
            '不一致'
        )
    }

    //将pcm数据丢进缓冲,凑够一帧发送,缓冲内的数据可能有多帧,循环切分发送
    if (pcm.length > 0) {
      realTimeSendTryChunks.push({ pcm: pcm, pcmSampleRate: pcmSampleRate })
    }

    //从缓冲中切出一帧数据
    var chunkSize = SendFrameSize / (testBitRate / 8) //8位时需要的采样数和帧大小一致,16位时采样数为帧大小的一半
    pcm = new Int16Array(chunkSize)
    pcmSampleRate = 0
    var pcmOK = false,
      pcmLen = 0
    for1: for (var i1 = 0; i1 < realTimeSendTryChunks.length; i1++) {
      chunk = realTimeSendTryChunks[i1]
      pcmSampleRate = chunk.pcmSampleRate

      for (var i2 = chunk.offset || 0; i2 < chunk.pcm.length; i2++) {
        pcm[pcmLen] = chunk.pcm[i2]
        pcmLen++

        //满一帧了,清除已消费掉的缓冲
        if (pcmLen == chunkSize) {
          pcmOK = true
          chunk.offset = i2 + 1
          for (var i3 = 0; i3 < i1; i3++) {
            realTimeSendTryChunks.splice(0, 1)
          }
          break for1
        }
      }
    }

    //缓冲的数据不够一帧时,不发送 或者 是结束了
    if (!pcmOK) {
      if (isClose) {
        var number = ++realTimeSendTryNumber
        TransferUpload(number, null, 0, null, isClose)
      }
      return
    }

    //16位pcm格式可以不经过mock转码,直接发送new Blob([pcm.buffer],{type:"audio/pcm"}) 但8位的就必须转码,通用起见,均转码处理,pcm转码速度极快
    number = ++realTimeSendTryNumber
    var encStartTime = Date.now()
    var recMock = Recorder({
      type: 'pcm',
      sampleRate: testSampleRate, //需要转换成的采样率
      bitRate: testBitRate //需要转换成的比特率
    })
    recMock.mock(pcm, pcmSampleRate)
    recMock.stop(
      function (blob, duration) {
        blob.encTime = Date.now() - encStartTime

        //转码好就推入传输
        TransferUpload(number, blob, duration, recMock, false)

        //循环调用,继续切分缓冲中的数据帧,直到不够一帧
        RealTimeSendTry([], 0, isClose)
      },
      function (msg) {
        //转码错误?没想到什么时候会产生错误!
      }
    )
  }

  //=====数据传输函数==========
  var TransferUpload = function (
    number,
    blobOrNull,
    duration,
    blobRec,
    isClose
  ) {
    // console.log(number, blobOrNull, duration, blobRec, isClose)
    transferUploadNumberMax = Math.max(transferUploadNumberMax, number)
    if (blobOrNull) {
      var blob = blobOrNull
      var encTime = blob.encTime
      cb(blob, encTime)
    }

    if (isClose) {
      // console.log('isClose')
    }
  }

  //调用录音
  var rec
  var wave
  function recStart() {
    if (rec) {
      rec.close()
    }
    rec = Recorder({
      type: 'unknown',
      onProcess: function (
        buffers,
        powerLevel,
        bufferDuration,
        bufferSampleRate
      ) {
        //推入实时处理,因为是unknown格式,buffers和rec.buffers是完全相同的,只需清理buffers就能释放内存。
        RealTimeSendTry(buffers, bufferSampleRate, false)
        //可视化图形绘制
        // wave.input(buffers[buffers.length - 1], powerLevel, bufferSampleRate);
      }
    })

    // var t = setTimeout(function () {
    //   console.log('无法录音:权限请求被忽略(超时假装手动点击了确认对话框)', 1)
    // }, 8000)

    rec.open(function () {
      //打开麦克风授权获得相关资源
      rec.start() //开始录音
      RealTimeSendTryReset() //重置环境,开始录音时必须调用一次

      //此处创建这些音频可视化图形绘制浏览器支持妥妥的
      // wave = Recorder.WaveSurferView({
      //   elem: ".speak-wave",
      //   height: 30 //显示宽度
      //   , scale: 2 //缩放系数,应为正整数,使用2(3? no!)倍宽高进行绘制,避免移动端绘制模糊
      //   , fps: 50 //绘制帧率,不可过高,50-60fps运动性质动画明显会流畅舒适,实际显示帧率达不到这个值也并无太大影响
      //   , duration: 2500 //当前视图窗口内最大绘制的波形的持续时间,此处决定了移动速率
      //   , direction: 1 //波形前进方向,取值:1由左往右,-1由右往左
      //   , position: 0 //绘制位置,取值-1到1,-1为最底下,0为中间,1为最顶上,小数为百分比
      //   , centerHeight: 1 //中线基础粗细,如果为0不绘制中线,position=±1时应当设为0
      //   //波形颜色配置:[位置,css颜色,...] 位置: 取值0.0-1.0之间
      //   , linear: [0, "rgba(0,187,17,1)", 0.7, "rgba(255,215,0,1)", 1, "rgba(255,102,0,1)"]
      //   , centerColor: "" //中线css颜色,留空取波形第一个渐变颜色 });
      // }, function (msg, isUserNotAllow) {
      //   clearTimeout(t);
      //   console.log((isUserNotAllow ? "UserNotAllow," : "") + "无法录音:" + msg, 1);
      // });
    })
  }
  // close
  function recStop() {
    rec && rec.close() //直接close掉即可,这个例子不需要获得最终的音频文件
    RealTimeSendTry([], 0, true) //最后一次发送
  }

  return {
    recStart: recStart,
    recStop: recStop
  }
}

将record.js引入

<script>
import { jsRecorder } from "@/utils/record.js"; //引入录音文件

export default {
    data() {
        return {
            text: '',//识别文本
            isRecording: false,
            websocket: null,//websocket定义
			recStart:null,//开始录音
			recStop:null,//结束录音
        }
    },
    created() {
        // 使用 jsRecorder 创建一个对象并进行解构操作
		const callback = (blob, encTime) => {
			//发送音频blob
			if (this.websocket && this.isRecording) {
				this.websocket.send(blob)
			}
		}
		const recorder = jsRecorder(callback)
        // 开始录音、结束录音方法
		this.recStart = recorder.recStart
		this.recStop = recorder.recStop
	},
    methods: {
        startSpeechRecognition() {
            // 判断麦克风是否打开
			navigator.mediaDevices.getUserMedia({ audio: true }).then(stream => {
				//调用websocket方法
                // 如果需要加一些图片验证或者其他验证在这里加一些逻辑,成功之后调用websocket
                this.isRecording=true
                // 调用录音方法
                this.recStart()
                this.asrWebSocket()

			}).catch(error => {
                this.$message.error('麦克风未打开!');
				// 麦克风未打开
				switch (error.message || error.name) {
                case 'PERMISSION_DENIED':
                case 'PermissionDeniedError':
                console.info('用户拒绝提供信息。')
                break
                case 'NOT_SUPPORTED_ERROR':
                case 'NotSupportedError':
                console.info('浏览器不支持硬件设备。')
                break
                case 'MANDATORY_UNSATISFIED_ERROR':
                case 'MandatoryUnsatisfiedError':
                console.info('无法发现指定的硬件设备。')
                break
                default:
                console.info('无法打开麦克风。异常信息:' + (error.code || error.name))
                break
            }
			});
        },
        asrWebSocket(){
            //使用后端提供的地址
            let url='wss://open-api.com/asr/test'
            //new 一个websocket
            this.websocket = new WebSocket(url)
            console.log(this.websocket,'new websocket')
            this.websocket.onopen = () => {
                console.log('连接成功')
                //链接成功之后发送websocket请求参数
                this.sendStart()
            }
            // 客户端接收服务端返回的数据
			this.websocket.onmessage = (evt) => {
				if (evt.data) {
					const obj = JSON.parse(evt.data)
					console.log('websocket-asr返回的数据:', obj)
                    //返回的数据看后端返回的是怎么样的,这是我的一些举例
					if(obj.type=='server_error'){
						if(obj.error_msg.code == '10002'){
							//参数缺失
						}else if(obj.error_msg.code == "10003"){
							//鉴权失败,包括非法的appkey,余额不足等情况
						}
					}else if (obj.type == 'partial_result') {
						//实时结果返回 转成文字
						this.text = obj.content + ' '
					}else if (obj.type == 'onebox_header') {
					    // 服务端发送对话结果前,会发送onebox_header通知消息。收到消息后,客户端需要准备对后续收到的websocket binary数据进行gzip解压得到字符串,并解析为json,为本轮对话结果
					} else if (obj.type == 'slience') {
					    // slience server端监测到静音后
					} else if (obj.type == 'speech_end') {
					    //服务端在解码结束后,会发送speech_end,并将最终结果存放在content字段。
					    //监测到end后调用停止方法
                        this.closeWebsocket()
					} else if (obj.type == 'result_end') {
					    // 服务端在本轮结束时,会发送result_end通知消息,客户端close websocket连接
					    // 非连续对话在这返回 continuous_decoding
					} else if (obj.type == 'server_error') {
					    // 当发生异常或输入不合法时,服务器会发送server error消息
					}
				}
			}
            this.websocket.onerror = (evt) => {
				console.error('websocket-asr错误:', evt)
				// todo 重连机制触发
			}
			// 关闭连接
			this.websocket.onclose = (evt) => {
				console.log('websocket-asr关闭:', evt)
			}
        },
        // 请求参数 =====看后端提供的参数信息========
        sendStart(){
            this.websocket.send(JSON.stringify({
                signal: 'start',
                contentType: 'audio/x-wav;codec=pcm;bit=16;rate=16000', //音频格式,支持pcm、wav
                partial_result: 'enable', //是否需要解码中间结果,通常只在实时语音识别场景中使用。
				silence_detection: 'disable', //是否开启服务端静音监测,一般建议开启。
            }))
        },
        // 关闭websocket
        closeWebsocket(){
            //关闭录音
            this.recStop();
            this.isRecording = false
            // websocket关闭参数
            this.websocket.send(
				JSON.stringify({
					signal: 'end'
				})
    		)
        }
    }
}
</script>

css

<style lang="less" scoped>
.sound {
    width: 100%;
    height: 140px;
    textarea {
        width: 90%;
        resize: none;
		outline: none;
		border-radius: 8px;
		padding: 0 32px;
        padding-top: 28px;
    }
    .btn{
        display: flex;
    }
    button {
        width: 226px;
        height: 42px;
        background: #3583FB;
        border-radius: 6px;
        border: none;
        font-size: 14px;
        font-family: PingFang-SC-Regular, PingFang-SC;
        font-weight: 400;
        color: #FFFFFF;
        cursor: pointer;
        display: flex;
        align-items: center;
        justify-content: center;
        margin: auto;
        cursor: pointer;

    }
}
</style>

猜你喜欢

转载自blog.csdn.net/weixin_57163112/article/details/130892405