micro_speech
— 微型语音识别模块示例¶
micro_speech
模块运行 Google 的 TensorFlow Lite for Microcontrollers Micro Speech 框架进行语音识别。
请参阅此 指南 进行新模型的训练。
构造函数¶
- class micro_speech.MicroSpeech¶
创建一个 MicroSpeech 语音识别类。
- audio_callback(buf_in)¶
将此方法传递给
audio.start_streaming()
以使用音频样本填充MicroSpeech
类。MicroSpeech
将计算音频样本的 FFT,并在FFT内部保持一个滑动窗口,将接收到的最后 100 毫秒左右的音频样本作为语音识别的特征。
- listen(tf_model[, threshold=0.9[, timeout=1000[, filter=None]]])¶
在音频流上执行张量流轻量模型
tf_model
,该模型应为磁盘上的张量流轻量模型的路径。此方法将继续执行模型,直到它分类的结果的置信度比
threshold
高,并且在filter
指定的范围内。例如,如果模型设计为将声音分类为四个标签 [‘Silence’, ‘Unknown’, ‘Yes’, ‘No’],则
threshold
为 0.7 意味着 listen() 仅在某个类的置信度分数超过 0.7 时返回。然后,filter
可以是[2, 3]
,以指定我们只关心 ‘Yes’ 或 ‘No’ 是否超过 0.7。timeout
是在音频数据上运行模型的时间量。如果为零,则 listen 将永远运行,直到结果通过阈值和筛选条件。返回具有高置信度分数的标签的索引。例如,对于上面的示例,[‘Silence’, ‘Unknown’, ‘Yes’, ‘No’] 分别为 0、1、2 或 3。