micro_speech — 微型语音识别模块示例

micro_speech 模块运行 Google 的 TensorFlow Lite for Microcontrollers Micro Speech 框架进行语音识别。

请参阅此 指南 进行新模型的训练。

构造函数

class micro_speech.MicroSpeech

创建一个 MicroSpeech 语音识别类。

audio_callback(buf_in)

将此方法传递给 audio.start_streaming() 以使用音频样本填充 MicroSpeech 类。

MicroSpeech 将计算音频样本的 FFT,并在FFT内部保持一个滑动窗口,将接收到的最后 100 毫秒左右的音频样本作为语音识别的特征。

listen(tf_model[, threshold=0.9[, timeout=1000[, filter=None]]])

在音频流上执行张量流轻量模型 tf_model,该模型应为磁盘上的张量流轻量模型的路径。

此方法将继续执行模型,直到它分类的结果的置信度比 threshold 高,并且在 filter 指定的范围内。

例如,如果模型设计为将声音分类为四个标签 [‘Silence’, ‘Unknown’, ‘Yes’, ‘No’],则 threshold 为 0.7 意味着 listen() 仅在某个类的置信度分数超过 0.7 时返回。然后,filter 可以是 [2, 3],以指定我们只关心 ‘Yes’ 或 ‘No’ 是否超过 0.7。

timeout 是在音频数据上运行模型的时间量。如果为零,则 listen 将永远运行,直到结果通过阈值和筛选条件。

返回具有高置信度分数的标签的索引。例如,对于上面的示例,[‘Silence’, ‘Unknown’, ‘Yes’, ‘No’] 分别为 0、1、2 或 3。