ml.apps — ML Apps

ml.apps 模块包含各种机器学习应用类。

class MicroSpeech – 语音识别

MicroSpeech对象用于使用TensorFlow Lite for Microcontrollers中的MicroSpeech模型识别简单的口语单词。默认情况下,该模型识别“yes”和“no”这两个词。

您可以通过训练一个新模型来自定义该模型,以识别其他单词。请参阅 Micro Speech 指南。

构造

class ml.apps.MicroSpeech(preprocessor: str = None, micro_speech: str = None, labels: list[str, ...] = None) MicroSpeech

创建一个MicroSpeech对象。如果没有提供预处理器,则使用默认的预处理器。如果没有提供micro_speech模型,则使用默认模型。如果没有提供标签,则使用默认模型中的默认标签。

方法

listen(timeout: int = 0, callback=None, threshold: float = 0.65, filter: list[str, ...] = ['Yes', 'No']) tuple[str, float]

监听一个口语单词,并在置信度超过阈值且该单词在过滤列表中时,返回该单词和置信度水平的元组。

timeout``是监听一个单词的最大时间(以毫秒为单位)。如果为零,则该方法将无限期地监听,直到识别到一个单词。如果传入-1,该方法将不会阻塞,并会立即返回结果元组,如果未识别到任何单词,元组中可能包含``None。如果传入一个正值,该方法将在该时间(以毫秒为单位)内监听,然后返回结果元组。

callback 是一个函数,当识别到单词时,它将被调用,并传入单词和置信度水平,而不是返回结果。当与零超时结合使用时,这允许您无限期地监听单词,并在单词被识别时进行处理。

threshold 是返回结果所需的最低置信度水平。

filter 是一个单词列表,模型应该识别这些单词。如果识别到的单词不在过滤列表中,则该结果将被忽略。