ml.apps
— ML Apps¶
ml.apps
模块包含各种机器学习应用类。
class MicroSpeech – 语音识别¶
MicroSpeech对象用于使用TensorFlow Lite for Microcontrollers中的MicroSpeech模型识别简单的口语单词。默认情况下,该模型识别“yes”和“no”这两个词。
您可以通过训练一个新模型来自定义该模型,以识别其他单词。请参阅 Micro Speech 指南。
构造¶
- class ml.apps.MicroSpeech(preprocessor: str = None, micro_speech: str = None, labels: list[str, ...] = None) MicroSpeech ¶
创建一个MicroSpeech对象。如果没有提供预处理器,则使用默认的预处理器。如果没有提供micro_speech模型,则使用默认模型。如果没有提供标签,则使用默认模型中的默认标签。
方法¶
- listen(timeout: int = 0, callback=None, threshold: float = 0.65, filter: list[str, ...] = ['Yes', 'No']) tuple[str, float] ¶
监听一个口语单词,并在置信度超过阈值且该单词在过滤列表中时,返回该单词和置信度水平的元组。
timeout``是监听一个单词的最大时间(以毫秒为单位)。如果为零,则该方法将无限期地监听,直到识别到一个单词。如果传入-1,该方法将不会阻塞,并会立即返回结果元组,如果未识别到任何单词,元组中可能包含``None
。如果传入一个正值,该方法将在该时间(以毫秒为单位)内监听,然后返回结果元组。callback
是一个函数,当识别到单词时,它将被调用,并传入单词和置信度水平,而不是返回结果。当与零超时结合使用时,这允许您无限期地监听单词,并在单词被识别时进行处理。threshold
是返回结果所需的最低置信度水平。filter
是一个单词列表,模型应该识别这些单词。如果识别到的单词不在过滤列表中,则该结果将被忽略。