语音唤醒 定义 语音唤醒在学术上被称为keyword spotting(简称KWS),给它做了一个定义:在连续语流中实时检测出说话人特定片段。 这里要注意,检测的“实时性”是一个关键点,语音唤醒的目的就是将设备从休眠状态激活至运行状态,所以唤醒词说出之后,能立刻被检测出来,用户的体验才会更好。 那么,该怎样评价语音唤醒的效果呢? ➤误唤醒,用户未进行交互而设备被唤醒的概率,一般按天计算,如最多一天一次。 ➤响应时间,指从用户说完唤醒词后,到设备给出反馈的时间差。 ➤功耗水平,即唤醒系统的耗电情况。 ➤One-shot:直接将唤醒词和工作命令一同说出,如“叮咚叮咚,我想听周杰伦的歌”,客户端会在唤醒后直接启动识别以及语义理解等服务,缩短交互时间。 ➤Zero-shot:将常用用户指定设置为唤醒词,达到用户无感知唤醒,例如直接对车机说“导航到科大讯飞”,这里将一些高频前缀的说法设置成唤醒词。
现有系统通常采用单一唤醒词,唤醒后加载统一的响应逻辑,无法有效区分这两种场景。同时,用户对自己产生的数据缺乏控制权。 基于此,本人于2026年2月18日设计了一套双唤醒词分层响应机制,作为个人技术学习笔记。二、核心设计思路2.1 双唤醒词绑定不同响应层级· 第一唤醒词(日常模式)触发轻量级响应层。 2.4 自定义唤醒词· 用户可根据个人喜好自由定义第一唤醒词和第二唤醒词的名称。· 例如:日常模式唤醒词可设为“小助手”,深度模式唤醒词可设为“分析师”。 三、系统架构示意(注:本文为文字描述,实际实现时可参考以下模块)唤醒词识别模块:检测用户输入,识别是否包含预设的唤醒词。层级映射模块:根据唤醒词类型映射到对应的原则层级(日常/深度)。 四、实现步骤用户预先设置两个唤醒词及其对应的原则层级。系统持续检测用户输入,识别唤醒词类型。根据唤醒词类型,从用户专属存储区加载对应层级的原则。基于加载的原则生成响应。
唤醒词检测在语音用户界面(Voice User Interface)拥有广阔的应用,特别是其支持自然语音交互而无需双手。 品牌唤醒词模拟你呼叫一个人的名字,如"Hey Siri", "Ok Google"获取其注意力从而开始对话。 主要的行业巨头,如Apple, Google, Amazon均有其唤醒词算法团队。 以下让我们看看其中最为重要的参数指标,以及如何客观的(Objectively)评价不同唤醒词引擎的性能差异。 通常用FRR和FAR作为重要的唤醒词性能测量指标。 ? 通常我们需要在两项指标中折中平衡。相对低的检测阀值(Detection threshold)产生搞得敏感度。 FAR通常通过播放不包含唤醒词的语音文件(Utterance),包含各种噪音,对话或者是音乐,检测在一段时长内误接受的次数。
其中一篇题为“构建鲁棒的词级唤醒词验证网络”的论文,描述了在云端运行的、用于确认设备端唤醒词检测结果的模型。另一篇题为“支持元数据感知的端到端关键词检测”的论文,则描述了一个新系统。 该系统利用关于智能设备状态的元数据(例如设备类型以及是否正在播放音乐或发出警报)来提高设备端唤醒词检测器的准确性。这两篇论文中报告的唤醒词检测器至少部分依赖于卷积神经网络。 云端模型的注意力机制支持元数据感知的唤醒词检测器在设备端运行,但接下来的论文描述了在云端运行的模型。设备端模型必须具有较小的内存占用,这意味着它们会牺牲一些处理能力。 如果设备端模型认为自己检测到了唤醒词,它会向云端发送一小段音频片段,供更大、更强大的模型进行确认。设备端模型试图识别唤醒词的起点,但有时会略有偏差。 模型的性能是相对于一个基线唤醒词检测器来评估的,该检测器结合了深度神经网络和隐马尔可夫模型,这种架构曾一度是行业标准。在精确对齐的输入上,CRA模型仅比195帧CNN模型略有改进。
产品唤醒词准确性.例如,这里有几句话可能会导致误唤醒 “Alexa”: “Alex”, “election”, “Alexis”.云端唤醒词验证还检测媒体中提及的”Alexa”.例如,在亚马逊广告中提及 通过产品上的唤醒词引擎进行初始化检测,然后在云中验证唤醒词.如果检测到误唤醒,AVS发送StopCapture 指令到产品的downchannel指示它关闭音频流,如果通过,则关闭蓝色LED以指示Alexa 审查基于云端唤醒词验证的流媒体要求 当唤醒词引擎检测到如”Alexa”之类的唤醒词时,语音发起的产品开始将用户音频流发送到AVS,当用户停止说话或者用户的意图已经被识别并且服务返回一个StopCapture 在检测到唤醒词之前捕获的音频或前置音频被用于校准记录的环境噪声等级,这样会增强了语音识别. 在流中包含唤醒词允许AVS执行基于云端的唤醒词验证,这减少了误唤醒. 如果在云端唤醒词验证期间未检测到唤醒词,则丢弃音频样本. 调整新的Context对象的客户端代码: RecognizerState Context是一个容器,用于将客户端组件的状态传递给AVS.
目标 Canny边缘检测的简单概念 OpenCV函数:cv2.Canny() 教程 Canny边缘检测方法常被誉为边缘检测的最优方法,废话不多说,先看个例子: import cv2 import numpy Canny边缘检测 Canny边缘提取的具体步骤如下: 1,使用5×5高斯滤波消除噪声: 边缘检测本身属于锐化操作,对噪点比较敏感,所以需要进行平滑处理。 先阈值分割后检测 其实很多情况下,阈值分割后再检测边缘,效果会更好: _, thresh = cv2.threshold(img, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU 练习 (选做)如果你不太理解高低阈值的效果,创建两个滑动条来调节它们的值看看: 小结 Canny是用的最多的边缘检测算法,用cv2.Canny()实现。 接口文档 cv2.Canny() 引用 本节源码 Canny Edge Detection Canny 边缘检测 Canny J .
序 本文简单介绍下敏感词或者脏词检测算法。 经典AC算法 经典的AC算法由三部分构成,goto表,fail表和output表,共包含四种具体的算法,分别是计算三张查找表的算法以及AC算法本身。 this.value = value; this.isLast = isLast; } //...... } doc 字符串多模式匹配:AC算法 Java实现DFA算法对敏感词、 广告词过滤功能 敏感词过滤的算法原理之 Aho-Corasick 算法 敏感词过滤的算法原理之DFA算法 AC自动机和Fail树 基于双数组的AC匹配算法学习
,推出"Hey Siri”唤醒词。 伴随着品牌定制唤醒词需求的增长,对于诸如Alexa, Bixby, Google, Cortana, Siri等通用语音助理优化后唤醒词的需求,也在强劲增长。 在美国市场之外的市场,Sensory也支持如Tencent, Baidu, Naver, Rakuten等通用语音助理唤醒词。 Sensory为开发者带来开发语音助理产品的终极灵活性,一整套包括优化后的流行唤醒词模型,支持多达几十种语言或方言(dialects),可使用VoiceHub自有定义和创建品牌定制唤醒词。 正如Jeff Bezos所说 - 同步多唤醒词(multiple simultaneous wake words)为消费者提供最优选择。
Sensory,嵌入式语音,视觉,和生物识别技术供应商和开拓者,于今日升级其TrulyHandsfree唤醒词引擎,支持不同产品组合,定制唤醒词,小词汇语音命令,甚至自定义唤醒词。 Jeff Bezos说, 多同步唤醒此词可以为消费者带来更多的选择和更佳的体验。 得益于与众多语音服务商的深入合作,为其产品开发嵌入式唤醒词,我们可以快速为客户提供多唤醒的各种组合。 但组合多唤醒词也会带来显著的问题,即如何仍然保证最优的性能(optimal performance)。 这些唤醒词技术已经在包括穿戴产品,移动电话,车载,智能音箱,和家电产品中广泛采用。 若采用传统技术,多唤醒词带来的是单个唤醒词错误率的线性叠加,带来FA(False accept)和FR(False accept)大幅增加。
box-sizing: border-box; padding: 0px 5px;">10
敏感词检测API - 私有化部署提供文本识别、智能鉴黄、敏感词过滤、涉政检测等服务,可部署至「本地服务器」或「专有云服务器」,保障数据私密性,提供一键启动软件部署包私有化。 ,即可一键启动私有化的"敏感词检测 API服务"自动云更新最新词库支持http json方式或grpc方式查询单服务参考查询效率70000次/分钟,同时支持并行服务按需自定义添加文本白名单/黑名单服务运行内存 65M左右,非常轻便应用场景用户昵称、聊天消息、直播弹幕、评论留言、用户简介、商品详情、创作文章等内容合规检测过滤演示地址坚果墙在线敏感词检测服务下载地址https://github.com/bosnzt /wordscheckhttps://gitee.com/bosnzt/wordscheck快速接入文档文档地址敏感词分类色情:色情传播、x用品、av女优、色情描写、x器官、x行为、色情行为政治:领导人 国家机关、反动言论、邪教、分裂组织、宗教暴恐违禁:枪支弹药、警用军用、涉黑涉恶、非法传教、毒品、假钞、刑事行为、违禁品谩骂:脏话、谩骂、地域攻击广告:冒充系统、违法买卖、金融广告、赌博、网络广告、广告词不良价值观
DFA常用于敏感词过滤。 ---- 什么是 确定的、有穷状态、机 啊,看这个名字,就通俗易懂了嘛。首先它是个机,干嘛用的机我说一下:模式串筛选用的机。 常用于从复杂的字符串中筛选有效信息,可以是敏感词啊、词法编辑(编译器使用)等方面。 当然,这是常用,别人这么用。 它这个功能特性啊,我很喜欢。确定、有穷状态,能想到什么?图,流程图!
数据集下载地址: https://github.com/ultralytics/assets/releases/download/v0.0.0/medical-pills.zip、 数据标签文件配置: YOLO11 模型训练 训练命令行 yolo detect train data=medical-pills.yaml model=yolo11n.pt epochs=100 imgsz=640 PR曲线 部署与量化推理演示 PTQ的量化代码如下: 运行结果如下: 基于OpenVINO2025 C++ SDK部署INT8量化后模型,推理效果如下: OpenVINO + YOLO11药片检测的推理代码如下: std::string > detector(new YOLO11Detector()); detector->initConfig(xmlpath, labelpath, 0.2, 640, 640); cv::Mat image = cv::imread("D:/pills.jpg"); detector->detect(image); cv::imshow("YOLO11药片检测+OpenVINO2025", image);
JCJC错别字检测系统接口API文档更新,字典功能新增:错误词与正确词匹配 JCJC错别字检测功能字典支持类型: 1)黑名单(敏感词) 2)白名单 3)配对词:正确词 -> 错误词 Python 示例代码如下 : # coding=utf8 import requests,json # JCJC错别字检测系统接口API文档-添加错误词与正确词匹配 def call_jcjc_add_pair_words_right_to_wrong (): msg_str_content_right = "正确词" msg_str_content_2_wrong = "错误配对词" payload = { " practical-python-utf8 ") if __name__ == "__main__": call_jcjc_add_pair_words_right_to_wrong() 针对用户反馈,需要针对特殊的正确词与错误词配对提示的需求 参数说明: content: 正确词 content2:错误词 词语新增完成后自动生效。
只需要改动其中几个变量的任务比如希望大语言模型根据某一个主题来撰写某一种风格的文案如果没有模板,我们每次都要重复跟大语言模型表述几乎相同的内容,十分繁琐可以把这个过程抽象出来,给大语言模型这样的一条提示词: “你是一个文案撰写专家,请你根据{主题}来撰写{风格}的文案”下次只需要填写花括号内的内容即可langchain主要提供了两种提示词模板1、PromptTemplate用于标准语言模型from langchain.prompts subject","level"],template="你是一个学习小助手,你的任务是帮助用户完成{subject}的学习,回答用户的问题后给出{level}程度的十道练习题")#使用时填入参数值形成提示词prompt ChatPromptTemplatefrom langchain.prompts.chat import SystemMessagePromptTemplate,HumanMessagePromptTemplate#系统提示词模板 SystemMessagePromptTemplate.from_template("你是一个学习小助手,你的任务是帮助用户完成{subject}的学习,回答完用户的问题后,给出十道{level}程度的练习题")#人类提示词模板
使用 sherpa-onnx 实现轻量级、高效的关键词检测(Keyword Spotting)前言在智能语音交互中,关键词检测(Keyword Spotting, KWS) 是唤醒语音助手的第一步。 无需重新训练,即可添加自定义唤醒词一、环境准备1.1 安装依赖pip3 install sherpa-onnx pyaudio numpy sentencepiece pypinyin 提示:macOS ,适当减小--keywords-threshold0.25触发阈值越大越难触发,适合减少误唤醒--num-trailing-blanks1关键词后的空白帧数如果关键词有重叠 token,设为较大值(如 进行关键词检测 (KWS)。 当检测到预定义的关键词时,打印日志信息。
一、前言 老周当时了解YOLO的时候是YOLO8,当时很火,但转眼间就YOLO11了。从官方给的性能图来看YOLO11大概是走到此类任务的天花板了,未来几年目标检测的任务可能不会再有很巨大的提升。 使用示例:https://docs.ultralytics.com/models/yolo11/#usage-examples # Load a COCO-pretrained YOLO11n model bus.jpg 它会在你运行命令的文件里下载bus.jpg和yolo11n.pt,还有生成runs文件夹(储存结果的文件夹) 训练结果: 可以看出公交bus训练后检测到0.94的权重是公交,效果还是挺好的 你也可以用这个模型做一些微调训练自己需要检测的数据集,希望你也能训练个误差低的模型。 当YOLO11能识别1000种物体时,我们是否该思考:机器的'视力'终将超越人类? 从医疗影像的早期病变检测,到自动驾驶的复杂路况判断,物体检测的边界正在被不断拓展。而这一切,都始于你今天点击'运行'按钮的瞬间。未来已来,你,准备好成为定义它的人了吗?
YOLO11 是 Ultralytics YOLO 系列的最新版本,结合了尖端的准确性、速度和效率,用于目标检测、分割、分类、定向边界框和姿态估计。 主要特点 增强的特征提取:YOLO11 使用改进的主干和颈部架构来增强特征提取,以实现更精确的目标检测和复杂任务的性能。 跨环境的适应性:YOLO11 可以无缝部署在边缘设备、云平台和配备 NVIDIA GPU 的系统上,确保最大的灵活性。 支持广泛的任务范围:YOLO11 支持各种计算机视觉任务,如目标检测、实例分割、图像分类、姿态估计和定向目标检测(OBB)。 我将在这个数据集中训练一个有 8 种不同寄生虫类别的目标检测模型。我将通过 Roboflow 处理标记、分类的图像。我经常在我的个人项目中使用这个开源平台。
Sensory,全球领先的嵌入式语音,视觉和生物识别人工智能公司,宣布其广泛采用的关键词唤醒引擎(Wake Word Engine)-TrulyHandsFree,现可实现灵活的多唤醒词组合支持,如领先的语音虚拟助理平台 ,如Alexa/Hey Google/Hi Siri,品牌唤醒词,用户自定义唤醒词,以及本地语音命令集傲虎的,多唤醒词和语音交互组合。 从行业技术角度来讲,同时支持多唤醒词对于性能来说是个极大的挑战。Sensory克服了识别精度的挑战,并同时将MIPS和内存需求降到最低。 Sensory TrulyHandsFree采用了新的技术,在支持多唤醒词的同时,并没有带来错误率(erro rates)的线性增加(linear increase),这是需要支持多唤醒设备所面临的共同挑战 传统技术方案,意味着总体的错误率是多个唤醒引擎错误率的叠加。Sensory的TrulyHandsFree给多唤醒词带来的是更低的FA和FR。
自从广告法公布以来,广告违禁词,极限词投诉愈发增多,不仅仅是电商广告,网站也开始收到投诉,处罚,其中也有不少同行蠢蠢欲动的投诉,举报,如果你有发现此类同行,不妨可以尝试一下,绝对会令对手焦头烂额! 不少网站也推出了此类检测工具,当然割韭菜的居多,要不让你注册会员,购买会员或者积分,实质上很难检测你的问题,处理掉违禁词,如果你公司配有程序员还好,没有的话,那就只能自己上手操作一番,好在有python 广告违禁词图片 从上面的图片提取出广告违禁词,这里推荐QQ图片文字识别,应用python读取输出为列表! 违禁词的检测,其实就是一个简单的匹配处理,直接用in即可获取,然后进行判断选择输出即可! ? 检测效果 检测参考源码: #违禁词处理筛选 #20210112 by 微信:huguo00289 # -*- coding: utf-8 -*- import requests from lxml import