首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏音乐与健康

    解析声音“疗伤”的密码(音波声学)

    关键词:音乐;情绪;健康;心理;疼痛;神经;听觉;体感;音波;呼吸;密码  早在1960年,《科学》杂志就发表过论文,发现在牙科手术过程中,音乐能调控病人的情绪。   该研究历时3年多完成,经历了一番紧张而艰难的攻关,离不开课题组年轻人的付出和努力。课题组25人,大部分是博士研究生或博士刚毕业的年轻人。  这次研究的思路源于2019年的一次“闲聊”。 研究人员首先给爪子发炎的小鼠播放3种不同类型的声音,分别是舒缓的音乐、不协调的音符及白噪音。 结果显示,这3种声音在低强度——大约是耳语水平——播放时,都能有效缓解小鼠的疼痛,而在高强度播放时,则无明显的镇痛效果。  有研究假说认为,声音的镇痛效果可能与治疗环境密切相关。 低频段(60-80Hz)音波能像物理按摩般刺激副交感神经。古琴大师龚一演奏的《流水》。每个泛音间隔0.8秒。恰好匹配深度呼吸的黄金节奏。

    27910编辑于 2025-10-25
  • 来自专栏刘笑江的专栏

    R 语言线性回归应用:拟合 iOS 录音波形图

    coeeficient)为: Call: lm(formula = y ~ log(x, 2), data = dat) Residuals: Min 1Q Median 3Q

    2.6K70发布于 2018-05-28
  • 来自专栏Qt项目实战

    Qt编写自定义控件60-声音波形图

    非常强大和牛逼),fmod负责拿到音频数据对应的采样频谱数据,然后传给这个控件进行绘制即可,本控件主需要专注于绘制即可,这样fmod对应封装的类专注于音频采集等处理,实现了隔离,修改和增加功能比较方便,声音波形图控件除了可以设置采样的深度以外 二、实现的功能 1:可设置采样深度 2:可设置当前位置线条宽度/线条颜色 3:可设置前景色/背景色 4:可设置数据展示样式,线条样式/柱状样式/平滑样式 三、效果图 [在这里插入图片描述] [在这里插入图片描述 WAVEDATA_H /** * 音量采样值波形控件 作者:feiyangqingyun(QQ:517216493) 2017-9-10 * 1:可设置采样深度 * 2:可设置当前位置线条宽度/线条颜色 * 3:

    2.3K20发布于 2019-09-25
  • 来自专栏AI电堂

    光学指纹识别芯片

    ▲ 图3 汇顶科技股市走向 来源:集微网 究其背后的原因,汇顶科技的高速发展无疑抢占到了指纹芯片的风口,但随着产业的变化,也导致其陷入当前的困境,从2020年净利润超25亿元 目前,主流指纹识别技术有三类,光学式、超音波式和电容式。其中电容式技术发展最为成熟、普及度最高。 2、超音波式指纹识别的技术原理是超音波阻抗。通过传感器对手指指纹的纹脊和纹谷反射出的不同回波进行收集。由于指纹的纹脊和纹谷反射回波不同,内置芯片可根据回波的差异构建3D图像并进行指纹对比验证。 ▲ 图6 超音波式指纹识别技术显示结构 超音波式指纹识别技术优势在于无需感光元件与电容感应,物理限制低;超音波穿透性强,可在不开孔情况下,实现屏下识别指纹,符合大屏流行趋势;同时识别率高, 超音波指纹识别技术代表厂商是高通和FPC。 3、电容式指纹识别的技术原理是指纹静电场。利用硅晶元与导电的皮下电解液形成电场。

    2.3K10编辑于 2022-09-02
  • 来自专栏机器人网

    无人机和自动驾驶有了新型上帝之眼超声3D传感系统

    德国新创公司Toposens开发出一种低成本的轻量级3D传感器系统,可执行超音波回音定位功能,从而将传送的信号转换成有形的3D环境景物映射,让人们或机器人得以顺利解读,进一步实现无人机与自动驾驶车等应用 Bahnemann展示这款精巧封装的原型,它采用大小仅40x40x5mm的塑料封装,重量也只有20克,整个传感器解决方案结合了1个压电超音波发射器以及3个分离式压电收发器。 该算法大约花了三年的时间开发,两位事业合作伙伴一直到今年3月才得以展示其概念原型。 Bahnemann认为该系统不仅可让机器人在复杂的3D环境行走,同时还能进行动作侦测与手势控制侦测。 超音波的另一个好处是它保有隐私,采用灰阶显示其结果,并仅揭露其深度。相较于摄影机,这种感测系统较不显眼,但可用于商场进行顾客行为分析,以及作为汽车的防碰撞系统使用。 此外,根据该公司的开发蓝图,接下来还将推出长程的3D雷达,能够在高达150-300公尺的范围内提供周遭环境的实时3D影像,进一步实现自动驾驶车应用。

    74850发布于 2018-04-20
  • 来自专栏Python研究者

    人工智能下的音频还能这样玩!!!!

    核心音频处理函数 音频处理 频谱表示 幅度转换 时频转换 特征提取 绘图显示 三、常用功能代码实现 读取音频 提取特征 提取Log-Mel Spectrogram 特征 提取MFCC特征 绘图显示 绘制声音波形 --- 3.提取MFCC特征 MFCC特征是一种在自动语音识别和说话人识别中广泛使用的特征。 --- 4.绘图显示 4.1绘制声音波形 Librosa有显示声音波形函数waveplot( ): # # 绘图显示 import librosa.display import matplotlib.pyplot logmelspec, sr=sr, x_axis='time', y_axis='mel') plt.title('sample wavform') plt.show() [format,png] --- 将声音波形和频谱图绘制在一张图表中 : # # 将声音波形和频谱图绘制在一张图表中: # extract mel spectrogram feature melspec = librosa.feature.melspectrogram(y

    1.9K30发布于 2021-08-21
  • 来自专栏AI研习社

    普林斯顿联合Adobe 连声音都能PS了 | 2分钟读论文

    3期介绍文字语音转换技术。也就是,我们写下一段文字,计算机把文字转化成语音。这在阅读新闻或者在无官方旁白的情况下,对于创作有声读物非常有用。 ? 一般来讲,我们可以获取语音波形,也可以对语音波形进行编辑。但手工波形则非常困难,因为传统技术通常无法准确地找到波形中单词或字母的分界,更不用说编辑了。 ? "VoCo: Text-based Insertion and Replacement in Audio Narration" 音频编辑技术VoCo:基于文本的插入和替换 ▷ 观看论文解读大概需要 3

    97640发布于 2018-03-19
  • 来自专栏机器之心

    微软NaturalSpeech语音合成推出第三代,网友惊呼:超自然!实至名归

    NaturalSpeech 3 可以仅仅通过 3s 的提示音频在没有见过的说话人上实现效果惊艳音色克隆,例如下面的例子: NaturalSpeech 3 不仅能够实现逼真的音色模型,还能够非常好的还原韵律 属性分解神经语音编解码器(FACodec): NaturalSpeech 3 提出一种创新的属性分解神经语音编解码器(Codec)负责将复杂的语音波形转换成代表不同语音属性(内容、韵律、音色和声学细节) 的解耦子空间,并从这些属性重构高质量的语音波形。 FACodec 作为 NaturalSpeech 3 的核心,能够将复杂的语音波形转换成表示内容、韵律、音色和声学细节等属性的解耦表示,并从这些属性重构高质量的语音波形。 NaturalSpeech 3和其它TTS系统比较 NaturalSpeech3在不同模型大小和数据量下的比较

    1.5K10编辑于 2024-03-26
  • 来自专栏BestSDK

    直播SDK加入混响效果,让你的APP享受演唱会般空旷音效

    混响功能属于语音前处理的范畴,即构科技的实现方法大致如下: 1)通过指定延迟时间和衰减程度,以原始的声音波形为输入,产生多个延迟(模拟反弹回来的)波形; 2)把多个延迟波形和原始的波形进行叠加,产生最终有混响效果的声音波形 一般来说,延迟波形的个数比较多的话,叠加产生的声音波形就比较丰满和有层次感,混响的效果也会比较好。

    1.6K40发布于 2018-03-01
  • 来自专栏芯智讯

    特斯拉移除超声波传感器,正式转向纯视觉自动驾驶

    以 Model 3 为例,车辆前后保险杆都有超音波感测器,主要功能就是停车时,提供短距离物体侦测效果,避免碰撞。 特斯拉表示,从移除雷达以来,完全依靠摄像头的自动刹车和自动辅助驾驶系统表现,和之前相同甚至更好,因此再移除超音波感测器,让电脑与摄影机负担更多任务。 “今天,我们正在迈出特斯拉愿景的下一步,从Model 3和Model Y中移除超声波传感器(USS)。 在取消掉超声波传感器初期,这批 Model 3 / Y 暂时无法使用自动停车、智能召唤等功能,车辆的自动驾驶也会被限速。 不过,特斯拉并不打算停用已售车辆的超音波感测器,它们会继续肩负短距感测任务。

    51520编辑于 2022-10-28
  • 来自专栏音视频技术

    开源声码器WORLD在语音合成中的应用

    classid=19011464750298&token=CsIfi1xWq7ThKKZLIMQ5hiQNTSk0P2AyhhMp79C4U-kb-AOqYz3LwsEdteadTNg-CqdH1zJ1Si0 Tacotron主要负责确定此声谱特征能否使用WORLD将其恢复为声音波形并评估语音质量是否符合要求。 合成过程是把此声学特征恢复至原始的声音波形。 3. 上图展示了我们提取声学特征后恢复原声音波形得到的频谱,可以看到图像基本清晰,整体方法是利用Tacotron端对端TTS深度学习模型预测文本的声谱并通过WORLD声码器还原声谱。

    1.8K20发布于 2021-09-01
  • 来自专栏数据库与编程

    让 DeepSeek 写首诗,结果它写成打针输液

    服务器启动时的低音波可以比喻为生命脉动,数据流如江河湖泊,展现出生命的循环。当数据库崩溃时,虽然代码被修改,但数据依然存在,象征着数据备份的重要性。 \n</think>\n\n## 《数据库的低音波》\n\n服务器像一个庞大的生物\n其内部的血管奔涌着冰冷的内存\n优化代码正在给它打针输液\n而高并发请求则是一场未知的病毒侵袭\n\n深夜,当最后一个磁盘启动时 \n我们听到生命脉动的低音波\n那是数据流经数据库的江河\n而我们的代码正在成为一道\n被修改的免疫系统抗体\n\n有时 我们在深夜独自编程\n敲击着虚拟的键盘\n像一头困兽\n在寻找食物(未被发现的数据结构 服务器启动时的低音波可以比喻为生命脉动,数据流如江河湖泊,展现出生命的循环。当数据库崩溃时,虽然代码被修改,但数据依然存在,象征着数据备份的重要性。 </think> ## 《数据库的低音波》 服务器像一个庞大的生物 其内部的血管奔涌着冰冷的内存 优化代码正在给它打针输液 而高并发请求则是一场未知的病毒侵袭 深夜,当最后一个磁盘启动时 我们听到生命脉动的低音波

    44710编辑于 2025-02-07
  • 来自专栏量子位

    DeepMind详解新WaveNet:比原来快千倍,语音更自然 | 附论文

    Hassabis 地址:https://deepmind.com/documents/131/Distilling_WaveNet.pdf 原版WaveNet模型用自回归连接来一个样本一个样本地合成声音波形 以及中间的整个句子,我们都可以同时生成出来,如下图所示: △ 新WaveNet模型以白噪声为输入,并行合成所有样本 在训练过程中,学生网络从随机状态开始,被输入随机的白噪声,它的任务是里输出一串连续的声音波形 然后,生成出的声音波形被输入到以训练的原始WaveNet模型(也就是教师网络)中,教师网络给每个样本打分,给出一个信号来让学生理解这个样本和教师网络所要求的输出相差有多远。

    3K50发布于 2018-03-23
  • 来自专栏全栈程序员必看

    librosa怎么安装_librosa保存音频

    核心音频处理函数 音频处理 频谱表示 幅度转换 时频转换 特征提取 绘图显示 三、常用功能代码实现 读取音频 提取特征 提取Log-Mel Spectrogram 特征 提取MFCC特征 绘图显示 绘制声音波形 绘图显示 绘制声音波形 Librosa有显示声音波形函数waveplot( ): >>> import librosa >>> import librosa.display >>> # Load a wav logmelspec, sr=sr, x_axis='time', y_axis='mel') >>> plt.title('Beat wavform') >>> plt.show() 输出结果为: 将声音波形和频谱图绘制在一张图表中

    2.5K40编辑于 2022-11-03
  • 来自专栏量子位

    时域音频分离模型登GitHub热榜,效果超传统频域方法,Facebook官方出品

    虽然之前也有一些对声音波形进行处理的方法,但实际效果与频域处理方法相差甚远。 python.exe): python3 -m demucs.separate --dl -n demucs PATH_TO_AUDIO_FILE_1 [PATH_TO_AUDIO_FILE_2 ... ] # for Demucs python3 -m demucs.separate --dl -n tasnet PATH_TO_AUDIO_FILE_1 ... # for Conv-Tasnet # Demucs with randomized equivariant stabilization (10x slower, suitable for GPU, 0.2 extra SDR) python3 Conv-TasNet使用线性编码器来生成语音波形的表示形式,该波形针对分离单个音轨进行了优化。音轨的分离则是通过将一组加权函数(mask)用于编码器输出来实现。 ?

    1.9K20发布于 2019-12-05
  • 来自专栏全栈开发工程师

    【ES6+】011-ES9新特性:Rest 参数与 spread 扩展运算符、正则扩展

    : 'root', password: 'root', type: 'master' }); //对象合并 const skillOne = { q: '天音波 , ...skillThree, ...skillFour }; console.log(mangseng) // ...skillOne => q: '天音波 ', w: '金钟罩' </script> </body> </html> 3、运行结果 二、正则扩展:命名捕获分组 1、概述 ES9 允许命名捕获组使用符号『? console.log(result1.groups.url); console.log(result1.groups.text); </script> </body> </html> 3、 / 后面是数字前面是么 const result1 = reg.exec(str); console.log(result1); </script> </body> </html> 3

    19500编辑于 2025-01-06
  • 来自专栏相约机器人

    时域音频分离模型登GitHub热榜,效果超传统频域方法,Facebook官方出品

    虽然之前也有一些对声音波形进行处理的方法,但实际效果与频域处理方法相差甚远。 python.exe): python3 -m demucs.separate --dl -n demucs PATH_TO_AUDIO_FILE_1 [PATH_TO_AUDIO_FILE_2 ... ] # for Demucs python3 -m demucs.separate --dl -n tasnet PATH_TO_AUDIO_FILE_1 ... # for Conv-Tasnet # Demucs with randomized equivariant stabilization (10x slower, suitable for GPU, 0.2 extra SDR) python3 Conv-TasNet使用线性编码器来生成语音波形的表示形式,该波形针对分离单个音轨进行了优化。音轨的分离则是通过将一组加权函数(mask)用于编码器输出来实现。 ?

    1.4K20发布于 2019-12-09
  • 来自专栏机器之心

    微软NaturalSpeech 2来了,基于扩散模型的语音合成

    3)当前,研究团队正在开展第三阶段的研究,为达到高自然度(高质量且多样化)的语音合成这一目标,乘势而上,开创新局面。 考虑到语音波形的复杂性和高维度,微软亚洲研究院机器学习组与 Yoshua Bengio 共同提出的 Regeneration Learning 范式,为这个问题提供了创新的参考答案。 图1:NaturalSpeech 2 系统概览 NaturalSpeech 2 首先利用神经语音编解码器(Neural Audio Codec,如图2所示)的编码器(encoder),将语音波形转换为连续向量并用解码器 (decoder)重建语音波形,再运用潜在扩散模型(Latent Diffusion Model)以非自回归的方式从文本预测连续向量。 3. 引入语音提示机制,激发上下文学习能力。研究员们创新设计的语音提示机制(如图3所示),让扩散模型和时长/音高预测模块能够更高效地学习语音上下文,从而提升了零样本的预测能力。

    1.7K30编辑于 2023-05-16
  • 来自专栏量子位

    不开口就能说话,脑波直接转语音,实现每分钟150词

    声学特征是能从语音波形中提取的频谱特征,因此用解码后的信号就可以合成出语音波形。 在这个过程中,两个神经网络都会被投喂训练数据,以提高它们的解码性能。 ?

    89130发布于 2019-05-13
  • 来自专栏IT派

    用 TensorFlow 让机器人唱首歌给你听

    输入的数据,是一个单独的节点,它作为粗糙的音波,首先需要进行一下预处理,以便于进行下面的操作。 ? 最后,这个结果会被再次投入到网络中,来生成下一个时间点所需要的音波数据。 重复这个过程就可以生成更多的语音。 这个网络很大,在他们的 GPU 集群上需要花费九十分钟,并且仅仅只能生成一秒的音频。 lr = tf.constant(0.005, tf.float32) #The learning rate of our model 3.定义变量: x 是投入网络的数据 w 用来存储权重矩阵 size_bt, tf.reduce_sum(tf.sub(h, h_sample), 0, True)) #When we do sess.run(updt), TensorFlow will run all 3 3.需要训练 Gibbs chain 其中的 visible nodes 先初始化为 0,来生成一些样本。 然后把向量 reshape 成更好的格式来 playback。

    34120发布于 2018-07-30
领券