首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏音乐与健康

    解析声音“疗伤”的密码(音波声学)

    关键词:音乐;情绪;健康;心理;疼痛;神经;听觉;体感;音波;呼吸;密码  早在1960年,《科学》杂志就发表过论文,发现在牙科手术过程中,音乐能调控病人的情绪。   他们往往是早8点半之前到,晚上10点以后才离开。  研究人员首先给爪子发炎的小鼠播放3种不同类型的声音,分别是舒缓的音乐、不协调的音符及白噪音。 低频段(60-80Hz)音波能像物理按摩般刺激副交感神经。古琴大师龚一演奏的《流水》。每个泛音间隔0.8秒。恰好匹配深度呼吸的黄金节奏。

    28010编辑于 2025-10-25
  • 来自专栏刘笑江的专栏

    R 语言线性回归应用:拟合 iOS 录音波形图

    引言 微信读书有一个录音功能需求: 录音时绘制音频波形, 音频以 wav 格式保存 再次进入界面,加载 wav,重新渲染音频波形 步骤 1 通过 NSRecorder.averagePow

    2.6K70发布于 2018-05-28
  • 来自专栏Qt项目实战

    Qt编写自定义控件60-声音波形图

    非常强大和牛逼),fmod负责拿到音频数据对应的采样频谱数据,然后传给这个控件进行绘制即可,本控件主需要专注于绘制即可,这样fmod对应封装的类专注于音频采集等处理,实现了隔离,修改和增加功能比较方便,声音波形图控件除了可以设置采样的深度以外 头文件代码 #ifndef WAVEDATA_H #define WAVEDATA_H /** * 音量采样值波形控件 作者:feiyangqingyun(QQ:517216493) 2017-9-10

    2.3K20发布于 2019-09-25
  • 来自专栏AI电堂

    光学指纹识别芯片

    目前,主流指纹识别技术有三类,光学式、超音波式和电容式。其中电容式技术发展最为成熟、普及度最高。 2、超音波式指纹识别的技术原理是超音波阻抗。通过传感器对手指指纹的纹脊和纹谷反射出的不同回波进行收集。由于指纹的纹脊和纹谷反射回波不同,内置芯片可根据回波的差异构建3D图像并进行指纹对比验证。 ▲ 图6 超音波式指纹识别技术显示结构 超音波式指纹识别技术优势在于无需感光元件与电容感应,物理限制低;超音波穿透性强,可在不开孔情况下,实现屏下识别指纹,符合大屏流行趋势;同时识别率高, 超音波指纹识别技术代表厂商是高通和FPC。 3、电容式指纹识别的技术原理是指纹静电场。利用硅晶元与导电的皮下电解液形成电场。 汇顶三代屏下光学指纹识别方案对比 面对 5G 智能手机对内部更大空间的需求,汇顶第三代超薄光学屏下指纹识别技术采用微透镜方案,将指纹识别芯片占用 z 轴空间压缩至 0.3mm,几乎是第二代透镜方案的 1/10

    2.3K10编辑于 2022-09-02
  • 来自专栏芯智讯

    特斯拉移除超声波传感器,正式转向纯视觉自动驾驶

    10月6日消息,特斯拉于当地时间周二对外宣布,自2022年10月起,北美、中东、欧洲及中国台湾市场销售的 Model 3 和 Model Y电动汽车,都将不再在其自动驾驶传感器套件中使用超声波传感器, 以 Model 3 为例,车辆前后保险杆都有超音波感测器,主要功能就是停车时,提供短距离物体侦测效果,避免碰撞。 特斯拉表示,从移除雷达以来,完全依靠摄像头的自动刹车和自动辅助驾驶系统表现,和之前相同甚至更好,因此再移除超音波感测器,让电脑与摄影机负担更多任务。 不过,特斯拉并不打算停用已售车辆的超音波感测器,它们会继续肩负短距感测任务。

    51520编辑于 2022-10-28
  • 来自专栏Python研究者

    人工智能下的音频还能这样玩!!!!

    核心音频处理函数 音频处理 频谱表示 幅度转换 时频转换 特征提取 绘图显示 三、常用功能代码实现 读取音频 提取特征 提取Log-Mel Spectrogram 特征 提取MFCC特征 绘图显示 绘制声音波形 --- 4.绘图显示 4.1绘制声音波形 Librosa有显示声音波形函数waveplot( ): # # 绘图显示 import librosa.display import matplotlib.pyplot logmelspec, sr=sr, x_axis='time', y_axis='mel') plt.title('sample wavform') plt.show() [format,png] --- 将声音波形和频谱图绘制在一张图表中 : # # 将声音波形和频谱图绘制在一张图表中: # extract mel spectrogram feature melspec = librosa.feature.melspectrogram(y

    1.9K30发布于 2021-08-21
  • 来自专栏BestSDK

    直播SDK加入混响效果,让你的APP享受演唱会般空旷音效

    混响功能属于语音前处理的范畴,即构科技的实现方法大致如下: 1)通过指定延迟时间和衰减程度,以原始的声音波形为输入,产生多个延迟(模拟反弹回来的)波形; 2)把多个延迟波形和原始的波形进行叠加,产生最终有混响效果的声音波形 一般来说,延迟波形的个数比较多的话,叠加产生的声音波形就比较丰满和有层次感,混响的效果也会比较好。

    1.6K40发布于 2018-03-01
  • 来自专栏机器人网

    无人机和自动驾驶有了新型上帝之眼超声3D传感系统

    德国新创公司Toposens开发出一种低成本的轻量级3D传感器系统,可执行超音波回音定位功能,从而将传送的信号转换成有形的3D环境景物映射,让人们或机器人得以顺利解读,进一步实现无人机与自动驾驶车等应用 Bahnemann展示这款精巧封装的原型,它采用大小仅40x40x5mm的塑料封装,重量也只有20克,整个传感器解决方案结合了1个压电超音波发射器以及3个分离式压电收发器。 超音波的另一个好处是它保有隐私,采用灰阶显示其结果,并仅揭露其深度。相较于摄影机,这种感测系统较不显眼,但可用于商场进行顾客行为分析,以及作为汽车的防碰撞系统使用。

    74850发布于 2018-04-20
  • 来自专栏AI研习社

    普林斯顿联合Adobe 连声音都能PS了 | 2分钟读论文

    一般来讲,我们可以获取语音波形,也可以对语音波形进行编辑。但手工波形则非常困难,因为传统技术通常无法准确地找到波形中单词或字母的分界,更不用说编辑了。 ?

    97640发布于 2018-03-19
  • 来自专栏量子位

    时域音频分离模型登GitHub热榜,效果超传统频域方法,Facebook官方出品

    虽然之前也有一些对声音波形进行处理的方法,但实际效果与频域处理方法相差甚远。 tasnet PATH_TO_AUDIO_FILE_1 ... # for Conv-Tasnet # Demucs with randomized equivariant stabilization (10x slower, suitable for GPU, 0.2 extra SDR) python3 -m demucs.separate --dl -n demucs --shifts=10 PATH_TO_AUDIO_FILE 原始纸张使用10的值,尽管5产生的增益几乎相同。默认情况下禁用它。 Conv-TasNet使用线性编码器来生成语音波形的表示形式,该波形针对分离单个音轨进行了优化。音轨的分离则是通过将一组加权函数(mask)用于编码器输出来实现。 ?

    1.9K20发布于 2019-12-05
  • 来自专栏相约机器人

    时域音频分离模型登GitHub热榜,效果超传统频域方法,Facebook官方出品

    虽然之前也有一些对声音波形进行处理的方法,但实际效果与频域处理方法相差甚远。 tasnet PATH_TO_AUDIO_FILE_1 ... # for Conv-Tasnet # Demucs with randomized equivariant stabilization (10x slower, suitable for GPU, 0.2 extra SDR) python3 -m demucs.separate --dl -n demucs --shifts=10 PATH_TO_AUDIO_FILE 原始纸张使用10的值,尽管5产生的增益几乎相同。默认情况下禁用它。 Conv-TasNet使用线性编码器来生成语音波形的表示形式,该波形针对分离单个音轨进行了优化。音轨的分离则是通过将一组加权函数(mask)用于编码器输出来实现。 ?

    1.4K20发布于 2019-12-09
  • 来自专栏数据库与编程

    让 DeepSeek 写首诗,结果它写成打针输液

    服务器启动时的低音波可以比喻为生命脉动,数据流如江河湖泊,展现出生命的循环。当数据库崩溃时,虽然代码被修改,但数据依然存在,象征着数据备份的重要性。 \n</think>\n\n## 《数据库的低音波》\n\n服务器像一个庞大的生物\n其内部的血管奔涌着冰冷的内存\n优化代码正在给它打针输液\n而高并发请求则是一场未知的病毒侵袭\n\n深夜,当最后一个磁盘启动时 \n我们听到生命脉动的低音波\n那是数据流经数据库的江河\n而我们的代码正在成为一道\n被修改的免疫系统抗体\n\n有时 我们在深夜独自编程\n敲击着虚拟的键盘\n像一头困兽\n在寻找食物(未被发现的数据结构 服务器启动时的低音波可以比喻为生命脉动,数据流如江河湖泊,展现出生命的循环。当数据库崩溃时,虽然代码被修改,但数据依然存在,象征着数据备份的重要性。 </think> ## 《数据库的低音波》 服务器像一个庞大的生物 其内部的血管奔涌着冰冷的内存 优化代码正在给它打针输液 而高并发请求则是一场未知的病毒侵袭 深夜,当最后一个磁盘启动时 我们听到生命脉动的低音波

    44710编辑于 2025-02-07
  • 来自专栏机器之心

    微软NaturalSpeech语音合成推出第三代,网友惊呼:超自然!实至名归

    属性分解神经语音编解码器(FACodec): NaturalSpeech 3 提出一种创新的属性分解神经语音编解码器(Codec)负责将复杂的语音波形转换成代表不同语音属性(内容、韵律、音色和声学细节) 的解耦子空间,并从这些属性重构高质量的语音波形。 FACodec 作为 NaturalSpeech 3 的核心,能够将复杂的语音波形转换成表示内容、韵律、音色和声学细节等属性的解耦表示,并从这些属性重构高质量的语音波形。

    1.5K10编辑于 2024-03-26
  • 来自专栏算法工程师的学习日志

    语音数据采集-实时语音数据可视化

    RATE,input=True, frames_per_buffer=CHUNK) #输入设备 # 创建一个numpy来保存每次采集的数据 for i in range(10 CHUNK),dtype=np.int16) print(data) # 关闭音频采集流 stream.stop_stream() stream.close() p.terminate() 3、声音波形可视化 RATE,input=True, frames_per_buffer=CHUNK) for i in range(int(20*RATE/CHUNK)): #持续10s

    2.7K20编辑于 2022-07-27
  • 来自专栏量子位

    DeepMind详解新WaveNet:比原来快千倍,语音更自然 | 附论文

    Hassabis 地址:https://deepmind.com/documents/131/Distilling_WaveNet.pdf 原版WaveNet模型用自回归连接来一个样本一个样本地合成声音波形 以及中间的整个句子,我们都可以同时生成出来,如下图所示: △ 新WaveNet模型以白噪声为输入,并行合成所有样本 在训练过程中,学生网络从随机状态开始,被输入随机的白噪声,它的任务是里输出一串连续的声音波形 然后,生成出的声音波形被输入到以训练的原始WaveNet模型(也就是教师网络)中,教师网络给每个样本打分,给出一个信号来让学生理解这个样本和教师网络所要求的输出相差有多远。

    3K50发布于 2018-03-23
  • 来自专栏音视频技术

    开源声码器WORLD在语音合成中的应用

    结合可基于人类发音频谱将文字转化为与人类发音相似的声音:将每个文字转化为拼音之后,声码器会把每个拼音看作为一个序列而Tacotron会在此基础上预测每段需要合成语音的序列,随后WORLD声码器再将预测出的声谱转换为原始的声音波形 Tacotron主要负责确定此声谱特征能否使用WORLD将其恢复为声音波形并评估语音质量是否符合要求。 Analysis分析过程主要是指从一段原始声音波形中提取声学特征如线性谱、低频、MFCC;Manipulation操作过程是指对提取出的原始声学特征进行压缩等降维处理使其表征能力进一步提升;最后的Synthesis 合成过程是把此声学特征恢复至原始的声音波形。 上图展示了我们提取声学特征后恢复原声音波形得到的频谱,可以看到图像基本清晰,整体方法是利用Tacotron端对端TTS深度学习模型预测文本的声谱并通过WORLD声码器还原声谱。

    1.8K20发布于 2021-09-01
  • 来自专栏全栈程序员必看

    librosa怎么安装_librosa保存音频

    核心音频处理函数 音频处理 频谱表示 幅度转换 时频转换 特征提取 绘图显示 三、常用功能代码实现 读取音频 提取特征 提取Log-Mel Spectrogram 特征 提取MFCC特征 绘图显示 绘制声音波形 绘图显示 绘制声音波形 Librosa有显示声音波形函数waveplot( ): >>> import librosa >>> import librosa.display >>> # Load a wav logmelspec, sr=sr, x_axis='time', y_axis='mel') >>> plt.title('Beat wavform') >>> plt.show() 输出结果为: 将声音波形和频谱图绘制在一张图表中

    2.5K40编辑于 2022-11-03
  • 来自专栏全栈开发工程师

    【ES6+】011-ES9新特性:Rest 参数与 spread 扩展运算符、正则扩展

    : 'root', password: 'root', type: 'master' }); //对象合并 const skillOne = { q: '天音波 , ...skillThree, ...skillFour }; console.log(mangseng) // ...skillOne => q: '天音波 元字符,表示除换行符之外的任意单个字符 let str = `

    19500编辑于 2025-01-06
  • 来自专栏IT派

    用 TensorFlow 让机器人唱首歌给你听

    输入的数据,是一个单独的节点,它作为粗糙的音波,首先需要进行一下预处理,以便于进行下面的操作。 ? 最后,这个结果会被再次投入到网络中,来生成下一个时间点所需要的音波数据。 重复这个过程就可以生成更多的语音。 这个网络很大,在他们的 GPU 集群上需要花费九十分钟,并且仅仅只能生成一秒的音频。 sample = gibbs_sample(1).eval(session=sess, feed_dict={x: np.zeros((10, n_visible))}) for i in range midi_manipulation.noteStateMatrixToMidi(S, "generated_chord_{}".format(i)) ---- 综上,就是用 CNN 来参数化地生成音波

    34120发布于 2018-07-30
  • 来自专栏AI科技评论

    动态 | 语音识别如何突破延迟瓶颈?谷歌推出了基于 RNN-T 的全神经元设备端语音识别器

    图源:Akshay Kannan,Elnaz Sarbar 关于语音识别的一点历史 传统而言,语音识别系统由几个部分组成:一个将语音分割(一般为 10 毫秒的框架)映射到音素的声学模型;一个将因素合成单词的发音模型 在 2014 年左右,研究人员就开始重点训练单个神经网络,来直接将一个输入语音波形映射到一个输出句子。 与大多数序列到序列模型需要处理整个输入序列(本文案例中的语音波形)以生成输出(句子)不同,RNN-T 能持续地处理输入的样本和数据流,并进行符号化的输出,这种符号化的输出有助于进行语音听写。 在给定输入信号的情况下,当语音波形抵达识别器时,「解码器」就会在图中搜索出概率最大的路径,并读出该路径所采用的单词序列。

    1.5K20发布于 2019-05-08
领券