PyTorch + Catalyst实现的“ 。 该存储库处理培训过程。 为了进行推断,请检出GUI包装器:PyQT中的 。 该储存库已与合并为。 目录 要求 计算方式 我们在1050 Mobile和Tesla V100的两个GPU上运行了该程序。 我们没有进行任何基准测试,但是V100的速度大约提高了400倍。 它还取决于您下载的数据量。 因此,任何服务器级GPU都是可行的。 贮存 该程序确实会生成很多文件(下载和其他方式)。 每个音频文件的大小为96kiB。 对于7k独特的音频剪辑,并以70/30的比例进行火车和验证拆分,它占用了约120GiB的存储空间。 因此,如果您下载更多音频片段,则至少为1TB 。 记忆 至少需要4GB VRAM 。 它可以处理2个批处理大小。在20个批处理大小下,在两个GPU上,每个GPU占用16GiB VRAM。 设置 如果您使用的是Docker,则
1
提取均值信号特征的matlab代码两个扬声器的基于 LSTM/BLSTM 的 PIT 在多通话者混合语音分离和识别方面取得的进展,通常被称为“鸡尾酒会问题”,并没有那么令人印象深刻。 尽管人类听众可以很容易地感知混合声音中的不同来源,但对于计算机来说,同样的任务似乎极其困难,尤其是当只有一个麦克风记录混合语音时。 1. 运行性能 注意:训练集和验证集包含通过从 WSJ0 集中随机选择说话者和话语生成的两个说话者混合,并以 -2.5 dB 和 2.5 dB 之间统一选择的各种信噪比 (SNR) 混合它们. 对于LSTM ,不同性别的混合音频结果如下: 对于BLSTM ,不同性别的混合音频结果如下: 从上面的结果可以看出,混合性别音频的分离效果优于同性音频,BLSTM 的性能优于 LSTM。 2. 评价标准 SDR:信号失真比 SAR:信号与伪像的比率 SIR:信号干扰比 STOI:短期客观可懂度测量 ESTOI:扩展的短期目标可懂度测量 PESQ:语音质量的感知评估 3. 依赖库 matlab(我的测试版:R2016b 64位) tensorflow(我的测试版本:1.4.0) anac
2022-12-21 11:33:49 5.37MB 系统开源
1
A Speaker-Independent Audio-Visual Model for Speech Separation(高质量翻译By翻译狗),详细解析音频分离的实现方式
2022-06-04 14:07:02 13.07MB 音频分离
1
使用uPIT进行语音分离 使用发声级PIT(置换不变训练)进行语音分离 要求 参见 用法 使用生成数据集 准备cmvn,.scp并在.yaml文件中配置实验 训练: ./run_pit.py --config $conf --num-epoches 100 > $checkpoint /train.log 2>&1 & 推理: ./separate.py --dump-dir cache $mdl_dir/train.yaml $mdl_dir/epoch.40.pkl egs.scp 实验 配置 面具 时代 调频 FF 毫米 FF /毫米 AVG AM-ReLU 75 10.41 6.73 7.35 7.19 8.82 sigmod 50 9.95 5.99 6.72 6.35 8.26 PSM-ReLU 73 10.29 6.54 7.28
2021-12-22 17:16:35 23KB pytorch pit speech-separation Python
1
基于神经网络的语音分离必读论文和教程列表 该存储库包含用于纯语音分离和多模式语音分离的论文。 通过Kai Li(如果有任何建议,请与我联系!电子邮件: )。 提示:对于语音分离初学者,我建议您阅读“深度群集”和“ PIT&uPIT”作品,这将有助于理解问题。 如果您发现以下某些文章的代码,欢迎添加链接。 纯语音分离 :check_mark: [用于单声道信号源分离的蒙版和深度递归神经网络的联合优化,黄波森,TASLP 2015] :check_mark: [用于单声道语音分离的复杂比率掩盖,DS Williamson,TASLP,2015年] :check_mark: [深度聚类:用于分段和分离的区分嵌入,JR Hershey,ICASSP 2016] :check_mark: [使用深度聚类的单通道多扬声器分离,Y Isik,Interspeech 2016] :check_mark: [用于与说话者无关的多说话者语音分离的深度模型的置换
1
用于单通道语音分离的深度聚类 “用于分割和分离的深度聚类判别嵌入”的实现 要求 参见 用法 在.yaml文件中配置实验,例如: train.yaml 训练: python ./train_dcnet.py --config conf/train.yaml --num-epoches 20 > train.log 2>&1 & 推理: python ./separate.py --num-spks 2 $mdl_dir/train.yaml $mdl_dir/final.pkl egs.scp 实验 配置 时代 调频 FF 毫米 FF /毫米 AVG 25 11.42 6.85 7.88 7.36 9.54 问与答 .scp文件的格式? wav.scp文件的格式遵循kaldi工具箱中的定义。 每行包含一个key value对,其中key是索引音频文件的唯一字符串,而值
2021-11-27 21:56:29 16KB pytorch speech-separation Python
1
说明: 完成欠定盲语音分离,源信号为3路输入,有2路麦克风,用c实现。 (Underdetermined blind speech separation is completed, the source signal is 3 inputs, 2 mic, with c achieve.)
2021-09-27 09:05:32 3.61MB 盲源分离C++ blind 欠定信号 blindspeech