Time-Frequency сеть для аудио сверхвысокого разрешения

Тема: 2018_ при использовании в супер разрешении сети звуковых частот

Автор блога: Ling против войны

Адрес блога: https://www.cnblogs.com/LXP-Never/p/12345950.html

резюме

  Супер-разрешение аудио (т.е. расширение полосы пропускания) является сложной задачей , чтобы улучшить временное разрешение звукового сигнала. Некоторые современные методы глубокого обучения в частотной области на время моделирования домена задач или задачи регрессии , и достигнутые удовлетворительные результаты. В этой статье мы предлагаем новую модель архитектуры - в частотно-временной сеть (TFNet, Time-Frequency Network) , которая является глубиной нейронной сети для осуществления одновременного мониторинга в временной области и частотной области. Мы предлагаем новую архитектуру модели , которая позволяет как домены общей оптимизации. Результаты показывают , что наш подход к количеству и качеству превосходят самые передовые методы.

Индекс Условия : ширина полосы расширения, аудио супер-разрешение, глубина обучения

1 Введение

  Супер-разрешение (SR) представляет собой задачу с низким разрешением (LR) входного восстановить данные высокого разрешения (HR). Это является сложной задачей, так как она плохо обусловленной природой, особенно, когда фактор времени высокой дискретизации. Путем обработки SR, можно получить априорное понимание данных, чтобы направлять и улучшение предшествующего уровня техники, такие как сжатие и генерирующее моделирование.

  В последние года, образ алгоритм супер-разрешение в области компьютерного зрения широкого внимания, и SR моделируется как глубокая сеть регрессионной задача нейронной, добились значительных успехов. В этой работе мы исследуем аудиоданные подобная задача SR (т.е. изучение карты от LR для HR аудиокадра). Для визуализации реконструкции, на рисунке 1 показана, LR вход, реконструкция HR и подспутниковую спектрограмма.

Краткое описание чертежей Фиг.1: вход LR (частоты выше 4 кГц делеции), реконструкция отдела кадров, HR-земля правда. Наш подход успешно оправиться от высокочастотного компонента LR звукового сигнала.

  Ли [1], который предложил глубокую нейронную сеть , чтобы узнать , отображение из спектральной амплитуды HR LR полностью игнорировать недостающие высокочастотные компоненты фазы. В работе [2], Кулешов, который предложил нейронную сеть , чтобы узнать глубину LR для HR карты непосредственно во временной области. Хотя эти модели показали многообещающие результаты, но отличаются для каждого модельного времени или частотной области только в работе, и сосредоточились на сигнале. В настоящее время только два мужчины содержит код.

  Для того, чтобы в полной мере воспользоваться временной области и информации в частотной области, мы предлагаем частотно-временной сети (TFNet), которая является глубокой нейронные сети, вы можете выбрать, когда информацию о домене и частотной области на время для аудио SR.

  На первый взгляд, в частотной области и временной области модели, кажется, чтобы быть избыточными представление; теорема Парсеваль из очевидны из ошибки предсказания разности L2, и во временной области или в частотной области одинаковы. Однако, от LR к HR или возвращения во временной области в частотной области для решения совершенно другую проблему. Во временной области, которая похожа на супер-разрешением изображения задач, отображение из звукового блока в LR HR. С другой стороны, в частотной области и семантические задачи SR восстановления изображений аналогично [3,4]. Принимая во внимание к низкочастотных компонентов спектра, выход высокочастотного компонента, как показано на фиг. Поэтому для того, чтобы в полной мере воспользоваться этими двумя способами, мы рекомендуем аудио SR совместное моделирование во временной области и в частотной области.

Фигура 2: SR входного изображения и вывода, семантический inpainting, SR аудио временной области и описание частотной области. Аудио SR SR изображение, похожее на временной области, который отсутствует во входном LR «кромки края.» С другой стороны, SR аудио спектральной область может рассматриваться как изображение ремонта спектрограмма, т.е. заданной, лежащая в основе низкой частоты «изображение» предсказание остаточного изображения.

2, связанная с работой

расширение диапазона

  Аудио речь задача сообщества супер-разрешения изучаться как расширение полосы пропускания. Он предложил использовать низкую частоту [5] способ оценки различных высокочастотных компонентов. Линейное отображение [6,7], модель смеси [8,9,10], нейронные сети [11,12,1,2].

Глубина нейросеть одно изображение супер-разрешением

  Глубина сверточная нейронная сеть (CNNs) является последней разработкой супер-разрешение изучения одного изображения. Многие архитектуры были предложены [13, 14]. Эти модели полностью свертка, пропустить / redisual и с более ранними связями.

Семантический изображение глубина ремонт нейронной сети

  Глубина в семантической нейронной сети задача ремонтного изображения также показали хорошие результаты. Используя CNNs, [3,4] показана возможность маскирования области предсказания изображения. И похоже супер-разрешения, эти модели также полностью свертка. Вдохновение от этих моделей, мы также следуют аналогичным принципам построения базовой сети архитектуры.

3, метод

  Мы аудио СР определяется как задача возврата, т.е. предсказал HR аудио кадра, $ Y \ в \ mathbb {R} ^ L $, учитывая LR кадр звука, $ х \ в \ mathbb {R} ^ {L / R} $ в котором R & л $ $ является фактором понижающей дискретизации.

3,1 Частота сети

  Мы предлагаем частотно-временной сеть (TFNet), которая является полностью дифференцируемой сетью конца к концу обучению. Как показано, при условии, $ 3 \ Theta $ для всех параметров в модели, мы сделали модель, основанную на полном сверточного кодера - декодера сети $ H (X; \ Theta) $ конфигурации. LR для данного входного х, Н кадров предсказал аудио реконструкцию $ \ шляпу {Z} $ спектральной амплитуды и HR-$ \ {шлем т} $. Окончательный выходной спектр использования конвергенции слой синтеза мы предлагаем.

Рисунок 3: структура сети частотно-временной. TFNet в то время, воспользовавшись временной и частотной областях, чтобы завершить реконструкцию звукового сигнала, который содержит явное моделирование реконструированы спектральной амплитуды ветви, а другие ветви моделирования реконструированного аудиосигнала временной области. И, наконец, два выходных ветви спектра в сочетании с нашей интеграции слоя, синтетической продукции с высокой разрешающей способностью.

слой интеграции Spectrum

  Fusion слой связан спектр $ \ шлем {Z} $ и $ \ {шлем} м $ Окончательный восстановленный выходной $ \ шлем {у} $, как показано ниже:

$$ \ {начинаются выровнены} М = & ш \ ОДОТ | \ mathscr {F} (\ шлем {г}) | + (1-W) \ \ ODOT шляпы {т} \\ \ шляпы {у} & = \ mathscr {F} ^ {- 1} \ слева (M е ^ {j \ угол \ mathscr {F} (\ шляпа {г})} \ справа) \ {конец выровнен} $$

Где $ \ mathscr {F} $ обозначает преобразование Фурье, $ \ ODOT $ является элементом умножения, $ W $ тренирует параметры.

  Этот слой дифференцируем, вы можете закончить обучение. Ключевое преимущество является то, что слой может заставить сеть моделирования спектральной амплитуды сигнала, в то время как остальная часть модели может быть смоделировано в фазе временной области.

  我们对网络体系结构的设计是基于这样的观察:卷积层只能捕获局部关系,特别擅长捕获视觉特征。当我们利用短时傅里叶变换对赋值和相位进行可视化处理时,幅值明显的视觉结构,而相位没有,因此,我们只在谱域中对幅值进行建模。

频谱复制器

  如前所述,卷积层通常捕获局部关系(即,输入-输出关系的范围受到感受野的限制)。这导致了一个问题,因为我们想要输出的高频分量依赖于输入的低频分量。例如,当向上采样4倍时,接受域至少需要为总频率bin的3/4,这将需要非常大的内核或许多层。为了解决接受域的问题,我们将可用的低频频谱复制到高频频谱中,高频频谱最初都是零,如图4所示。

图4:在4x SR任务上的频谱复制层图解。低频分量被复制四次以替换零

损失函数

  为了训练我们的网络,我们利用$l_2$重建损失和权重衰减。总的目标函数是最小化下面关于$\Theta $的损失函数

$$公式1:\mathcal{L}=\sum_{(x, y) \in \mathcal{D}}\|y-\hat{y}(x)\|_{2}+\lambda\|\Theta\|_{2}$$

其中$D$是所有(LR,HR)对的训练集,$\lambda $是正则化器的加权超参数,在我们的所有实验中选择为0:0001。

3.2、实现细节

预处理

  对于训练,我们进行了沉默过滤以丢弃能量阈值为0.05以下的序列脉冲,计算结果A。我们发现这提高了训练的收敛性,并稳定了梯度。对于测试和评估,我们不过滤沉默。

网络架构

  我们的网络由两个具有相似架构的分支组成;时域分支和频域分支。为了公平的比较,我们的网络遵循了AudioUNet[2]的架构设计模式,包括编码器和解码器块。为了保持模型大小大致相同,每个分支中的过滤器数量减半。我们的网络以8192段音频作为输入。

  对于频域分支,我们对序列进行离散傅里叶变换(DFT)。由于所有的音频信号都是实数,所以我们抛弃了所有负相位的分量,得到了4097个傅立叶系数。最后,求这些系数的大小。

  如前所述,输入的高频分量为零,因此使用频谱复制器,我们用低频分量的副本替换零值。具体来说,对于4x上采样,我们在1025到2048、2049到3072和3073到4096重复第1个分量到第1024个分量。第0个分量(直流分量)直接通过网络,最后融合。

训练细节

  我们使用流行的Adam 优化器[16]来训练我们的网络。初始学习速率为$3e^{-5}$,采用多项式学习速率衰减调度,学习速率为0.5。我们所有的模特都经过了50万步的训练。

4、实验

数据集和准备

我们在两个数据集上评估我们的方法:VCTK数据集[17]和Piano数据集[18]。

  VCTK数据集包含来自109个以英语为母语的人的语音数据。每个说话人会读出大约400个不同的句子,每个说话人的句子也不同,总共有44个小时的语音数据。

  根据之前的工作[2],我们将数据分为88%的培训6%的验证和6%的测试,没有说话人重叠。

  对于数据集中的每个文件,我们通过以目标较低采样率的奈奎斯特速率执行带截止频率的低通滤波器,将音频重采样到较低的采样率。然后通过双三次插值将LR序列向上采样到原始速率。为了编制训练(LR, HR)对,我们从重采样信号及其对应的原始信号中提取了8192个重叠度为75%的样本长度子序列。  

  对于采样速率为16kHz的VCTK数据集,它对应的子序列约为500ms,每个子序列的起始距离为125ms。剩下的50%的序列会被丢弃,因为得到的数据集太大,无法有效地训练。

  此外,为了了解模型的性能是否会受到数据多样性的影响,我们建立了一个新的数据集(VCTKs),它只包含说话者VCTK的一个子集。这包括大约30分钟的演讲。音频数据以16kHz的采样率提供。

  钢琴数据集包含10小时的贝多芬奏鸣曲,采样率为16kHz。由于音乐的重复性,我们在文件级别上对Piano数据集进行了分割以进行公平的评估。

评估

为了进行评价,我们计算了信噪比(SNR)和对数谱距离(LSD)的相似性度量。

  在时域内,信噪比捕获了预测和fround-truth数据之间的加权差。另一方面,LSD在频域[19]捕获预测与fround-truth之间的差异。

$$公式2:\mathrm{LSD}(y, \hat{y})=\frac{10}{L} \sum_{l=1}^{L}\left\|\log _{10} \mathscr{F}\left(y_{l}\right)-\log _{10} \mathscr{F}\left(\hat{y}_{l}\right)\right\|_{2}$$

其中下标$l$表示音频短窗口段的索引。

结果

  根据表1中[1,2]的结果,我们将我们的方法与三个不同的基线、一个简单的双三次插值和两个深度网络方法进行了比较。特别地,我们实验了不同的下采样率,从4x开始,在这里质量的下降变得清晰可见。对于VCTK,我们的方法在4倍上采样的情况下比基线方法的信噪比大约高出1.5dB。8倍上采样甚至比基线 6倍上采样结果高1.5dB SNR。在Piano数据集上,我们的方法性能与基线方法相当。需要注意的是,在[2]中的参数数量与我们的模型相同;这进一步证明了我们的model架构在表达上更加有效。

表1:对不同上采样率下的测试集进行定量比较。左/右结果为信噪比/LSD。

表2:消融研究,评估时域和谱域各分支的性能。左/右结果为信噪比/LSD。

细节分析

  此外,为了确认我们的网络架构同时利用了时域和频域,我们进行了消融(ablation)研究。我们通过移除时域或频域分支来评估模型性能,如表2所示。对于谱支,我们假设重构时高频分量为零相位。

5、结论与未来工作

   本文提出了一种时频网络(TFNet),这是一种深度卷积神经网络,利用时域和频域来实现音频的超分辨。与现有方法相比,我们的新型频谱复制和融合层具有更好的性能。最后,TFNet已经证明了具有冗余表示有助于对音频信号进行建模。我们认为该方法的经验结果是有趣的和有前途的,这为进一步的理论和数值分析提供了依据。此外,我们希望将此观察推广到其他音频任务,例如音频生成,目前最先进的WaveNet[20]是一种时域方法。

文献

[1] Kehuang Li, Zhen Huang, Yong Xu, and Chin-Hui Lee,“Dnn-based speech bandwidth expansion and its application to adding high-frequency missing features for automatic speech recognition of narrowband speech,” in Proc. INTERSPEECH, 2015.
[2] Volodymyr Kuleshov, S Zayd Enam, and Stefano Ermon,“Audio super-resolution using neural networks,”, 2017.
[3] Deepak Pathak, Philipp Kr¨ahenb¨uhl, Jeff Donahue,Trevor Darrell, and Alexei Efros, “Context encoders:Feature learning by inpainting,” in Computer Vision and Pattern Recognition (CVPR), 2016.
[4] Raymond A. Yeh, Chen Chen, Teck Yian Lim,Schwing Alexander G., Mark Hasegawa-Johnson, and Minh N. Do, “Semantic image inpainting with deep generative models,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017,  equal contribution.
[5] Bernd Iser and Gerhard Schmidt, “Bandwidth extension of telephony speech,” Speech and Audio Processing in Adverse Environments, pp. 135–184, 2008.
[6] Yoshihisa Nakatoh, Mineo Tsushima, and Takeshi Norimatsu,“Generation of broadband speech from narrowband speech using piecewise linear mapping,” in Fifth European Conference on Speech Communication and Technology, 1997.
[7] Yoshihisa Nakatoh, Mineo Tsushima, and Takeshi Norimatsu,“Generation of broadband speech from narrowband speech based on linear mapping,” Electronics and Communications in Japan (Part II: Electronics), vol. 85,no. 8, pp. 44–53, 2002.
[8] Geun-Bae Song and Pavel Martynovich, “A study of hmm-based bandwidth extension of speech signals,” Signal Processing, vol. 89, no. 10, pp. 2036–2044, 2009.
[9] Hyunson Seo, Hong-Goo Kang, and Frank Soong, “A maximum a posterior-based reconstruction approach to speech bandwidth expansion in noise,” in Acoustics,Speech and Signal Processing (ICASSP), 2014 IEEE International Conference on. IEEE, 2014, pp. 6087–6091.
[10] Saeed Vaseghi, Esfandiar Zavarehei, and Qin Yan, “Speech bandwidth extension: Extrapolations of spectral envelop and harmonicity quality of excitation,” in Acoustics, Speech and Signal Processing, 2006. ICASSP 2006 Proceedings. 2006 IEEE International Conference on. IEEE, 2006, vol. 3, pp. III–III.
[11] Juho Kontio, Laura Laaksonen, and Paavo Alku, “Neural network-based artificial bandwidth expansion of speech,” IEEE transactions on audio, speech, and language processing, vol. 15, no. 3, pp. 873–881, 2007.
[12] Bernd Iser and Gerhard Schmidt, “Neural networks versus codebooks in an application for bandwidth extension of speech signals,” in Eighth European Conference on Speech Communication and Technology, 2003.
[13] Chao Dong, Chen Change Loy, Kaiming He, and Xiaoou Tang, “Image super-resolution using deep convolutional networks,” IEEE Trans. Pattern Anal. Mach.Intell., vol. 38, no. 2, pp. 295–307, Feb. 2016.
[14] Jiwon Kim, Jung Kwon Lee, and Kyoung Mu Lee, “Accurate image super-resolution using very deep convolutional networks,” in The IEEE Conference on Computer Vision and Pattern Recognition (CVPR Oral), June 2016.
[15] Wei-Sheng Lai, Jia-Bin Huang, Narendra Ahuja, and Ming-Hsuan Yang, “Deep laplacian pyramid networks for fast and accurate super-resolution,” in IEEE Conference on Computer Vision and Pattern Recognition,2017.
[16] Diederik Kingma and Jimmy Ba, “Adam: A method for stochastic optimization,” arXiv preprint arXiv:1412.6980, 2014.
[17] Junichi Yamagishi, “English multi-speaker corpus for cstr voice cloning toolkit,” http://homepages.inf.ed.ac.uk/jyamagis/page3/page58/page58.html, 2012.
[18] Soroush Mehri, Kundan Kumar, Ishaan Gulrajani,Rithesh Kumar, Shubham Jain, Jose Sotelo, Aaron Courville, and Yoshua Bengio, “Samplernn: An unconditional end-to-end neural audio generation model,”2016, cite arxiv:1612.07837.
[19] Augustine Gray and John Markel, “Distance measures for speech processing,” IEEE Transactions on Acoustics,Speech, and Signal Processing, vol. 24, no. 5, pp.380–391, 1976.
[20] Aron van den Oord, Sander Dieleman, Heiga Zen,Karen Simonyan, Oriol Vinyals, Alexander Graves, Nal Kalchbrenner, Andrew Senior, and Koray Kavukcuoglu,“Wavenet: A generative model for raw audio,” in Arxiv,2016.

 

рекомендация

отwww.cnblogs.com/LXP-Never/p/12345950.html