Beici Liang

Results 7 comments of Beici Liang

这节是好几年前写的,当时基于librosa 0.6.1版本(requirements.txt里有版本依赖声明),如果你使用最新版的包,请以最新版本为主。

1. 声源分离这块可以参考[SigSep - Open Resources for Music Source Separation](https://sigsep.github.io/),目前做的最好的应该是audioshake这个公司的不开源方案,其他开源的方案你可以参考链接里的,我很久没看这块进展了所以也不清楚“最好”的是哪个。 2. 这个目前还做不到╮( •́ω•̀ )╭ 3. 音高分布在高频段的旋律型乐器(adsr中的s很长的乐器,比如小提琴)要好于音高分布在低频段的打击型乐器(比如定音鼓)。

谢谢提醒,建立这个repo的时候m1还没诞生,所以适用于x86架构下的配置。 建议你参考[这篇文章](https://kazmer-nagy-betegh.com/post/m1-machine-learning-setup/)里提到的针对m1(arm架构)的初始环境设置,也就是用miniforge替代anaconda来建立虚拟环境,python3.x都可以。

(。・∀・)ノ゙嗨!辛苦你一路追过来😂我对音乐生成的了解并不多,只能解答下第一个问题。 去年Facebook团队有做出过类似工作,他们声称是”风格转换”但更多的重点在于“乐器音色转换”。可以看[视频demo](https://www.youtube.com/watch?v=vdxCqNWTpUs)感受一下,具体细节参考论文Mor, N., Wolf, L., Polyak, A., & Taigman, Y. (2018). A Universal Music Translation Network. [arXiv preprint arXiv:1805.07848](https://arxiv.org/abs/1805.07848)。 关于风格转换的定义,也有许多解释,可以参考Dai, S., Zhang, Z., & Xia, G. (2018). Music style transfer...

你好!你指的评分是指评价音乐有多“好听”么? 目前还没有任何客观评价标准,也就是基于音频特征的quantitative metrics。凡是训练出的模型生成的音乐,都是通过召集志愿者做listening test这样来主观评价的。这样主观评价的具体过程,你可以参考[Google Magenta](https://magenta.tensorflow.org/research)中关于音乐生成的论文。 另外也可以看看这篇[Web Audio Evaluation Tool: A Browser-Based Listening Test Environment](https://qmro.qmul.ac.uk/xmlui/bitstream/handle/123456789/12628/Moffat%20WEB%20AUDIO%20EVALUATION%20TOOL%202015%20Published.pdf?sequence=2)论文中提到的基于网页的工具,周围有同事用这个来评价研发出的音效插件施加在不同音频片段上的效果。

那你可以参考关于预测音频中人们情绪评分的问题是如何被解决的(这里每种情绪可以被量化为(arousal, valence)两个维度上的值)。 可以先看下面这篇综述文章,对你有用的话可以再多看下引用它的其他文章。 > Yang, Yi-Hsuan, and Homer H. Chen. "Machine recognition of music emotion: A review." ACM Transactions on Intelligent Systems and Technology (TIST) 3.3 (2012): 40.

YoungKang你好,MIR领域内的数据增强都是调用通用于音频数据上的库,你可以参考下这个[音乐分类任务教程中关于数据增强的部分](https://music-classification.github.io/tutorial/part3_supervised/data-augmentation.html)。 这里提到的各种库中,[audiomentations](https://github.com/iver56/audiomentations)维护得比较好(作者也是我老公的同事😂),它的README文档中也给出了更多其他可选择的库。 数据增强作为MIR任务的中间步骤,作为一种“工具”就很少有相关的文章发表。增强手段也要根据你自己要做的MIR任务本身进行调整,比如说如果做“声源分离”(source separation),除了常见的变调变速,也可以把不同歌曲的不同音轨进行搭配混合。你要是需要更多参考,还是先找围绕任务本身的文章,再看文章里的数据处理部分,有用到哪些手段。我发过一篇公众号[「INFO」音乐科技相关会议期刊列表](https://mp.weixin.qq.com/s?__biz=MzU5MzY3NzI0OA==&mid=2247483761&idx=1&sn=52b81b9fca161df1afad2a8babad251a&scene=19#wechat_redirect)可以参考。