谷歌的作曲人工智能也许在短时间内还无法达不到莫扎特和李斯特的水平,但它最近已经取得了长足的进步。本周,一个谷歌旗下旨在“探索机器学习作为创作工具所能发挥的作用” 的AI项目,展示了其最新研发的Music Transformer模型。这个机器学习模型能够生成相对连贯且带有一定重复性特征的曲调。
图片来自网络
“这个基于self-attention(自我注意)的模型在一些谱曲任务中创作出了非常优秀的作品。”研究者在相关论文中写道。“这意味着self-attention技术也很适合用于作曲。”正如研发团队解释的那样,受制于复杂的结构,创作长篇音乐对AI来说一直是项挑战;大多数歌曲包含有多种乐理、乐句以及重复性技巧的应用,而神经网络并不擅长于此。
而基于self-attention神经网络的Music Transformer可能会是解决这一难题的方案。借助事件驱动描述和被称作relative attention(关联注意力)的技术,Music Transformer不仅能更加专注于相关联的特性,还可以处理较长的训练样本。并且不吃内存的特点使它可以创作更长的音乐段落。
在测试中,Music Transformer创作出了一首风格前后一致的歌曲。作为对比,此前的两种算法Performance RNN和Transformer的作品要么完全没有可辨别的音乐结构,要么无法生成可持续的音乐结构。研发团队认为Music Transformer还远称不上完美,有时它会创作出带有太多重复旋律或者奇怪节拍,但该团队还是希望它能为音乐家带来创作灵感。