腾讯多媒体实验室发布自研 AI 作曲框架 XMusic

感谢IT之家网友提供鲫鱼和雪狐的线索!

IT之家7月7日报道,在近日举行的2023世界人工智能大会上,腾讯多媒体实验室展示了自主研发的AI通用构图框架。

▲ 图片来源世界人工智能大会官网

根据腾讯官方的说法,该作曲框架适用于视频剪辑配乐、超市场馆氛围音乐的选择以及互动娱乐、辅助创作、音乐教育、互动娱乐、音乐治疗等诸多场景。

被称为个人“行走的音乐库”,用户可以通过图片、文字、视频甚至哼唱来生成相应的音乐。 例如,输入“搞笑、让人发笑”的描述,就会生成一段节奏俏皮、旋律欢快的音乐。

_景德镇美研室作品价值_性研室电影

腾讯还展示了另一种使用场景:音乐课老师可以利用生成的各种节拍、节奏、音高练习曲目,结合实际教学场景,发挥AI生成音乐的辅助教学能力。

IT之家从腾讯获悉,该作曲框架基于自研的多模态和序列建模技术,可以将提示词的内容解析到符号音乐元素的空间中,并以此作为控制条件指导模型生成丰富、准确、优美的音乐可以“满足商业级音乐生成能力要求”。

广告声明:文章中包含的外部跳转链接(包括但不限于超链接、二维码、密码等)用于传达更多信息,节省选择时间。 结果仅供参考。 IT之家的所有文章均包含此声明。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。

您可能还会对下面的文章感兴趣: