中新网上海新闻9月12日电(郑莹莹)MiniMax于12日正式发布新一代音乐生成模型Music 1.5,在音乐生成时长、控制精度、编曲表现等多个维度实现显著提升,开启“一人即乐队”的新体验。

——四大技术突破
相较于前一代产品,MiniMax Music 1.5 针对当前AI音乐生成领域的痛点,在技术层面实现了四大核心突破。
首先是歌曲强控制力的提升。Music 1.5支持长达4分钟的音乐创作,出品即成品,不再仅是demo小样。简单模式下,用户仅需几个关键词或一句自然语言描述,Music 1.5即能交付高完成度歌曲作品。在高级模式下,Music 1.5通过“16种风格×11种情绪×10个场景”自定义音乐特征,对歌曲的前奏(Intro)、主歌(Verse)、副歌(Chorus)等不同段落歌词进行编排,丰富用户创作体验。
例如,用户输入“温柔女声嘻哈唱首流行歌曲”简单描述,一首AI填词作曲的女声作品《甜甜圈》便得以呈现;输入一首创作好的完整歌词,选中“爵士、浪漫、深夜酒吧”,一首动听的《回眸》即可创作。
其次是人声自然饱满的表现。模型对人声唱腔发音技巧进行深度建模,可以生成不同声线、唱腔的音色。这一技术突破解决了此前AI生成音乐中人声机械化、缺乏情感表达的问题。
第三是乐器层次丰富的编曲能力。模型对乐器进行细粒度建模,使得编曲丰富、乐器层次清晰、演奏技巧富于变化。特别值得一提的是,Music 1.5还支持一些中国民族乐器的生成,这为传统文化与现代AI技术的结合提供了新的可能性。
最后是歌曲结构清晰的完整性。好的结构能让一首歌的情感表达层层递进。过往的音乐模型,段落与段落之间的界限往往不明显。Music 1.5实现了Intro/Verse/Chorus段落间的明显区别,带来“叙事级”听觉体验。
——背后的多模态积累
Music 1.5的技术突破基于MiniMax在文本、语音、视觉等多模态领域的自研能力积累。除了语音生成模型Speech 2.5,今年6月,该公司在全球发布视频生成模型Hailuo 02。
据介绍,通过利用文本模型的能力,Music 1.5对文本描述有更强的理解力和控制力,不仅可对歌曲风格、情感色彩和适用场景进行整体控制,也可对人声特征进行细粒度控制,生成不同声线特质的人声音色。
MiniMax Music 1.5的发布为多个行业带来了新的机遇,其易用性也使得突破音乐创作的专业门槛,普通用户亦可“只是为此刻的心情写一首歌”。这种创作门槛的降低,有望激发更多人的音乐创作热情。
MiniMax Music 1.5不仅面向C端用户,还同步面向全球开发者提供API接口。MiniMax希望助力更多开发者轻松接入AI音乐生成能力,构建其应用、工具或创作工作流。(完)
注:请在转载文章内容时务必注明出处!
编辑:王丹沁