进入音乐行业的主要障碍是制作成本。即使艺术家筹集了资金,找到满足他们需求的音乐制作人和工作室也可能极具挑战性。那么,如果你能告诉你的电脑做出你想象的节拍呢?使用谷歌的MusicLM模型,从文本生成音乐可能成为现实。
上周,谷歌发表了一篇学术论文,讨论了其MusicLM生成AI模型,该模型根据用户的文本提示制作音乐。该模型可以制作从10秒音频剪辑到完整歌曲的任何地方,使用您提供的尽可能多的具体细节。它还可以采用现有的歌曲并用不同的声音制作它。
另外:人工智能引起了科技行业研发的复兴,Meta的首席人工智能科学家说
根据该论文,AI模型的提示可以包括详细的命令,例如“迷人的爵士歌曲,令人难忘的萨克斯独奏和独奏歌手”或“柏林90年代的techno,低低音和强劲的踢”。要查看其所有不同提示和功能的示例,可以单击此处。
人工智能写作工具可以通过撰写电子邮件和论文甚至做数学来帮助减轻您的工作量。他们使用人工智能根据用户输入生成文本或回答查询。ChatGPT是一个流行的例子,但还有其他值得注意的AI作家。
这不是谷歌或业界对人工智能歌曲系统的首次尝试。OpenAI是ChatGPT和DALL-E背后的AI研究公司,拥有自己的版本JukeBox,尚未向公众发布。Riffusion是一种使用声音图像产生音乐的神经网络,现在已经向公众开放。
但根据谷歌的说法,它的新系统比以前所做的任何事情都要好:“我们的实验通过定量指标和人工评估表明,MusicLM在质量和对字幕的遵守方面都优于Mubert和Riffusion等以前的系统。
那么,我们什么时候才能使用这种“比任何东西都好”的人工智能模型呢?不幸的是,答案是不会很快。
在论文中,谷歌认识到这些模型可能会对盗用创意内容和培训中存在的固有偏见构成风险,这些偏见可能会影响培训中代表性不足的文化,以及对文化挪用的担忧。出于所有这些原因,谷歌表示目前没有发布模型的计划。
最近,我们已经看到了构成谷歌描述的风险的人工智能模型。随着人工智能生成的艺术模型的发布,例如Lensa的AI时间机器,艺术家们一直在谈论他们的艺术被AI艺术模型在没有信用或补偿的情况下窃取。
与此同时,据报道,对ChatGPT等人工智能工具的突然兴趣促使谷歌考虑更快地推出基于人工智能的产品。