如何使用Facebook的MusicGen将文本转换成音乐?

译文
人工智能
这篇实用指南介绍了借助人工智能创作音乐的方法。

译者 | 布加迪

审校 | 重楼

MusicGen允许任何人只需借助文本提示即可生成原创音乐。指南逐步介绍如何使用这种创造性的AI模型来改进音乐工作流程。

在创作新歌时,是否遇到过创作障碍或者想要一个AI助手来帮助构思新的旋律和和声FacebookMusicGen模型让音乐创意和试验变得快捷又容易。

不妨一下:

  • MusicGen从文本生成音乐的能力
  • 通过Replicate的API使用MusicGen逐步说明
  • 借助AIModels.fyi找到相似的音乐作曲模型。

挖掘下MusicGen如何为音乐家、作曲家和任何想要创作独特的成品音乐的人发掘新的创作可能性。

借助文本提示生成原音乐

MusicGen允许您只需通过文本描述情绪、流派、乐器等要素来构思音乐创意。下面几个创造性的方法,可以利用文本生成音乐:

  • 克服创作障碍——您思路卡住的时候,根据文字描述想出新的旋律或和声的想法。
  • 实验和迭代——通过调整文本提示轻松尝试各种变化。
  • 探索新的流派——创作自己不太熟悉的音乐风格。
  • 制作背景音乐——为视频、播游戏等制作自定义背景音乐。
  • 混音旋律——用现有的旋律来调教模型,以生成不一样的旋律

MusicGen提供长达8秒的生产剪辑,可以选择.mp3.wav格式样品可以用作鼓舞人心的素材或直接添加到作品中

MusicGen模型介绍

MusicGenFacebook的AI研究团队于2023年创建的。这是一自动回归的Transformer模型拿授权的音乐数据进行训练

该模型可以生成4个平行的旋律流,代表不同的音乐元素,比如低音、鼓、和声等。这种结构使它能够生成流派和风格各异的音乐上连贯的作品

MusicGen提供了几种不同大小模型Replicate上使用的基本模型是“Melody”(旋律它针对文本生成为音频进行了优化。还有一个更大的模型针对旋律延续进行了优化

您可以在Facebook Research论文项目GitHub页面上了解更多关于模型架构的细节。

模型的局限性

与所有AI模型一样,MusicGen也存在一些局限性:

  • MusicGen的输出受提供的提示和旋律的影响。创造性的输入可以大地影响生成作品的质量和独特性。
  • 模型的训练数据影响其音乐风格和输出。它可能无法完美地复制每一种音乐流派或风格。
  • MusicGen生成的音乐可能需要后处理才能达到所需的那种完善程度

了解这些局限性将帮助您在保持期望或客户的期望)合理的同时充分利用MusicGen。

了解MusicGen的输入和输出

输入

  • model_version选择要生成的模型版本(比如“melody”、“large”、“encode-decode”)
  • prompt:提供您想要生成的音乐的描述。
  • input_audio通过提供音频文件影响生成的音乐。
  • duration指定生成音频的时长。
  • continuation:生成的音乐是否应该延续输入音频的旋律。
  • 其他参数(比如top_k、top_p、temperature允许您对输出进行微调。

输出

输出模式是一个字符串,表示指向生成的音频文件的URI。

使用MusicGen模型的逐步指南

在本节中,我们将详细地逐步介绍如何有效地使用MusicGen模型生成音乐作品。每个步骤都附有特定的代码片段,并解释了当前发生的事情。

第1安装Node.js客户软件

首先,需要安装用于Replicate的Node.js客户软件。该客户软件将使您能够与Replicate API进行交互并运行MusicGen模型。

npm install replicate

个命令安装名为“replicate”的必要的Node.js软件包。

第2设置API令牌

在访问Replicate API之前,需要将API令牌设置为环境变量。这个令牌将验证您对API的请求。

export REPLICATE_API_TOKEN=your_api_token

your_api_token换实际的Replicate API令牌。

第3运行模型并生成音乐

现在,不妨运行MusicGen模型,根据指定的输入生成音乐作品。我们将使用Node.js客户软件发出API请求。

import Replicate from "replicate";

// Create a Replicate client instance
const replicate = new Replicate({
 auth: process.env.REPLICATE_API_TOKEN,
});

// Define input parameters for the model
const modelVersion = "melody";
const prompt = "Expressive piano melody";
const duration = 10; // Duration of the generated audio in seconds

// Run the MusicGen model
const output = await replicate.run(
 "facebookresearch/musicgen:7a76a8258b23fae65c5a22debb8841d1d7e816b75c2f24218cd2bd8573787906",
 {
 input: {
 model_version: modelVersion,
 prompt: prompt,
 duration: duration,
 // Other input parameters here
 },
 }
);

console.log("Generated audio URI:", output);

这个代码片段中

  • 我们从安装的Node.js软件包中导入Replicate类。
  • 我们使用API令牌创建了Replicate客户软件的实例。
  • 我们为音乐创作定义了modelVersion、prompt和duration
  • 我们使用replication .run()方法运行带指定输入的MusicGen模型。
  • 生成的音频URI被记录到控制台。

第4:浏览已生成音频

运行模型后,您将收到一个指向生成的音乐作品的音频URI。您可以使用这个URI访问和浏览生成的音频。

就是这样至此,您已经成功地利用MusicGen模型基于输入创建了一个音乐作品。

结论

恭喜您已经成功地完成了使用MusicGen模型进行音乐创作的步指南。如果遵循这些步骤您可以利用AI强大功能来生成独特而有创意的音乐作品。在您继续探究AI驱动的音乐世界时,请不要犹豫,尝试不同的输入和参数,以探索广泛的音乐可能性。如果您有任何问题或需要进一步的帮助,随时联系,或参阅本指南中提到的资源。祝使用AI快乐地创作音乐!

原文标题:How to turn text into music with Facebook's MusicGen,作者:Mike Young

责任编辑:华轩 来源: 51CTO
相关推荐

2023-11-09 09:00:00

OpenAI人工智能Whisper

2019-09-06 08:00:00

开源技术 语音

2021-03-15 08:00:00

音频框架数据

2023-10-17 08:00:00

人工智能ColabMusicGen

2021-08-31 09:12:18

StringIntLong

2023-08-29 09:00:00

人工智能img2prompt

2011-02-25 10:22:03

ibmdwXMLDB2

2011-12-09 21:13:29

iOS

2021-07-14 14:50:08

LinuxASCII图片

2021-06-07 17:30:23

LinuxASCII图片转换

2017-06-06 13:10:25

Windows 10Windows音乐格式转换成

2022-07-19 10:53:57

模型算法智能

2022-10-12 09:55:14

xls文件xlsx文件

2023-12-11 09:00:00

人工智能3D模型

2011-08-02 10:08:32

IOS开发 XML

2011-08-02 09:46:04

iOS开发 XML

2017-08-10 14:15:31

Windows10Windows文件转换

2020-11-14 16:04:17

前端.md文件html文件

2011-03-22 14:57:52

Oracle数据库普通表分区表

2010-03-23 10:29:28

Python程序编译转
点赞
收藏

51CTO技术栈公众号