AIがテキスト記述からつながった曲を生成できるのか?これがGoogleがリリースしたMusicLMの前提条件です。GoogleのI/Oカンファレンスの開始時に公開されました。
MusicLMは様々なスタイルの新しい音楽を作成するために何十万時間ものオーディオ学習をしたモデルで、GoogleのAI Test Kitchenアプリを介してプレビューで利用可能です。私も同僚たちと一緒に遊んでいます。
結論を言うと、MusicLMが音楽家の職業を脅かすようなものではないことがわかりました。
Test KitchenでMusicLMを使用するのはかなり簡単です。アクセスが承認されると、曲の説明を入力できるテキストボックスが表示され、システムが2つのバージョンの曲を生成します。両方ともオフライン再生用にダウンロードできますが、Googleは1つのトラックを「お気に入り」することをお勧めし、AIのパフォーマンスを改善するよう促します。
私が先日この話題をカバーしたときには、MusicLMがリリースされる前で、システムの曲は人間のアーティストが作曲したようなものに聞こえたと書きましたが、必ずしも音楽的に革新的ではないか、緊密に結びついているというわけではありません。今では、それは1年の初めのサンプルから厳選されたものであることが明らかになっているため、私は完全にその言葉を支持していないと言えます。
私がMusicLMで生成したほとんどの曲は、最高にも許容できるレベルで、最悪の場合はDAWの使い方を理解している4歳のようなものでした。私は主にEDMにこだわっており、構造と判別可能で(理想的には)心地よいメロディを持つものを生み出そうとしていました。しかし、MusicLMの曲が始まるとどれだけまともでも、非常に明らかで音楽的に不快な瞬間がやってきます。
たとえば、このサンプルを見てください。「軽快で快活なEDM曲」というプロンプトを使って生成されたもので、約束されたようにDaft Punkの曲にヘッドバンジングしながら始まります。しかし、曲が中盤に近づくにつれて、ずいぶんとコースから外れてしまい、別のジャンルの曲のようになります。
こちらはよりシンプルなプロンプト、「ロマンチックで感動的なピアノ音楽」からのピアノソロです。一部はうまくいっているようです。少なくとも、指の動きに関しては例外的でもあります。しかし、その後、ピアニストが狂気に取りつかれたかのようになり、音符が混乱し、新しい楽譜に沿ったように曲は全く異なる方向に進みます。
私は(もっと基本的な構造を持つ曲の場合、AIがより簡単にできると思って)チップチューンでMusicLMに手を試しました。だめでした。結果(以下参照)は、部分的にはキャッチーですが、他のサンプルと同様に突如終了します。
一方、Jukeboxと比べて、MusicLMの方が多くの面ではるかに優れています。数年前にOpenAIが試みたAI音楽ジェネレーターであるJukeboxは、ジャンル、アーティスト、歌詞のスニペットを与えられると、比較的一貫した音楽を含む歌を生成できたが、Jukeboxによって生成された曲には、コーラスの繰り返しのような典型的な音楽要素が欠けており、意味のない歌詞がしばしば含まれていました。MusicLMで生成された曲には、より少ないアーティファクトが含まれているため、信頼性に関しては一歩前進したと感じられました。
MusicLM
元記事はこちら