音楽と生成型AIの現在地「AIが音楽を変える日」連載第2回

コラム AIが音楽を変える日

AISIS - The Lost Tapes / Vol.1 (In Style of Oasis / Liam Gallagher - AI Mixtape/Album)

90年代に青春を過ごしたロック好きにとって、イギリスのバンド、オアシスの解散劇は痛恨だったろう。人びとはいつギャラガー兄弟が和解してくれるのかと、心待ちにしたが「もう待ちきれない」とAIでオアシスの新アルバムを作ってしまったバンドが、今年4月に現れた。奇しくもフェイク・ドレイクやグライムスAI(前回)が誕生した月だ。

バンドの名はBreezer、アルバムは「ロスト・テープ」という。「90年代半ばにオアシスが作ったデモ・テープがみつかった」という設定だ。執筆現在、ユーチューブで50万再生。コメント欄を見ると賛否両論というより絶賛だ。メンバーは、「オアシスの未公開アルバムだよ」と言って友人に聴かせたら信じ込ませることが出来たそうだ。私も4曲目の「Forever」を同じ口上で聴いていたら、そう信じてしまっただろう。

当のリアム・ギャラガーも「世に出てる他の曲より断然いい」とツイッターで褒めている。しばらく聴くとAI特有の機械的な歌い方に気づくのだが、リアムの鼻にかかったような声質が楽器としても魅力的で、ちゃんと成立している。ユーチューブで「AISIS」と検索すればすぐ聴ける。

前回に紹介したグライムスのAIは、じぶんの声をアーティストの声質に「変換する」タイプだったが、このAISISは初音ミクのようにAIに「歌わせる」タイプのようだ。どちらも歌声を生成する、生成型AIの一種である。

前者は生身の人間が歌う分、自然になる。歌い方を真似すれば相当、本人に似せられる。後者は、発声の始めはかなり歌い方を捉えているが、長い音符だと機械的な単調さが出てくる。ただ今後、ビブラートやこぶしの付け方までAIが学習しないという確証はない。

そこまで行けば歌唱AIは楽器のひとつとして認識されるようになるだろう。人間にとって声ほど魅力的な楽器はない。

著作権的には声質は保護の対象外のようだ。フェイク・ドレイクの楽曲をユニバーサル・ミュージックが音楽配信から削除できたのはザ・ウィークエンドの名前を曲名に使っていたからではないか。AISISの場合、動画の概要欄以外にオアシスの名は出てこない。リアム自身も「俺の声って最高だよな」とAISISを褒めているので何も起こらなそうだ。

いずれ声質も、著作権やその隣接権の対象と法に明記される気はする。そうなれば声を使いたいミュージシャンだけでなく、歌手の方もペインよりゲインの方が多くなりそうだ。歌唱AIを使った楽曲から歌唱印税が入るようになるし、有害な内容に声を使用されれば削除を執行できるようになる。

生成型AIではフェイク問題が取り沙汰されるが、音楽では取越苦労かもしれない。基本的に、音楽配信で該当アーティストのページに載ってなければオリジナルではないとファンもすぐ分かる。

音楽出版やレーベルも、アーティストとの契約次第で新しい収入源にできる。グライムスAIのようにコンテストを開くなどすれば、プロモーションにも活用できる。超人気DJのマシュメロはメジャーな曲を無許可でリミックスして音声共有に投稿し、その圧倒的な品質からデビューを決めたが、歌唱AIは新しい才能を発掘する登竜門にもなりそうだ。

月額方式で販売することもできそうだが、AIは原理的に誰の声でも学べるので野良AIを完全に排除できないだろう。他の声を微妙に合成してしまえば訴えるのもむずかしそうだ。

だから公式のアーティストAIは、チャットボット、ダンスAIなどを組み合わせて総合力で勝負することになるのではないか。AIが歌唱法まで再現できるようになるのなら、原理的には楽器演奏も可能なので、バンドのAIという形も出てくるかもしれない。

ここまでは「楽器としてのAIはもう実用化の段階に入りつつある」という話題だった。だが、「音楽とAI」と聞いたらほとんどの人は、画像生成のように楽曲自体を生成できるAIを想像するだろう。

現状、AIが生成できる楽曲の品質はどれほどか、すぐ体感できる便利なサイトをA・デフォッセというメタ社の科学者が公開している。

例えば「ギターソロの入った古典的なレゲエ」「生命と宇宙の有限に畏敬の念を抱かせる、バイオリンとシンセを使った曲」という指示を各社の生成型AIに入力して、それぞれどんな曲を生成できるか、比較できるサイトだ。

ここでAIの生成した曲を一通り聴くと現状が分かる。電子楽器のみのダンスミュージックはかなり自然に生成できて、動画や簡単なCM、インディー・ゲームのBGMぐらいなら問題なさそうだ。だが、生楽器が入ると途端に破綻する。クラシック音楽のようなジャンルは壊滅的だ。ボーカルも生楽器に等しいのでポップスも当然、厳しい。

しかし、文字による指示とは別の方式を使えば、ボーカル入りでも品質を上げることは可能だ。その例で少し話題になった曲がある。ブリトニー・スピアーズの「トクシック」の歌詞で50年代風のジャズソングを生成して、亡きフランク・シナトラに歌わせた楽曲だ。ユーチューブで「Sinatra Toxic」と検索すると出てくる。一応、楽曲にはなっているのだが「嫌いだ」という風なコメントが殺到している。彼らが意地悪で言っていないことは聴けばすぐ分かる。

ただこの場合、「一応、楽曲にはなっている」ことが重要だ。つまりAIが大量の楽曲を学習すれば大幅に改善される可能性がある。

というのも欧米では著作権のある楽曲は、たとえ研究目的であっても権利者の許可無しに学習させてはならない。だから先のメタ社のMusicGenも2万時間しか学習していない。1曲3分半とすれば、34万曲分だ。Apple Musicで聴ける1億曲と比べてどれほど少ないか。

しかし、この1億曲をAIに学習させても法的に許される国がある。日本だ。それは脱法ではない(著作権法47条の7)。ミュージシャンを脅かすような楽曲生成AIは、この国から生まれるかもしれないし、出来上がってみれば人によるチューニングが毎回、必須かもしれない。先のシナトラ風トクシックは一週間以上、人が張り付きで調整を繰り返した。

はっきりしているのは、技術の進歩は一方通行ということだ。それを押し止めることが不可能なら、諸刃の剣を使いこなす他ない。これまでそうであったように。

※「AIが音楽を変える日」は現在「新潮」(本日9月7日に最新号発売)にて連載中。Musicmanでは1月遅れで同連載を掲載していきます。

『新潮』2023年10月号(新潮社)

著者プロフィール

榎本幹朗(えのもと・みきろう)

1974年東京生。作家・音楽産業を専門とするコンサルタント。上智大学に在学中から仕事を始め、草創期のライヴ・ストリーミング番組のディレクターとなる。ぴあに転職後、音楽配信の専門家として独立。2017年まで京都精華大学講師。寄稿先はWIRED、文藝春秋、週刊ダイヤモンド、プレジデントなど。朝日新聞、ブルームバーグに取材協力。NHK、テレビ朝日、日本テレビにゲスト出演。現在『新潮』にて「AIが音楽を変える日」を連載中。

関連タグ