Twitterに書いたのだが、
音楽制作のプロセスで生成AIを用いた素材を援用するというのは別にありうる話だが、たとえばOpenAI JukeboxとかGoogleのMusicLMがスマートフォンくらい普及した場合、プロンプトを作品のかわりに発表する、という試みがあってもおかしくないのではないだろうか。
楽譜を自分で演奏する、MIDIシーケンスデータを任意の音源で再生するなどの例を念頭に置くなら、ここでプロンプトと出力結果が必ずしも厳密に対応しているというか、再現性があるかどうかは問わなくてもよく、プロンプト自体を作品にすることも可能なのではないか。
どんなに生成AIが音楽を変えるっつったって、それが結局ステレオ2chのオーディオファイルに収まる程度の話だったらたいしたことないじゃん、くらいの気持ちでいたい。
なんなら、どのAIモデルを使おうが、このプロンプトから派生したのならひとつの現実化として許容する、でもありだよ。