@BLUE_PANOPTICON ファインチューニングっていわゆるビッグデータみたいな規模のデータ量は要らないんですよね。それでもいまのところは数百みたいな単位はないとだめな気もしますが、今後少ないデータ量でなんとかなるようなファインチューニング側の仕組みも出てくると思うので、いっぱい作って売る、よりもいっぱい食わせて使わせる、の方が効率的になる局面に入るのでは、と予想しています。
@BLUE_PANOPTICON ニッチ度が高ければ高いほどファインチューニングに食わせることの利益とコストが見合わなくなるのは間違いないです。ただ相対的にどんどんそういう書き手・作り手に依頼するコストが上がる、ということでもあるので仕事のとり方が難しくなる可能性はありますね。希少化してそっちの価値が高まるともいえそうですが、その辺は払い手がどう考えるかですね。
ちなみにですが、汎用型AIに時雨の歌詞を食わせてタイトルから時雨の歌詞を吐き出させる、みたいな実験をまとめた記事を見つけましたのでご参考まで。
https://www.bedroomcomputing.com/2022/06/2022-0613-ai-shigure/#学習無し
@kobayashihawtin 確かにゼロから学習させてって訳じゃないですからね。ただ扱う領域のニッチ度が高すぎると書き手の傾向に最適化するだけではやや限界がある気はします。例えば無名作家をそのアウトプットの質の高さから取り上げる場合だとか。