https://x.com/InsHatanCountry/status/1870251485998789005
この仕様をif文で実装するの…?
このモデルが一番ヤバいのは、(主張が本当ならば)フルスクラッチモデルである点じゃない?
v3までの傾向からすれば、v4でもアニメ系イラストモデルを1000万枚オーダーで学習させているのは間違いないだろうけど、それ以外の絵をどれだけ学習させたのかが非常に気になるね。
これまでのStable Diffusionベースのモデルでは50億だかの画像を学習した基盤モデルありきだったが、NAIがv4開発にあたり、その規模の学習をしたとはちょっと考えにくい。となれば、基盤モデルは、もっと少数の画像学習で十分作れてしまう、ということなのか、下手すりゃ基盤モデルすら不要で、アニメ系イラストだけ学習すればOKなのかもしれない。
https://blog.novelai.net/novelai-anime-diffusion-v4-curated-previewのご紹介-2549111172ae?gi=461ae3ae67c9
NAI v4のpreviewが出ていた。
確かに、自然言語やタグ指定がよく効く印象はあるし、キャラの描き分け性能はレベチであるが、その分、品質がイマイチに思う。SMEAが使えないのでsamplerの問題?今後改善するのかなぁ。
あと#付きタグがよくわからんな。source,target,mutualのあとに#任意のdanbooruタグ でいいのかな。具体的にどういうタグに有効なんだろ。source,targetと言われても…なタグしか思いつかない。
https://x.com/kis/status/1870225880582369696
https://x.com/kis/status/1870298491941204200
こういうことをちゃんと指摘できる人が少なすぎて、X見てるとしんどいんだよ最近。
推論時間スケーリング則は、無限の猿定理と等価なのでは、という仮説を立てたくなってきた。
https://x.com/goodside/status/1870243391814152544
ちょっと笑ってしまったんだが、確かにo1発表間隔を数日で刻むことで、こういうグラフが描けるわけだな。
これをOpenAIが出してたらさすがに笑えないけど、そうじゃないからまだ良かった。でも「短期間で著明に進化した」という演出意図は間違いなくあったのだろうし、このグラフはそれを気づかせてくれた。