新しいものを表示

もっというと、特定親族特別控除(仮)は、居住者(本人)の合計所得金額による控除額変動はないみたいだから、配偶者控除の計算よりシンプルじゃない?
「複合条件」ってどういう意味かしら

スレッドを表示

ちょっと試してたら、artistタグ普通に効いてた。効き方がv3時代よりピーキーで、制御が難しいだけみたい。

スレッドを表示

仮に、NAI v4が、実写画像の学習を一切行っていない、"ピュア"なイラストモデルだったとしたら。
このモデルは完全に、イラストだけからイラストの特徴を学習したモデルとなる。このモデルで生成した絵には創作性がある、とそれでも言えるだろうかな。自然の風景も、生身の人間も見たことのない奴が「創作」だと?

スレッドを表示

というのも、NAI v3とかillustriousとかは、SDXLベースモデルと言いつつ、SDXL時代の知識を殆ど忘却してしまっているし、だったら最初から要らない知識だったのでは…という疑いがあった。

スレッドを表示

「アニメ系イラストモデルを作るには、アニメ系イラストだけ学習させれば十分説」は、実は以前からちょっとそんな気はしてたんだよな。実写画像とかの学習は余計なだけなんじゃ、というね。

danbooruタグだけじゃなくて、自然言語でのキャプションの学習も十分に行えば、キャプション付き実写画像でトレーニングする必要性は実はそんなに無いんじゃないか、と。

スレッドを表示

このモデルが一番ヤバいのは、(主張が本当ならば)フルスクラッチモデルである点じゃない?

v3までの傾向からすれば、v4でもアニメ系イラストモデルを1000万枚オーダーで学習させているのは間違いないだろうけど、それ以外の絵をどれだけ学習させたのかが非常に気になるね。

これまでのStable Diffusionベースのモデルでは50億だかの画像を学習した基盤モデルありきだったが、NAIがv4開発にあたり、その規模の学習をしたとはちょっと考えにくい。となれば、基盤モデルは、もっと少数の画像学習で十分作れてしまう、ということなのか、下手すりゃ基盤モデルすら不要で、アニメ系イラストだけ学習すればOKなのかもしれない。

スレッドを表示

curatedとfullの関係、NAI v1のときと全く同じっぽいな。先にSFW絵だけで学習させたcuratedモデルを作り、NSFW絵を追加学習させてfullモデルを作るやり方。

SFW絵を出したい場合でも、fullモデルの方が純粋に学習量が上な分、品質も上なので、curatedモデルの使い道はあんまり無い、というのも同じじゃないかな。

スレッドを表示

5chスレ見てたんだけど、今のcuratedモデルはNSFW絵の出力を禁止してるというより、NSFW絵の学習自体してないから、純粋に学習データ不足のため、artistタグが効かないし、品質も高くないという考察があった。それならば、かなり納得できる。

スレッドを表示

もうちょっと使い込んだら見えてくるかもしれないが、画風に自由が効かない分、使ってても楽しくないのでモチベが…
あと、今はサブスク入ってないからな。本格的に弄るのは、full版が来てからでいいかも。

スレッドを表示

タグ指定や自然言語がよく効くから何なんだ、という気持ちになってきた。ガチャの手間とか、ControlNetの参照絵の用意が省けるだけじゃないのか。

スレッドを表示

あと、danbooruのartist(作者)タグは効かないぽい?character(キャラ)とcopyright(作品)タグは依然として効くが、ついに画風指定は禁止ですかね。

artist:ainiwafflesとやれば、特定画風を指定できるみたいだけど、つまりはartist:で指定できる画風の学習をオプトインで行った感じ?

まあ世の趨勢から言って妥当か。とはいえ、画風が限定されるのは全く面白みがないな。画風キメラもこれじゃできそうにないし。ponyのように画風を匿名化する手もあったと思うんだが。

スレッドを表示

blog.novelai.net/novelai-anime
NAI v4のpreviewが出ていた。
確かに、自然言語やタグ指定がよく効く印象はあるし、キャラの描き分け性能はレベチであるが、その分、品質がイマイチに思う。SMEAが使えないのでsamplerの問題?今後改善するのかなぁ。

あと。source,target,mutualのあとに でいいのかな。具体的にどういうタグに有効なんだろ。source,targetと言われても…なタグしか思いつかない。

推論時間スケーリング則も、無限の猿定理も、「正解を出す確率が低い関数も、試行回数を増やせば確率が上がり、その極限を取れば正解に到達する」という主張なので、全く同じ概念なんじゃないのか?

スレッドを表示

推論時間スケーリング則は、無限の猿定理と等価なのでは、という仮説を立てたくなってきた。

このグラフをジョークとして受け取ってる人が居なさそうなのを見るに、OpenAIはやっぱり食えない企業だなぁと思ったりもする。みんな、術中にハマッとるね。こんなに演出がうまいエンターテナー、悪く言えばペテン師な企業は滅多にない。

スレッドを表示

x.com/goodside/status/18702433
ちょっと笑ってしまったんだが、確かにo1発表間隔を数日で刻むことで、こういうグラフが描けるわけだな。

これをOpenAIが出してたらさすがに笑えないけど、そうじゃないからまだ良かった。でも「短期間で著明に進化した」という演出意図は間違いなくあったのだろうし、このグラフはそれを気づかせてくれた。

スレッドを表示

LLMの推論時間延ばすだけでAGIを達成するのは無理そうなのが分かってきたことだし、そろそろAIに外部から論理を組み込む方針に切り替えていってほしいねえ。外部から論理を入れたらもう、AIとは言えない、みたいな拘りがやっぱりあるのかなぁ。

古いものを表示
Fedibird

様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。