月額3万円の最強ChatGPTに「電源で音質が変わるか」と聞いたら意外な展開に という記事に関する感想。ネタバレあり
https://www.phileweb.com/review/column/202412/21/2505.html
これ、最終章以外は手書きかな?(最終章以外を「プロンプト」と称している?)
まあLLMってメタ視点での文章を書くのは意外と得意なので、全文o1が書いた可能性もあるが。
https://www.nta.go.jp/taxes/tetsuzuki/shinsei/annai/gensen/pdf/2024bun_06.pdf
申告書を見たら分かるけど、配偶者控除は、本人の見込み所得額からパターンが3つに別れて面倒だったけど、特定親族特別控除(仮)はそのパターン分岐もなくてシンプルでいいじゃないか、と思ったが違う?
https://x.com/InsHatanCountry/status/1870251485998789005
この仕様をif文で実装するの…?
このモデルが一番ヤバいのは、(主張が本当ならば)フルスクラッチモデルである点じゃない?
v3までの傾向からすれば、v4でもアニメ系イラストモデルを1000万枚オーダーで学習させているのは間違いないだろうけど、それ以外の絵をどれだけ学習させたのかが非常に気になるね。
これまでのStable Diffusionベースのモデルでは50億だかの画像を学習した基盤モデルありきだったが、NAIがv4開発にあたり、その規模の学習をしたとはちょっと考えにくい。となれば、基盤モデルは、もっと少数の画像学習で十分作れてしまう、ということなのか、下手すりゃ基盤モデルすら不要で、アニメ系イラストだけ学習すればOKなのかもしれない。
https://blog.novelai.net/novelai-anime-diffusion-v4-curated-previewのご紹介-2549111172ae?gi=461ae3ae67c9
NAI v4のpreviewが出ていた。
確かに、自然言語やタグ指定がよく効く印象はあるし、キャラの描き分け性能はレベチであるが、その分、品質がイマイチに思う。SMEAが使えないのでsamplerの問題?今後改善するのかなぁ。
あと#付きタグがよくわからんな。source,target,mutualのあとに#任意のdanbooruタグ でいいのかな。具体的にどういうタグに有効なんだろ。source,targetと言われても…なタグしか思いつかない。