https://x.com/solla_ga/status/1856687100374216978
https://x.com/solla_ga/status/1856688715923616161
https://x.com/solla_ga/status/1856690251223445556
この方の画像生成AIに対する認識、大分甘めな気がした。
Xがわざわざイラスト専用モデルを作ったりはしないだろう、という前提は正しいと思うが、わざわざ作らないだけで、作ろうと思えば作れるだろう。
まず、こういう二次元イラストのアノテーション、今はもう基本的にAIがやってますよね。1boy,hat,black hair,black eyes,holding cup,simple backgroundみたいなのは秒で出力できる。そこに、アカウント名と(存在するなら)キャラ名をアノテーションに手動で追加したら、もう立派なデータセットになる。「描いた本人だけがラベリングできる」ということはない。誰でも、AIでもできる。
何千枚もの色んな角度の画像を、一つのアカウントによる画像データで賄う必要も全くなく、すべてのアカウントのすべてのイラスト、というかXの外にあるデータをも学習対象にして、「絵の角度」という概念をモデルが学習すれば良い。
なので、1アカウントから数十枚程度の画像を学習すれば、十分にその画風やキャラを再現できる。そういう画像AI、既にあるじゃないですか…。
そういやふと思い出したんだが、AI Picassoが出してるEmi 2というモデルが、SDXLという基盤モデルに対し、Twitterやpixivに上げられたイラストデータにdanbooru互換のアノテーションを(多分taggerというAIを使って)付けて、「追加学習において(danbooruなどの)無断転載画像を学習してません」とクリーンさを謳って商用利用可のライセンスでモデルを無償配布したという事象があったな。
このことからも、Xにポストされたイラストデータを学習させたイラストモデルを作ることは技術的には可能なのが明らかだと思うんだがな。忘れられてるのかもしれん。