次に、XはXにポストされた画像データを学習して「イラスト専用モデル」とか、「ある特定作者の画風を再現するイラスト専用モデル」とかは作らないだろうけども、「イラストも出力可能な汎用画像モデル」(つまり、基盤モデル)を作る可能性は十分ある、という視点が抜けてる。
その学習においては、絵師アカウントの画像は学習される。というより、意図的に除外しない限りは、分け隔て無くすべての画像が学習されると考えた方がいいと思う。大規模学習ってそういうもんだし。
AI学習に対して反発している絵師は、自分の画風の絵が出力されるモデルが作られることを嫌がってるだけではない。自分の画風とは異なる絵であっても、「自分の絵がAIモデル学習に使われて、そのAIを用いた絵が生成されること」を嫌がってる。
(AI推進派ほど、なぜ絵師がこのことを嫌がってるのか理解してなさそうなのが厳しい)
そういやふと思い出したんだが、AI Picassoが出してるEmi 2というモデルが、SDXLという基盤モデルに対し、Twitterやpixivに上げられたイラストデータにdanbooru互換のアノテーションを(多分taggerというAIを使って)付けて、「追加学習において(danbooruなどの)無断転載画像を学習してません」とクリーンさを謳って商用利用可のライセンスでモデルを無償配布したという事象があったな。
このことからも、Xにポストされたイラストデータを学習させたイラストモデルを作ることは技術的には可能なのが明らかだと思うんだがな。忘れられてるのかもしれん。