https://news.denfaminicogamer.jp/kikakuthetower/241219j
>AIは「琥珀色の液体といえば酒」というような、「言外の意味」を理解することが難しいのである。
>「グラスの中に油が入っているかも」「天ぷら屋の鍋に蜂蜜が入っているかも」という可能性を、人間のように自然に排除することができない。
いやいや、LLMにとって一番得意な分野じゃん。むしろ、油や蜂蜜という回答を出せないのが弱点なのであって。
全体的に、生成AIのことを微妙に理解してない感じの主張なのが気になるなあ。
例えば、
>これらの要素をAIの目線で見たとき、情報量が多いのは「絵>音>文」の順となる。一般的な画像ファイル、音楽ファイル、テキストファイルの容量を考えてもらうと分かりやすいだろう。
これはどういう意味?ファイル容量とAIの理解する情報量(が何かも正直良くは分からないが)に全く関係はないでしょ?
>長編のRPGやアドベンチャーゲームのように大量の情報の繋がりを処理する必要のある作品においては、現代のAIではまだまだ再現することは難しい
本当にそうかなぁ。そりゃ、「長編のRPG作って」というプロンプトで一発で完成するAIはまだ現代にはないけど、ちゃんとプロンプトを細かく与えて、タスクを細分化し、AIに無理な部分は人間が補完していけば、結構、再現も見えてる状況にあると思うんだよな。
ナラティブが無いというのは確かにそうで、AIの作る物語は性質上、「それっぽい」だけで面白くないし、ストーリーに論理性も特にない(それっぽい話だから、たまたま辻褄が合って論理性があるように見えるだけ)。だったら、ナラティブは人間が注入すればいいだけなのでは。具体的には、プロットを入れて、このプロットを膨らませてシナリオを作れ、というプロンプトを最初に実行する。
生成AIで長編のRPGが作られていないのは、AIにその能力がないからというより、まだ人類にAIを使って長編RPGを作る能力がないだけなんじゃないかな。生成AIを利用するツールもまだまだ少ないし、生成AI生成物を作品に組み込むことの社会的合意もまだ怪しいし、その辺含めて、人類の能力不足を感じる。
>AIはあらゆるデータを高速で学習することができるが、そこに判断を下すのはあくまで人間だ。ある入力に対してAIが出した出力が合っているかどうかを人間が”教育”してやらなければ、AIはデータを正しく扱うことができない。「文」はAIが得られるデータの量に対して1回の判断にかかる時間が長いため、「絵」よりも”教育”が遥かに困難なのだ。
これも前半部分はおそらく、SFTやRLHFの話だと思うんだけど、後半がわからん。「判断にかかる時間」とは具体的に何だろう。