新しいものを表示

ひぐらしは「ゲームのマルチエンディング」をテーマにしたメタ作品なので、さらに例外かもしらん。

スレッドを表示

ひぐらしの場合は元々、大元がゲームだし、マルチエンディングが許容される世界観である、というところが効いてるので、やっぱ例外か。

スレッドを表示

コミカライズ作家が、原作を好きになれずに、自分に課せられた、作品の作者としての責務との狭間で葛藤する現象というのは、普遍性があるのかもしれんなぁ。

ひぐらしのなく頃に業・卒でも、原作(アニメ)がアレだったから、コミカライズ版では何と原作ストーリー(どころかタイトルすら)を改変してしまった。これは近年では中々に派手な事象だった。しかし、この解決法は、原作側の懐が深くないと無理だし、例外的なもんだろうな。

スレッドを表示

私は、推しの子読んでないから内容しらんけど、最終回のネタバレ感想がフィルタ無しでバズる状況というのは、否定的な意見が優勢な時だよな、いつだって。

スレッドを表示

「推しの子」の作画も、原作に対する不満をチラつかせるポストしてるけど、こっちは別にdisじゃないから許されてるんかな。
(私が何か言うと傷つく読者がいるから何も言わない、って、原作が読者を傷付ける内容であることを示唆しているし、disとあんま距離ないと思うが)

スレッドを表示

x.com/egUd4eUKbW19955/status/1
ネットにアップロードしたイラストは「作品」であって「素材」じゃないんだ、という根源的な話だが、ここがIT技術者に伝わらないもどかしさが伝わってくる。

当時のドラクエ4コマ作家、色々あって、色々なことになっているのだけど、柴田亜美とか衛藤ヒロユキとか、どっちかというとドラクエ世界観から逸脱気味なネタを描いてた人が生き残り、令和になっても公式から「豪華執筆陣」として迎えられるのは興味深いことであるなあ。

スレッドを表示

他にもドラクエのR-18同人を出してたドラクエ4コマ作家とかも居たなあ。フリーダムな世界よな。

この方は、ドラクエ4コマ作家陣としては代表格に近い方で、さっき挙げた方(こちらは代名詞レベルの大御所であった)の後輩、元アシスタントで、同人作家としてまだ現役なのだけど、さすがにどちらも「令和のドラクエ4コマ」には呼ばれてなかった。

スレッドを表示

今思い出したけど、ドラクエ4コマで全く同じことやった作家いたなあ。同人誌か何かに、ドラクエつまらんという趣旨の漫画を描いた作家が居た。

スレッドを表示

togetter.com/li/2465462
話題になってたのこれか。さすがにぶっちゃけすぎだなぁ。こういうのは増田とかで匿名でやるもんじゃないのかw

しかし、自分の好みの内容が描けないことがストレスなら、原作付きコミカライズはやってて辛いだけな気がするな。しかし商業漫画として耐えうるストーリーを作る能力がないなら、コミカライズ作家をやっていくしかないのかも。(じゃあなんでぶっちゃけた?)

少ない予算を分配してまで、LLM、とくにbaseモデルを色々な団体に競争させるように作らせるのは、本当に無駄でしかないよ。どうせ、学習させる日本語データセットは、Common Crawlから抽出した日本語ドキュメントとかなわけで、どれもだいたい同じ、あとはせいぜい学習のパラメータがちょっと違う程度。
つよつよbaseモデル1個できればそれでいいのに

スレッドを表示

一般人が満足できるGPT-4oレベルのAI開発は、別に無理してしなくても良くて、GPT-4oを使えばいい。

開発コストと利用コストを天秤にかけて、自国開発の方が絶対にトクだ、というならすればいいけど、現状見てるとそんな感じはしないからなぁ。

それでもやるというなら、フルスクラッチモデルじゃなくて、既存のオープン系LLMに、日本語データセットで事前継続学習させたモデルに注力したほうが良い。それもいろんな企業、団体にやらせるんじゃなくてね。

スレッドを表示

一方で、国がこの程度しかAIに対して金をかけないなら、例え成果が得られなくても傷は浅くて済むし、現状でいいのかもなぁ、なんて思ってもいる。

スレッドを表示

個人的には、少ないGPU資源、少ない予算を、もっと一極集中させて少しでも効率化図った方が良いんじゃないか、ってのを強く思う。

高パラメータの日本語LLMをあちこちの企業や団体で同時多発的に作って何かいいことあるんか?
(国の支援金を使って、なぜか外部の人にLLM作らせて、学習ミスって?億円の損失出した例とか見てると、あんまり心が穏やかになれない…)

スレッドを表示

国内にGPUが少ないというのはそうだけど、その少ないGPUも結局アメリカ産なので、多くても少なくても一緒じゃね、と思う。ASIの夢を追うような研究をするのでなければ、国内にあるGPUで何とかできるんじゃないかと思うし、足りない分はレンタル(クラウド)で良くないか。

スレッドを表示

OpenAIのAI研究の最終ゴールがASIだというのは、まあそう言ってるからそうかもしれないけど、最近はそのトーンもだいぶ落ち着いてきてはいるよね。

一般人はGPT-4oで満足できるということは、ASIに別に需要はないということになるが、いつまで金をかけて研究が続けられるんだろうか。無理そうと感じているから、トーンダウンしてるんじゃないかとも思う。

スレッドを表示

GPT-4oが一般人がありがたみを感じる最終ラインだ、というのは、一般人の私からも同意。仮にこれがローカルで動けばもうそれで十分、って感じ。それ以上の性能はそもそもLLMには期待できないしね。

スレッドを表示

推論時間スケーリングもOpenAIの主張を鵜呑みにはできないと思っている。いうて、ただのCoTファインチューニングでLLMの性能が上がったと言ってるだけの段階だと思ってるんで…。

そして、o1が使われない理由は高性能過ぎるからじゃなくて、時間がかかるだけで、いうほど性能が無いからではないのかなぁ。試験問題で高得点が取れるAIなんて別に役には立たないので。

スレッドを表示

type.jp/et/feature/27114/
AI研究者の中では、BitNetはまともな(議論の俎上に上げられるような)技術なんだな。個人的には、BitNetは基礎理論の域を出てなくて、実用化は可能性すら見えない技術だから意外だった。(まともに使えるモデルが現存しないことをもって、素人がこう断言しても別にかまわんだろう)

henatips.com/page/63/
SD3もなんだか複雑だなあ。眠くなってきたのでまた今度見よう…

スレッドを表示
古いものを表示
Fedibird

様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。