https://type.jp/et/feature/27114/
AI研究者の中では、BitNetはまともな(議論の俎上に上げられるような)技術なんだな。個人的には、BitNetは基礎理論の域を出てなくて、実用化は可能性すら見えない技術だから意外だった。(まともに使えるモデルが現存しないことをもって、素人がこう断言しても別にかまわんだろう)
一般人が満足できるGPT-4oレベルのAI開発は、別に無理してしなくても良くて、GPT-4oを使えばいい。
開発コストと利用コストを天秤にかけて、自国開発の方が絶対にトクだ、というならすればいいけど、現状見てるとそんな感じはしないからなぁ。
それでもやるというなら、フルスクラッチモデルじゃなくて、既存のオープン系LLMに、日本語データセットで事前継続学習させたモデルに注力したほうが良い。それもいろんな企業、団体にやらせるんじゃなくてね。
少ない予算を分配してまで、LLM、とくにbaseモデルを色々な団体に競争させるように作らせるのは、本当に無駄でしかないよ。どうせ、学習させる日本語データセットは、Common Crawlから抽出した日本語ドキュメントとかなわけで、どれもだいたい同じ、あとはせいぜい学習のパラメータがちょっと違う程度。
つよつよbaseモデル1個できればそれでいいのに