https://type.jp/et/feature/27114/
AI研究者の中では、BitNetはまともな(議論の俎上に上げられるような)技術なんだな。個人的には、BitNetは基礎理論の域を出てなくて、実用化は可能性すら見えない技術だから意外だった。(まともに使えるモデルが現存しないことをもって、素人がこう断言しても別にかまわんだろう)
国内にGPUが少ないというのはそうだけど、その少ないGPUも結局アメリカ産なので、多くても少なくても一緒じゃね、と思う。ASIの夢を追うような研究をするのでなければ、国内にあるGPUで何とかできるんじゃないかと思うし、足りない分はレンタル(クラウド)で良くないか。
個人的には、少ないGPU資源、少ない予算を、もっと一極集中させて少しでも効率化図った方が良いんじゃないか、ってのを強く思う。
高パラメータの日本語LLMをあちこちの企業や団体で同時多発的に作って何かいいことあるんか?
(国の支援金を使って、なぜか外部の人にLLM作らせて、学習ミスって?億円の損失出した例とか見てると、あんまり心が穏やかになれない…)