https://type.jp/et/feature/27114/
AI研究者の中では、BitNetはまともな(議論の俎上に上げられるような)技術なんだな。個人的には、BitNetは基礎理論の域を出てなくて、実用化は可能性すら見えない技術だから意外だった。(まともに使えるモデルが現存しないことをもって、素人がこう断言しても別にかまわんだろう)
個人的には、少ないGPU資源、少ない予算を、もっと一極集中させて少しでも効率化図った方が良いんじゃないか、ってのを強く思う。
高パラメータの日本語LLMをあちこちの企業や団体で同時多発的に作って何かいいことあるんか?
(国の支援金を使って、なぜか外部の人にLLM作らせて、学習ミスって?億円の損失出した例とか見てると、あんまり心が穏やかになれない…)
一方で、国がこの程度しかAIに対して金をかけないなら、例え成果が得られなくても傷は浅くて済むし、現状でいいのかもなぁ、なんて思ってもいる。