新しいものを表示

合成データ生成からの独自LLMの構築によさげ

スレッドを表示

ReduceFormer:
Attention with Tensor Reduction by Summation

x.com/fly51fly/status/18010143
arxiv.org/abs/2406.07488

- ReduceFormer はトランスフォーマーに比べてモデル構造がはるかにシンプルなので、推論のレイテンシ、スループット、メモリ フットプリントの効率が向上します。

- 主なコンポーネントは次のとおりです。1) 注意の前に深さ方向の畳み込みを使用してローカル機能を抽出するマルチスケール ローカル コンテキスト学習。 2) ReduceFormer 注意は、グローバル合計と要素ごとの乗算によるテンソル削減を使用して、標準注意における行列乗算を近似およびバイパスします。

hamaruki.com/recurrentgemma-in
>RecurrentGemmaの大きな特徴は、新しいリカレントアーキテクチャを採用していることです。このアーキテクチャにより、Gemmaと比べてメモリ使用量が少なく、長いシーケンスの生成時により高速な推論が可能になりました。

古いものを表示
Fedibird

様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。