フォロー

ReduceFormer:
Attention with Tensor Reduction by Summation

x.com/fly51fly/status/18010143
arxiv.org/abs/2406.07488

- ReduceFormer はトランスフォーマーに比べてモデル構造がはるかにシンプルなので、推論のレイテンシ、スループット、メモリ フットプリントの効率が向上します。

- 主なコンポーネントは次のとおりです。1) 注意の前に深さ方向の畳み込みを使用してローカル機能を抽出するマルチスケール ローカル コンテキスト学習。 2) ReduceFormer 注意は、グローバル合計と要素ごとの乗算によるテンソル削減を使用して、標準注意における行列乗算を近似およびバイパスします。

ログインして会話に参加
Fedibird

様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。