"Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention"
https://twitter.com/s_tat1204/status/1778297362131374363
> 既存の Transformer ベースのモデルに "メモリ" 機構を導入する Infini-attention の提案。
様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。