MistralベースのオープンなローカルLLM「Ninja-V2-7B」をGoogle Colabで動かして試してみてる。よく分かんないからL4 GPUにしてみたけど、T4で十分っぽい?
https://huggingface.co/Local-Novel-LLM-project/Ninja-V2-7B
様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。