Megatron-LMとGKEで作るMixtral 8x7Bを語彙拡張継続事前学習
アベジャ
https://tech-blog.abeja.asia/entry/abeja-nedo-project-part1-202404
https://twitter.com/yuiseki_/status/1780794904312246691
>MistralのTokenizer
https://twitter.com/Maxwell_110/status/1780354228831318146
StockGPT: A GenAI Model for Stock Prediction and Trading
https://arxiv.org/abs/2404.05101
50%zaoriku
AIまわりのPOSTを構造的に整理できないかと試してたけど、うまく行ってない感じ^^;