https://zenn.dev/kendama/articles/d1f595777a8407
>LiteLlama-460M-1Tを日英データで継続事前学習
> 微妙
https://twitter.com/npaka123/status/1782923109923983462
>Google Colab Phi-3
https://twitter.com/_mhirano/status/1782626716923674939
hirano
nekomata-14b-pfn-qfin-inst-merge
>「llama.cpp」による「transformersモデル」の量子化の
https://note.com/npaka/n/nbd1348500a28?sub_rt=share_b
https://twitter.com/ELYZA_inc/status/1782341071403417640
GEAR: Augmenting Language Models with Generalizable and Efficient Tool Resolution
50%zaoriku
AIまわりのPOSTを構造的に整理できないかと試してたけど、うまく行ってない感じ^^;