https://x.com/sleepy_yoshi/status/1841880900155646202
https://t.co/IYthINas1E
Mistral-NeMo-Minitron-8B-Instruct
日本語Qwen2.5であるEZO-Qwenの72B版がGGUF化
https://x.com/2022_technology/status/1840354395906834619
https://huggingface.co/grapevine-AI/EZO-Qwen2.5-72B-Instruct-GGUF
LLM-jp-3 1.8B
https://x.com/npaka123/status/1838835688541950256
https://x.com/jaguring1/status/1838615823298236489
Gemini 1.5 pro 002
Gemini 1.5 Flash 002
https://x.com/schroneko/status/1838192580519157911
https://huggingface.co/datasets/openai/MMMLU
> OpenAI の多言語性能評価ベンチマーク MMMLU (Multilingual Massive Multitask Language Understanding)
https://x.com/TetsuroMorimura/status/1837302545364263031
https://arxiv.org/abs/2404.13846
>LLMアライメント(RLHF)の標準となりつつあるDPOは、学習データに質の低い応答文が含まれると、従来のRLHF以上に性能が劣化
50%zaoriku
AIまわりのPOSTを構造的に整理できないかと試してたけど、うまく行ってない感じ^^;