RT @jaguring1@twitter.com
今日、Metaが大規模な汎用言語モデル「OPT-IML」を発表!(パラメータ数は300億と1750億のモデル)
GPT-3と同等規模の言語モデル「OPT」に対し、約2000個の言語タスクで微調整(instruction tuning)
1750億は研究向けに近いうちに公開予定で、300億の方はすでに利用可能!
https://github.com/facebookresearch/metaseq/tree/main/projects/OPT-IML
🐦🔗: https://twitter.com/jaguring1/status/1606127738791768064