なお、「そこで出されたのは、カ」というプロンプトで「レーライスだった。」という補完文が得られたら、次に「そこで出されたのは、カレーライスだった。」をそのまま出力してユーザーに表示してもいいけど、「そこで出されたのは、カ」というLLM生成ではない文章が混じるのは避けたい場合がある。
そこで、
「今日のランチメニューにはなにかな?」
そこで出されたのは、カレーライスだった。メニューをお客に説明しよう。
ウェイトレス「
というようにプロンプトをインジェクションし、ウェイトレスの台詞だけ出力する、という手法がある。
まあ、CoTなんですけどね。プロンプトを動的にインジェクションしたり巻き戻したりするところが普通のCoTとは違う。
このように、LLMを人工知能だと思わず、もっともらしい後続文を出力する関数だと割り切って使った方が、特に低パラメータモデルだと有用だと思っている。AIチャットするのにチャットモデルなんか使うのやめようぜ(過激派)