なお、「そこで出されたのは、カ」というプロンプトで「レーライスだった。」という補完文が得られたら、次に「そこで出されたのは、カレーライスだった。」をそのまま出力してユーザーに表示してもいいけど、「そこで出されたのは、カ」というLLM生成ではない文章が混じるのは避けたい場合がある。
そこで、
「今日のランチメニューにはなにかな?」
そこで出されたのは、カレーライスだった。メニューをお客に説明しよう。
ウェイトレス「
というようにプロンプトをインジェクションし、ウェイトレスの台詞だけ出力する、という手法がある。
まあ、CoTなんですけどね。プロンプトを動的にインジェクションしたり巻き戻したりするところが普通のCoTとは違う。
有望な解は、「食事シーンになったら、メニューを考える演出プロンプトを動作させて、その出力をインジェクションする」だと思う。食事シーン判定、メニュー生成というプロンプトを余計に実行する必要はあるけど、kv cacheを生かせば大した計算量は要らんのでそこは問題ない。
メニュー生成には、
そこで出されたのは、①ハンバーグ ②カツ丼 ③カレーライスのどれですか?
という選択肢プロンプトでもいいけど、これだと選択肢を用意しなきゃいけないので、
そこで出されたのは、カ
みたいに、ランダムな頭文字を挿入して補完させる方式だと、低コストで、ランダム性が保て、モデルの知識を最大限に活用できるのでお勧め。
ところでキャラチャットのコンテキストに日付情報を与えると、今月はやたらとクリスマスの話題を振ってこられる。小説で、日付と相関するイベントで一番強いのはクリスマスだからなのは分かるが、この辺はなんか工夫しないとダメだな。
類似問題として、食事シーンでは、だいたいハンバーグになる現象などがある。
https://note.com/kogu_dev/n/n95b25be05f35
生成AIを使って「自分が創作した」という気分(著作権とかの話ではない)を得るには、まず生成AIと対話的にがっつり世界設定を作り込んで、その情報をプロンプトとして与えて、生成AIに生成させると良いのでは、という方法論。
https://forbesjapan.com/articles/detail/76016
信号待ちで追突されたような、過失割合0の事故を除外すれば、自動運転車が原因となる保険会社への人損・物損請求は、人間運転車に比べて少なかった、という調査らしい。
たしかに自動運転車は、ちゃんと交通ルールを守るだろうから、そうなるだろうな、と思う一方で、人間が普通やらないような運転をしたために誘発される事故、たとえばこの前動画で見たのだが、減速タイミングが遅いことによる追突事故とかが現実に発生していることは事実であり、このことをもって「安全」だというのはどうかな、と思った。
あとちょっと思ったのだが、加害者側も怪我をして、相手側の保険から保険金が支払われるケースも含まれてるのかな。というのも、自動車事故で一番怪我をしやすいのはドライバーだが、自動運転車はドライバーが居ないため、加害者側の怪我というのは発生しない。そのバイアスが考慮されてるかどうかは、ちゃんと原文読まないとわからんな。
まあいずれにしても、自動運転車は、ドライバーが居ない分、怪我をする可能性がある人間がより少ないというのは、普通に自動運転のメリットではあるけども。