個人的には ChatGPT を含む LLM の hallucinations は問題にならないと思っている。ChatGPT はあくまで「対話」もしくは「作文」ツールであり,内容が事実に基づいているか否かは二の次だからだ。AI 絵画なんかは完全に「創作」と見做されるのに,なんで ChatGPT の返答に事実性を求めるのか?
ただ,返ってくる答えが事実である確率が高いというのが問題なんだよな。つまり「幻覚」が問題なんじゃなく,かなりの場合において「正気」に見えるのがポイントだろう。
だから ChatGPT に問いを投げる人は,少なくとも問いのカテゴリに於いて ChatoGPT より賢くないといけない。そうしないと ChatGPT からの返答が「幻覚」か「正気」か判断できない。質問者が全く知らないことを聞いてはいけないのだ。ボケしかいない漫才コンビが延々とコントを続けてオチがつかない感じになってしまう。
そう考えると国会答弁を GPT などに書かせるというのは,それこそ正気の沙汰とは思えない。ボケをかましてはいけない局面はあるのだ。官僚原稿に頼りきりの政治家とかガチでヤバそうだもんな。
エキスパートシステムが欲しければ今の LLM は向いてない気がするのだが,どうだろう。