LLM、原理的に、思考ができるものとは思ってない。
いくらニューラルネットワークが人間の思考をモデルにしてる、アテンション機構が人間の認識能力をモデルにしてる、と言われても、人間が本当にそのモデルに従って思考してるかは、何も証明されてないわけだしな。
せっかくコンピューターを使えばもっと確実な演算が出来るのに、わざわざ「人間の思考」みたいな不確かな演算をエミュレートしてまで頑張る理由って、別にそこまでないんじゃないか?
従来型のプログラムではどうしても出来ないタスクだけ、LLMにやらせればいいんじゃないのか?
AGIなんて面白いだけで、別にいらんだろ。
oシリーズがやってるChain of Thoughtも、「連鎖的思考をしている文章」を生成する手法で、やってることとしてはLLMそのもの。
学習時には「問題文→連鎖的思考をしている文章→回答文」をたくさん学習させる。
生成時には「問題文」をプロンプトとして与え、後続トークンとしてもっとも確率が高い並び方、すなわち「→連鎖的思考をしている文章→回答文」が推論されるので、ここから「回答文」部分を抜き出しているだけ。
連鎖的思考をしている文章を出力することは、思考ではないだろう。
様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。
せっかくコンピューターを使えばもっと確実な演算が出来るのに、わざわざ「人間の思考」みたいな不確かな演算をエミュレートしてまで頑張る理由って、別にそこまでないんじゃないか?
従来型のプログラムではどうしても出来ないタスクだけ、LLMにやらせればいいんじゃないのか?