人工知能どころか、天然知能、つまり人間の知能だって、脳神経活動と意識や思考の具体的な関連とか、まだよく分かってないのだし、AI研究者の専門外だから仕方ない、というのは確かにあると思う。AI性能の客観的評価には、試験問題を解かせるみたいなベンチマークくらいしか無いのも分かる。
でも、試験勉強いっぱいさせたら試験でいい点取れるようになったという現象の、どこに科学があるんだと。こういう勉強をさせたらこういう問題ができるようになった、で終わらせずに、この問題が解けるようになったのは何故か?を考えるのが科学じゃないの?
生成AIは「覚えたことを再現しているだけ」ではなく、思考しているから問題を解けるのだ、という主張をするには、「何故、思考できるのか」に解を与える必要があると思う。なんせ、機械学習、ニューラルネットワーク、transformerとかの仕組みだけでは説明が付かないので。
生成AIが思考っぽいことができているように見える理由に解が与えられてない以上、今後、LLMに学習データをいくら喰わせても、学習データを超える出力が得られる見込みは無いんじゃないのか?どうしてAGI/ASIの登場を信じられるのか?
…というようなことを日々考えている。
言ってることが理解できないAIに意味はないよなぁ。
我々は、何かを理解したいからAIを使うんだし。