x.com/arcprize/status/18701692
本当にじわじわくるグラフだな。確かに、右肩上がりですごく綺麗な推論時間スケーリング則。ただし片対数グラフ。そう、片対数なんだよ。

つまり、思考に数日かけると人間の88%の能力を発現するAIは、さらに数年かけても90%にいくかいかないかだし、100%に到達するのは人類が滅びた後、みたいなスケール感覚なのよね。

arcprize.org/arc-agi-pub
x.com/Mnestick/status/18701986
o3が50万円かけて解いた問題、こんなんらしいんですよね。ベンチマークだからというのは百も承知だけど、こんな問題、人間なら一瞬…とはいかずともちょっと何分か考えたら分かることだし、LLMに何時間か何日かしらんがかけて、無理に解かせる必要性を全く感じないわね。こんな問題、言語化して解く系の問題じゃないだろうと。

直感で法則みつけて、その直感が合ってるのか検証するタイプの問題で、LLMにとって明らかに苦手な問題だしなぁ。

…でもこの問題、解答が一意に定まらない気がするな。左右の同じ辺に接する青ドット同士を結んでも良くない?

その操作を許可した場合、青線と接する赤矩形の処理が未定義なので、未定義操作が生まれるということは、不許可な操作だったのだ、と結論するのが正解なのかしら…

x.com/optozorax/status/1870332
お、o3は実際、こっちの解を提出して間違い判定を食らったのか。
うん、o3くんが正しいと思うよ私もw

これ、1問解くのに50万円ではないよね?500問で50万円よな。上限$10,000 USDって書いてあるしな。

でも制限時間12時間になってるな。だとすればo3 highの実行は、数時間で50万円もかかる?10円/1秒のオーダーでかかる計算になるが。o1 highに比べると計算リソースの割り当てが相当多い感じなのかな。

もっとも、ARC-AGIで高得点を取るために、逆算してo3 highの計算リソースを割り当てたと考えるのが自然か。

しかしなー、とにかく、ARC-AGIの問題、IQテストにも満たない、子供向けの塗り絵レベルの問題集で、こんなの人間なら時間かければ誰でも解けるよね。

平均的な人間なら75%しか解けないと言われてるのは何なんだろう。グラフではAvg. Mturkerが75%くらいの正答率になってるけど、これってAmazon Mechanical Turkという人力でマイクロタスクをやってもらうクラウドソーシングサービスで得られる、平均的な解答品質という意味で、これを平均的な人間の能力と見做すのは流石に無い。

これをAGIがどうとかの評価基準にするのは、やっぱり馬鹿げてる。しかも、推論時間スケーリング準拠だから、数時間とかのオーダーで時間かけて、解けたからAGI?いやいや、と。 [参照]

ARC-AGIの問題、人間が時間をかければ誰でもほぼ100%得点できる類の問題なのだから、AIも時間をかけていいのなら、ほぼ100%得点出来たときに初めて、AGIを名乗るべきじゃないか?

といっても、それでも、塗り絵が人間レベルに出来てエライ、というレベルだけどさ。

フォロー

やはり推論時間スケーリング則は無限の猿定理と同じ主張だと思えてならない。どちらも確率は試行回数によって上げられるという主張だ。

そりゃ時間かければ猿はシェークスピアを書くし、LLMは塗り絵をこなすだろうよ。

現状の正答率88%程度の能力でも、クラウドソーシングよりは上の性能だから良し、としたとしても、クラウドソーシングで数百円、理系博士にやらせても2000円かからないような仕事を、LLMが50万円かけて出来た、というのは、本当に仕事が出来たうちに入るのか問題もある。

AGIベンチマークのレギュレーション上では合格だから、というのは特に意味のない主張だしね。

推論時間スケーリング則に従ったLLMを、そうではないLLMと同じベンチマークで評価することが妥当か、という問題も提起できそうだな。

一体、ベンチマークで何を調べていると言えるのか。「同じモデルでも、回答にかける時間で点数が変わる」という測定方法で、モデルの性能を測っていると言えるのか?

あ、今更だけど、o3 high(tuned)のtuned部分が気になる。これ、ARC-AGIを解くためにファインチューニングしたという意味かしら。だったら、ファインチューニングして、それ?という気もする。

それに、ファインチューニングしたらもうArtificial "general" intelligenceでも何でもないのでは。汎用isどこ。

これに関して、こんなポストを見かけた。
x.com/NielsRogge/status/187039
x.com/NielsRogge/status/187045

ちょっと出所が分からないんだけど、o3 high(tuned)というのは、ARC-AGIの公開問題の75%をデータセットとして学習したもの、ということらしい。

これで本当に、「今のところ人間にしかできない、抽象化と論理的思考ができる」という、汎化性能の達成を評価出来ていると言えるのか、というこの人の疑問に私も同意だな。

これ引用元どこなんだろう。discordなのかなぁ。こういうのちゃんとpublicな場に出して欲しい…

x.com/mikeknoop/status/1870583
メモの原文は今のところ見つけられなかったが、ARC Prizeの中の人による言及をみつけた。
曰く、「それはまあ、そういうもんやで」とのこと。

それに対して、ツッコミが入りまくってるが、そりゃそうよ…

結局これもまた、OpenAIのいつもの仕込みだねぇ。GPT-4oのときは、Chatbot Arenaに覆面モデルとして参戦させるという仕込みをしてた。評価者の運営を抱き込むの、ほんとフェアじゃないんよ…
x.com/mutaguchi/status/1790104

ARC Prizeがやるべきだったことって、テスト直後に「OpenAIさんのモデルがこのたびSOTAを達成しました、おめでとう」と言う以外にないと思うんだが。

OpenAIからの、モデル名を伏せるか、結果公表を待ってくれ、みたいな依頼を飲んだことは明確で、こんなことすると評価プログラムの公平性に疑義を付けざるを得なくなるんよな。

arcprize.org/blog/oai-o3-pub-b
o3 high(tuned)というのは、ARC-AGIの公開問題の75%をデータセットとして学習したものというメモは、普通に記事に書いてあった。

あと私、この表を読み違えていた。o3 lowが非公開問題100問に76%得点して、$20(3000円)かかったというのは、1問あたりなのか。
ということはo3 highが88%得点して、50万円かかったというのは、まさかの、1問あたり50万円か。

しかしo3 highの料金は公表されてないが、highはlowの172倍の計算を行ったということは分かるので、$20 x 172=$3440というのを参考のためにグラフに描き入れたのか。つまりこのコストは確定値ではないということになり、実際にいくらかかったのかはOpenAIしか知らないということに。

o3 highの実際のコストが不明である以上は、全問を$10000以内で解くという制限をクリアしているかは不明だから、今回のSOTAはあくまでo3 lowの76%に与えれたものなのね。

o3 lowが非公開問題100問解くのにかかったコストは$2012、公開問題400問には$6677、計$8689(≒130万円)もかかってる。

だったら、o3 highではlowの172倍の計算コストがかかるとしたら、1回テスト受けるだけで2億円以上かけてるってこと?ほんとに?ほとんど大規模学習並のコストだけど。

50万円でもまあまあナンセンスだなあ、と思ってたけど、塗り絵テストに2億円かけて、これがAGIですって?

o3 lowはまだしも、o3 highは推論時間スケーリング則の概念実証レベルでしかないな。こんなの、実用できるわけがない。「理論上は可能です」ってやつだ。

具体的なコストを伏せて成果だけ強調するの、ほんと良くないねえ、OpenAIさん。

ログインして会話に参加
Fedibird

様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。