それに対して、ツッコミが入りまくってるが、そりゃそうよ…
結局これもまた、OpenAIのいつもの仕込みだねぇ。GPT-4oのときは、Chatbot Arenaに覆面モデルとして参戦させるという仕込みをしてた。評価者の運営を抱き込むの、ほんとフェアじゃないんよ…
https://x.com/mutaguchi/status/1790104994827600187
https://x.com/mikeknoop/status/1870583471892226343
メモの原文は今のところ見つけられなかったが、ARC Prizeの中の人による言及をみつけた。
曰く、「それはまあ、そういうもんやで」とのこと。
これに関して、こんなポストを見かけた。
https://x.com/NielsRogge/status/1870393141507108999
https://x.com/NielsRogge/status/1870455685131145350
ちょっと出所が分からないんだけど、o3 high(tuned)というのは、ARC-AGIの公開問題の75%をデータセットとして学習したもの、ということらしい。
これで本当に、「今のところ人間にしかできない、抽象化と論理的思考ができる」という、汎化性能の達成を評価出来ていると言えるのか、というこの人の疑問に私も同意だな。
https://x.com/GianMattya/status/1870622801083940865
生成AIに判断を委ねて、その結果で不利益が出た場合でも、保険か何かで金銭で解決する仕組みを作れば、AIにも「責任」を取らせられる、という言説。
問題は、AI利用コスト+保険料が、人間の雇用コストをコンスタントに上回るかだと思う。保険料はAIが間違いを犯すことによる損害額の期待値から算出されるわけだが、保険会社の気持ちになって考えてみるのも面白そう。
まあ個人的には、生成AIの出力を人間がチェックする、すなわち「人間が責任を負う」方が、はるかに安上がりだと思うけどもね。
月額3万円の最強ChatGPTに「電源で音質が変わるか」と聞いたら意外な展開に という記事に関する感想。の補足。
https://x.com/MobileHackerz/status/1870622172106150018
全文o1 proに出力させる追試をしてみた人が。やっぱりできるね、これ。
ChatGPTの初期版(GPT-3.5)でも、階層構造を設けたメタ小説的文章をちゃんと紡いだ実績があるんで、それくらいは余裕なんだろうな…。
自分の知らないWebサイトのメールフォームに、自分のメアドが勝手に使われて、犯行予告メッセージをそのサイトに送付され、そのメッセージがリマインダとして自分のメールアドレスにも送信される、という事象が発生しているらしい。
しかし、身に覚えがないからといって、SNSに貼って拡散するのは極めて悪手だと思われるので止めた方がいいですよ。
その犯行予告メッセージを最初にpublicにしたのは、メールアドレスを勝手に使われた本人ということになる。もし、犯行予告を公開することが、脅迫とか威力業務妨害とかの犯罪に該当するなら、その犯罪を行ったのは誰ということになるだろうか。
しかしなー、とにかく、ARC-AGIの問題、IQテストにも満たない、子供向けの塗り絵レベルの問題集で、こんなの人間なら時間かければ誰でも解けるよね。
平均的な人間なら75%しか解けないと言われてるのは何なんだろう。グラフではAvg. Mturkerが75%くらいの正答率になってるけど、これってAmazon Mechanical Turkという人力でマイクロタスクをやってもらうクラウドソーシングサービスで得られる、平均的な解答品質という意味で、これを平均的な人間の能力と見做すのは流石に無い。
これをAGIがどうとかの評価基準にするのは、やっぱり馬鹿げてる。しかも、推論時間スケーリング準拠だから、数時間とかのオーダーで時間かけて、解けたからAGI?いやいや、と。 [参照]
https://x.com/optozorax/status/1870332502847476005
お、o3は実際、こっちの解を提出して間違い判定を食らったのか。
うん、o3くんが正しいと思うよ私もw