新しいものを表示

ラット脳可視化論文、この構成で30Hzでサンプリングして連続性が保たれるわけなくない?なんで?と思ってコードを読んだら、どうやらミスで3000Hzでサンプリングしてて、3000Hzなら前フレームと値がほぼ変わらないから連続になっていたぽいという致命的なバグを発見……

葉桜の季節はあのトリックをあのやり方でやるテーマ的な必然性を感じなかった(読者をビックリさせる機能しかないように思った)のでしょうもなと思った記憶ある

贈与って言ってるけど利息つけて返す(交換+α)モデルですし

話題の贈与によって富の集中が起きるモデル、このへんの単純な富の交換をランダムに行うだけで富の集中が起きる(べき分布になる)話の拡張っぽい
arxiv.org/abs/cond-mat/0001432

これむしろ何で連続性が出るのかわからん

機械学習?の話やめたほうがよさそう

100歩譲ってU-Netのボトルネック特徴量をconditionとして生成していれば「電極でとってきた脳活動で条件付けされた画像」と言えなくもないが、32電極で512点サンプリングした32*512データをそのまま64*64*4にreshapeしたのを入力にするのはマジで意味不明 サイコロでも振ってろ ということになる

ゲル脳への怒りが蘇ってきた 怒りのゲル脳批判記事書く

これも計算機自然ってやつですか?

条件(プロンプト側)じゃなくて入力ノイズのほうを変えるのもポイント高い なんなんだ

ブレインデコーディング系の研究が脳活動から刺激画像を復元するモデルが、本来one to many対応になるであろうタスクなのに見目のいいサンプルに代表させて綺麗に復元できたように見せることへのモヤモヤを昔から持っていたが、ネズミくんのはハナからブレインデコーディングしてなくて笑っちゃった

セットを使ったドラマ撮影で、現実の部屋であればありえないカメラ位置(部屋の壁の向こうや天井の上から撮っていることに相当する)からの映像が用いられることがあるが、その映像に違和感を覚えることがあんまりないの不思議だなと思う

続編?のdreamerではその潜在空間の中で学習することを夢に喩えているわけで、となると夢の世界ということになる(ワールドモデルは頭の中で考えている世界みたいな比喩で説明されることが多いのとも一貫してる気がする)

強化学習では、環境そのものを扱うのが大変なので「観測データを十分復元できる情報をもった低次元の潜在空間」で状態を代理する手法が「世界モデル」と呼ばれていて、カッケ〜と思うのだが、低次元な潜在空間をさして世界と言っているのかVAEを世界のモデルと呼んでいるのかはよくわからない

新かもリバーハウスの賃貸借契約結んでたけどスムーズに進んで「もうええでしょう」って言う機会なかった

港区の一等地の誰も使ってない駐車場を絶対に売ろうとしなかった理由、マジで何だったんだ

古いものを表示
Fedibird

様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。