新しいものを表示

冷静に考えれば、物理演算シミュレーション自体はAIとあんまり関係ない。物理演算シミュレーションした結果を学習させて、AI作ろうね、という話だね。

物理法則を理解した動画生成AIモデル(いわゆる世界モデル)を作るための学習データセットを高速なGenesisで大量に作ろう、みたいな思想なんだろう多分。

それでああいうコンセプトムービーになったんだとは思うが…おもうが、ダメだよね。Soraが無い世界線だったら、ああそういうの出来るようになったらいいよね、で済んだんだけどな。

スレッドを表示

x.com/zhou_xian_/status/186951
このコンセプトムービー、あまりにもアレだからなのか、開発者個人のXアカウント以外では公開されてない感じだな。ちょっと探した感じでは他には見つからなかった。しかし、ちゃんと金かけて作ったムービーに見える。なんで作っちゃったんだろな…

スレッドを表示

Pythonの物理演算シミュレーションライブラリには、pybulletやMuJoCoというのがあるが、どうもGPUサポートが無いみたい。

だからGPUが使えるPython用物理演算ライブラリという点で、Genesisは有用なんだろうと思う。(それで以前のCPUベースの物理演算エンジンに比べて81倍速いと宣伝するのも微妙ではあるけど)

でも、あのコンセプトムービーは酷すぎる。あんなの見たら誰もが動画生成AIだと思うわ。なんであんなことするんだろう。

スレッドを表示

genesis-world.readthedocs.io/e
Genesisのユーザーガイドをちょっと読んでみたが、コンシューマーGPUでよく動作する、物理演算エンジンのPythonモジュールだと捉えればだいたい間違ってなさそう。

私はあんま詳しくないから分からないけど、ロボットの動作シミュレーションを3万バッチで並列実行したら、43万fps換算になるから実時間の43万倍の速度だ、みたいな表現は普通なんですかね?
genesis-world.readthedocs.io/e

スレッドを表示

genesis-world.readthedocs.io/e
github.com/Genesis-Embodied-AI
デモムービーに登場した、いかにも自然言語から動画生成してるかのようなgs.generate()関数、APIリファレンスを見ても書いてないからなんだと思ったら、未実装。こんなん詐欺に近いわ。
生成AI、こんなんばっかだよ。しょうもない。

スレッドを表示

めちゃめちゃ速い物理シミュレーションは、どうやって実現したのか。生成AIならシミュレーションとは言えないと思うし、生成AIとはまた別なのか?なにもわからない…

スレッドを表示

今のところの私の理解だと、3Dモデルが事前に用意されてて、そのモーションデータとかカメラとかを自然言語で生成する的なやつなのかな?
それともモデル自体も生成する感じ?

スレッドを表示

github.com/Genesis-Embodied-AI
Genesis、いかにも動画生成AIみたいなデモムービーだったけど、そうではなさそう?よくわからないから識者の記事を待とう…

もうWDやめようかな。4万時間で不良セクタ発生はちょっと早すぎな気もする。

スレッドを表示

バックアップ用HDDに不良セクタが。買わなきゃ

生成AIが我々の生活を一変させるかどうかはまだ分からんが、ビッグテックが合法的にユーザーのプライバシーを覗き見するための、言い訳が増えたことだけは間違いないんよな。

今度、メモ帳にLLMが載るんだって?ははは。

コード補完の方はなにやってるのかブラックボックスで気持ち悪いな。どうやってパケットキャプチャすればいいのか分からないし困った。

スレッドを表示

Copilot Chatのパケットよく読んだら、まずGPT-4o-miniでfunction callingしてタスクを決定してから、GPT-4oに本番のクエリを送っていた。

GPT-4o-miniでのタスク決定時に、タスクによっては追加のパラメータ(参照すべきファイル名とか)が返却されるのかもしれない。

なお、最後に追加質問文のサジェストと、チャットタイトル作成のために、1回ずつGPT-4o-miniを呼んでいた。

スレッドを表示

Copilot Chatをパケットキャプチャして色々見てたんだけど、コンテキストに与えられたファイルのどの行を抽出して送信するかを決定するのには、リモートのLLMは使ってない気がする。

ローカルの小型モデルを動かしてるのか、何らかのアルゴリズムなのかはちょっと分からない。

コード補完の方はssl keyが取れず、パケットキャプチャできんかった。

スレッドを表示

コンテキストのアタッチだと全部読めている気もする。どういう風にコードを切り取って(あるいは切り取らずそのまま全部)リクエストしてるのかはよくわからないな。パケットキャプチャして調査した方が良さそう。

スレッドを表示

GitHub Copilot Chatを触ってる感じ、エディタで開いているファイル全体がコンテキストに格納されるわけじゃなくて、前後100行くらいかな。コード補完も概ねそれくらいだろうか。

スレッドを表示

コンソール出力で、GitHub Copilotがどのタイミングでリクエストを送っているのかだけは分かるね。(出力を信じるなら)
リクエストの中身はここでは見れない。見る方法あるのかなぁ。

スレッドを表示

それでもやっぱり、どのタイミングでどこまでがOpenAIに送信されてるのか、調べられないのが気持ち悪いな。使わないかもしれない。

スレッドを表示
古いものを表示
Fedibird

様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。