https://nvlabs.github.io/Sana/
Sana、DiTでTransformerにLinear Attention機構を採用することで、計算量O(n^2)をO(n)に落とし込んだこと、VAEの代わりにDeep compression autoencoderという高圧縮率な変換をかけていること、テキストエンコーダーの前段にLLMによるユーザープロンプト強化を行っていることが新しいみたい。構造としてはシンプルに見える。
このスレッドだとChatGPTと同じ解答があった。安心した(?)
https://stackoverflow.com/questions/181596/how-to-convert-a-column-number-e-g-127-into-an-excel-column-e-g-aa
しかしExcelの列名は結構面白いネタだな。そもそもこれ、bijective numerationという記法で、n進法とは全く違うものらしい。
https://en.wikipedia.org/wiki/Bijective_numeration
https://qiita.com/hibit/items/608b3ffe680be4b91a61
https://x.com/excelspeedup/status/1859507636275904626
これ最初意味が分からなかったけど、そうか、列名にはゼロが無いんだ。
列名→列番号は、
ABC=1 * 26 ^ 2 + 2 * 26 ^ 1 + 3
みたいに計算できるから26進数ぽく見えるけど、列番号→列名は26進数として計算しようとすると、おかしくなる。
八都宿ねね、今更把握。
公式はおろか、切り抜きの一つすら綺麗に無に帰しているところがガチだな。
https://x.com/deepseek_ai/status/1859200141355536422
DeepSeek-R1-Liteというモデルがo1並のCoT能力を得たという主張。まだモデルは公開されてないみたいだし、パラメータとかの情報も見つからなかった。
まあこれで、CoTファインチューニングは効果的なんだなということは分かるし、これからしばらくCoTモデルが流行りそうだな。
LLM推論中に青画面。前回から3日しか経ってないので明確な原因があるはず。とりあえずiGPUを有効化してから発生しだしたので、またオフにしてみる。
以前はChrome利用時に落ちてて、Chrome側でGPU設定を変更し、iGPUをオフったことで改善したので、前者が効いたかと思っていたが、もしかするとiGPUが主因だったのかもしれない。
これで様子見するが、原因が他にある場合は特定困難だな。