https://x.com/RyuichiYoneyama/status/1853662942144909447
このポストは確かにそうなんよな。配偶者に関しては配偶者特別控除があるから、控除額は累進的に減っていくので、103万円の「壁」は本当は無い。壁があるのは扶養控除の方。しかし、扶養控除で壁があるなら、基礎控除ではなく、扶養控除の方を改善すべきというのももっともな話。
扶養親族の所得金額閾値を48万円からさらに上げるとか、「扶養特別控除」みたいなのを導入して累進的に控除額を減らすとか、やりようはある。
あと、扶養親族が103万円以上稼ぐという状況は、だいたい子供が大学生でバイトする場合なのだし、学生の本分は勉強なのだし、103万円以上稼ぐことより、勉強を優先すべきというのも、もっともな話だなぁ。
https://x.com/29silicon/status/1853418861774909515
ポリパテのことをあんまり知らなかったのでちょっと調べた。不飽和ポリエステルをスチレンモノマーに溶解させた主剤と、過酸化物などを含む硬化剤と混合することで、ラジカル重合により架橋構造を形成し硬化させる。
主剤のスチレンモノマーは、溶剤であると同時に、硬化時に不飽和ポリエステルと共重合し、構造の一部となる。だから溶剤はトルエンとかじゃないわけか。
で、スチレンモノマーは肝機能障害の原因物質なので、定期的な肝機能検査が必要と。
https://support-jp.sandisk.com/app/answers/detailweb/a_id/52288/initiator/user
ファームウェアが出てた。
となると、これWin11が悪いんじゃなくて、WD Black SN770の方が悪かったぽいな。
WD Black SN770、初期不良を引いて、環境構築が一通り終わった時点でぶっ壊れて交換したということもあり、ここ数年のWDはどうも信用できない。
https://tech-gadget.reinforz.co.jp/5080
こんな致命的バグがあるのか…
当分24H2は入れられないな。
(まあいつものことではある)
https://anond.hatelabo.jp/20241104075316
面白い考察ではあった。ただ、このモデルの素性は、
① エロゲーの台詞・音声で事前学習
② ①を声優毎にファインチューニング
じゃないかなあ。
①の学習は例えデータセットが市販されているエロゲーの台詞・音声という著作物であっても合法。①のモデルは「特定の声優の声」を再現するためのモデルではなくて、「エロゲみたいな台詞を喋る」モデルとなるはずなので。
②は声優(ボイスパートナー)に有償で台詞収録を依頼し、得られたデータセットで①をファインチューニングしてるはず。
こういうプロセスでモデルを作製している限りは、著作権問題や、声の権利の問題は発生しないと思う。というか②を声優の許可無く、エロゲーから学習してたら大問題だ。あり得ないと思う。
https://platform.openai.com/docs/guides/latency-optimization#use-predicted-outputs
OpenAI APIにpredicted outputsという機能が追加されたらしい。推論されるであろう内容に近い内容を事前にモデルに渡すことで、推論のレイテンシを下げるとのこと。
これ、実装は「投機的サンプリング」と似たような感じかな? 投機的サンプリングは、高速な小モデルに先に推論させて、その結果を低速な大モデルに検証させることで、大モデル単体で推論するよりも高速化を図る手法であった。
https://developer.nvidia.com/ja-jp/blog/mastering-llm-techniques-inference-optimization/
predicted outputsは、小モデルの代わりに、人間に先に推論させる…のではないだろうか?
https://x.com/kasuga391/status/1852889268261446027
これ、選別をサボってるわけではなくて、たくさんあった方がお得だろ?という価値観がどうもあるらしいのだよね。
https://x.com/8co28/status/1852630534205431934
その通りなんよね。ノイズとかウォーターマークとか署名とかの概念を学習するための良い素材になるだけ。これらの概念を表すタグをネガティブプロンプトに指定することで、出力を抑制するのに使われる。