新しいものを表示

しかし、基礎控除額一律アップで失われる税収分は、103万円の壁破壊により、多くの人が今より長時間働くことで得られるようになる直接的な税収や、間接的な経済効果だけではとても補えない、というのも確かにそう。そこはどうすんの?に答は必要だろう。

スレッドを表示

「扶養親族の所得金額閾値を48万円からさらに上げる」の「48万円」がまさに基礎控除額なので、「基礎控除額を上げる」と結局同じことではある。

でも、「基礎控除額を一律上げる」のは103万円の壁破壊目的としてはおかしい。基礎控除額を上げるのは、扶養家族に限るべきだ。

ただ、基礎控除額一律アップは、あくまで税負担を減らすのが第一目的であり、「103万円の壁を壊す」効果は副次的なものだ、という立場ならば、一律アップは妥当だろう。

スレッドを表示

x.com/RyuichiYoneyama/status/1
このポストは確かにそうなんよな。配偶者に関しては配偶者特別控除があるから、控除額は累進的に減っていくので、103万円の「壁」は本当は無い。壁があるのは扶養控除の方。しかし、扶養控除で壁があるなら、基礎控除ではなく、扶養控除の方を改善すべきというのももっともな話。

扶養親族の所得金額閾値を48万円からさらに上げるとか、「扶養特別控除」みたいなのを導入して累進的に控除額を減らすとか、やりようはある。

あと、扶養親族が103万円以上稼ぐという状況は、だいたい子供が大学生でバイトする場合なのだし、学生の本分は勉強なのだし、103万円以上稼ぐことより、勉強を優先すべきというのも、もっともな話だなぁ。

あとポリパテは硬化後に削るので、それによる粉塵も有害なのね。こっちはまだマスクで防ぎようがあるが。

スレッドを表示

x.com/29silicon/status/1853418
ポリパテのことをあんまり知らなかったのでちょっと調べた。不飽和ポリエステルをスチレンモノマーに溶解させた主剤と、過酸化物などを含む硬化剤と混合することで、ラジカル重合により架橋構造を形成し硬化させる。

主剤のスチレンモノマーは、溶剤であると同時に、硬化時に不飽和ポリエステルと共重合し、構造の一部となる。だから溶剤はトルエンとかじゃないわけか。

で、スチレンモノマーは肝機能障害の原因物質なので、定期的な肝機能検査が必要と。

support-jp.sandisk.com/app/ans
ファームウェアが出てた。
となると、これWin11が悪いんじゃなくて、WD Black SN770の方が悪かったぽいな。

WD Black SN770、初期不良を引いて、環境構築が一通り終わった時点でぶっ壊れて交換したということもあり、ここ数年のWDはどうも信用できない。

スレッドを表示

tech-gadget.reinforz.co.jp/508
こんな致命的バグがあるのか…
当分24H2は入れられないな。
(まあいつものことではある)

データの透明性という観点でいえば、DMMボイスでは②のデータセットを提供した声優を公開すべきだが、逆に声優側から非公開にしたいという要請もあるのだと思う。エロゲーに声を入れる声優が、別名義を名乗るのと同じ理由で。

ただ、ファインチューニングは声優に対価が支払われている(もしくは同意を得ている)、という点は公表した方が良さそうだ。ボイスパートナー募集フォームなんてものがあるくらいだし、そんなのは自明だと思うんだけど、この増田みたいな捉え方をする人が居るなら問題だと思うんだよね。

スレッドを表示

anond.hatelabo.jp/202411040753
面白い考察ではあった。ただ、このモデルの素性は、

① エロゲーの台詞・音声で事前学習
② ①を声優毎にファインチューニング

じゃないかなあ。

①の学習は例えデータセットが市販されているエロゲーの台詞・音声という著作物であっても合法。①のモデルは「特定の声優の声」を再現するためのモデルではなくて、「エロゲみたいな台詞を喋る」モデルとなるはずなので。

②は声優(ボイスパートナー)に有償で台詞収録を依頼し、得られたデータセットで①をファインチューニングしてるはず。

こういうプロセスでモデルを作製している限りは、著作権問題や、声の権利の問題は発生しないと思う。というか②を声優の許可無く、エロゲーから学習してたら大問題だ。あり得ないと思う。

今のところXではpredicted outputsの実装について予想してる人は居なさそうだ。

「投機的サンプリング」の手法が提案されたときに、こういう手動サンプリングも当然思いつくはずだが、案外誰も思いつかなかったのかもね。コロンブスの卵だったのかも。

スレッドを表示

predicted outputsが私の想像通りの実装だとすれば、ローカルLLMでも再現できそうだな。

スレッドを表示

推論内容の誘導にpredicted outputsに近い手法を用いることは、既に一般的ではあるよね。

要は、プロンプトにコンテキストとuserメッセージに加え、推論させたい内容の書き出し部分を、assistantメッセージとして予め含めてしまう手法。

inferenceよりevaluationの方が速いから、この手法も一応は高速化手法でもある。

スレッドを表示

platform.openai.com/docs/guide
OpenAI APIにpredicted outputsという機能が追加されたらしい。推論されるであろう内容に近い内容を事前にモデルに渡すことで、推論のレイテンシを下げるとのこと。

これ、実装は「投機的サンプリング」と似たような感じかな? 投機的サンプリングは、高速な小モデルに先に推論させて、その結果を低速な大モデルに検証させることで、大モデル単体で推論するよりも高速化を図る手法であった。
developer.nvidia.com/ja-jp/blo

predicted outputsは、小モデルの代わりに、人間に先に推論させる…のではないだろうか?

生成AI絵なんて文字入れて数分待てばできるでしょ、という内容のポストを見かけたが、数秒オーダーよな。1秒どころか0.1秒切る系すらあるし…。

どっちかというと、プロンプトを書くところが本題だな。プログラミングにおけるコンパイルみたいなもん。

NoobAI-XLの1.0、0.75と同じで過学習気味な感じはするが、0.75より描画の繊細さが改善された気がしないでもない。

画風とか全体のタッチを制御するタグが効き過ぎる感じは依然として残っているので、weight調整は必要なのかもしれない。

差分絵を大量に上げるのと同じなんだろうね、多分。

スレッドを表示

x.com/kasuga391/status/1852889
これ、選別をサボってるわけではなくて、たくさんあった方がお得だろ?という価値観がどうもあるらしいのだよね。

soft inpainting、いまいち活用法が思いつかん。マスク境界をシームレスに繋ぐために、マスク外ぼかし領域を広めに取り、ぼかし領域では元絵を常に参照しながらdenoisingを進める、という方式のようなのだが…。

この方式でも結局は、通常inpaintingと同様、ぼかし領域は元絵と生成絵の重ね合わせ的表現になるので、ボケの発生は避けられない気がするんだよな。パラメータの設定にコツがあるんだろうか?

x.com/8co28/status/18526305342
その通りなんよね。ノイズとかウォーターマークとか署名とかの概念を学習するための良い素材になるだけ。これらの概念を表すタグをネガティブプロンプトに指定することで、出力を抑制するのに使われる。

古いものを表示
Fedibird

様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。