x.com/umiyuki_ai/status/185538
WikipediaがAI投稿で汚染されてて、除染のためのコストがかかっているそうな。

この記事に詳細が書いてあった。
news.yahoo.co.jp/expert/articl

Wikipediaを誰でも編集可能ではなく、記者登録制にしてしまったら、もうそれはただの記事サイトになってしまい、中立性も損なわれるので、地道にAI記事を潰していくしかないのだろう。

生成AI出力に正しさなんてものは無いのに、もっともらしい内容だからきっと正しいだろう、という推測が働いてしまうのが本当に良くないよね。

そんな生成AI出力をそのまま公開、共有できてしまう現状は良くない。とはいえ、防ぐ方法も思いつかない。特にLLMの場合は、文章に透かしなどを入れるのが不可能だしな。

logitsを弄って出力文字列に特定のパターンを埋め込むことで電子透かしにする手法が考案されているが、手動(プログラムでもいい)で適当に書き換えたら回避できるので、こんなのが透かしになるわけないですね。AIが出力した文字列そのものじゃなくて、真偽不明の「内容」の共有が問題なんだから。

生成AIの出力を共有、公開する場合には、すべて生成者本人による妥当性評価が必要だ、というのは大前提だと思うのだが、まあ遵守されてないんだろうね。WikipediaやブログがAI記事で汚染されるのも、要はそういうことだろう。

しかし、コピペとか、ソース不明の内容を事実として書くことはダメだという共通認識はあるのに、生成AI出力に関してはこの認識の対象外になるのは不思議だよね。やっぱ生成AIには、「基本的に正しい」という、一種の信仰があるんだと思う。

フォロー

どのみち、Wikipediaを含むネット情報を利用する側からすれば、内容の真偽判定は必須なので、AI汚染が進行することは、真偽判定の手間が増えるだけではある。AIによって生産性を落とされる「だけ」で済む。

ログインして会話に参加
Fedibird

様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。