生成AI出力に正しさなんてものは無いのに、もっともらしい内容だからきっと正しいだろう、という推測が働いてしまうのが本当に良くないよね。
そんな生成AI出力をそのまま公開、共有できてしまう現状は良くない。とはいえ、防ぐ方法も思いつかない。特にLLMの場合は、文章に透かしなどを入れるのが不可能だしな。
logitsを弄って出力文字列に特定のパターンを埋め込むことで電子透かしにする手法が考案されているが、手動(プログラムでもいい)で適当に書き換えたら回避できるので、こんなのが透かしになるわけないですね。AIが出力した文字列そのものじゃなくて、真偽不明の「内容」の共有が問題なんだから。
生成AIの出力を共有、公開する場合には、すべて生成者本人による妥当性評価が必要だ、というのは大前提だと思うのだが、まあ遵守されてないんだろうね。WikipediaやブログがAI記事で汚染されるのも、要はそういうことだろう。
しかし、コピペとか、ソース不明の内容を事実として書くことはダメだという共通認識はあるのに、生成AI出力に関してはこの認識の対象外になるのは不思議だよね。やっぱ生成AIには、「基本的に正しい」という、一種の信仰があるんだと思う。