x.com/uezochan/status/18521873
OpenAIのmoderationは、フラグを頻回に立てること自体を回避しないと、結局はAPIキーがBANされるんで、APIキー利用者(サービス提供者)は、フラグを頻回に立てるような悪質ユーザーをサービスからBANしないとダメなんですよね。やっぱりあまり理解されてないっぽいな。

これAzure OpenAIでも基本的に一緒のはずだけどね。
learn.microsoft.com/ja-jp/lega

ただし、Azureの場合は、監視をオプトアウトするオプションがあり、申請が可能。
learn.microsoft.com/ja-jp/lega

もっともこれは規約違反プロンプトを実行しても許されるようになる、という意味では勿論なくて、サービス利用者が規約違反をしないように、サービス管理者自身が監査を徹底しなさい、という意味である。

まとめると、こう。

OpenAI:
フィルタリングは実施されない。サービス提供者自身がフィルタリングの機能を実装する必要がある。フィルタリングの判定基準として、moderation APIが提供される。

不正使用の監視をオフにすることはできない。(ログ保存は30日間)

Azure OpenAI:
フィルタリングはデフォルトで実施される。ただし、申請するとフィルタリングを解除することができる。

不正使用の監視はデフォルトで実施される。(ログ保存は30日間)
ただし、申請すると監視を解除できる。
※フィルタリングのオプトアウトと不正使用の監視のオプトアウトは、別々であることに注意。

フォロー

とはいえ、キャラAIチャットで、ユーザーがエロ入れることを禁止するなんて不可能ですよ。でもクラウドAIが規約でエロ禁止している以上、AI事業者かサービス提供者のどっちかが必ず、会話を覗き見て、ユーザーのプライバシーを著しく侵害して、規約違反の有無をチェックする必要がある。

つまり何かというと、ローカルしか勝たん。

私も、クラウドAIの利用規約に入力禁止条項があることと、規約違反検出のための監視を行う必要性については理解してるけど、ユーザーが規約違反をしようがしまいが、ユーザー発言を全部監視する必要があり、プライバシーは必ず侵害されるのだよね。

監視はAIによるスクリーニングが行われたのち、フラグが立った場合のみ人力での精査が実施される、とはいえ、この監視AIは自然言語を解釈するAIであり、監視結果を人間にレポートするわけで、プライバシーが侵害されている事実には何もかわりない。

プライバシーが丸裸なクラウドAIなんて、利用用途はきわめて限定されると私は思うし、だからAIはローカルで動かす必要があるのよ。まあいうて皆ChatGPT使いまくるし、プライバシーを気にしない人が多いんだろうなぁ。

検閲されることの何が問題かって、ChatGPTには、人に聞けることしか聞けないじゃん、という話なんだけどね。

しかし、人に聞けないことこそ、AIに聞きたいわけよ。それができるのはローカルLLMだけなんだわ。クラウドAIがどれだけ高機能化しても、そこはかわらん。

ログインして会話に参加
Fedibird

様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。