https://x.com/uezochan/status/1852187319018885577
OpenAIのmoderationは、フラグを頻回に立てること自体を回避しないと、結局はAPIキーがBANされるんで、APIキー利用者(サービス提供者)は、フラグを頻回に立てるような悪質ユーザーをサービスからBANしないとダメなんですよね。やっぱりあまり理解されてないっぽいな。
これAzure OpenAIでも基本的に一緒のはずだけどね。
https://learn.microsoft.com/ja-jp/legal/cognitive-services/openai/data-privacy?tabs=azure-portal#preventing-abuse-and-harmful-content-generation
ただし、Azureの場合は、監視をオプトアウトするオプションがあり、申請が可能。
https://learn.microsoft.com/ja-jp/legal/cognitive-services/openai/data-privacy?tabs=azure-portal#how-can-customers-get-an-exemption-from-abuse-monitoring-and-human-review
もっともこれは規約違反プロンプトを実行しても許されるようになる、という意味では勿論なくて、サービス利用者が規約違反をしないように、サービス管理者自身が監査を徹底しなさい、という意味である。
私も、クラウドAIの利用規約に入力禁止条項があることと、規約違反検出のための監視を行う必要性については理解してるけど、ユーザーが規約違反をしようがしまいが、ユーザー発言を全部監視する必要があり、プライバシーは必ず侵害されるのだよね。
監視はAIによるスクリーニングが行われたのち、フラグが立った場合のみ人力での精査が実施される、とはいえ、この監視AIは自然言語を解釈するAIであり、監視結果を人間にレポートするわけで、プライバシーが侵害されている事実には何もかわりない。
プライバシーが丸裸なクラウドAIなんて、利用用途はきわめて限定されると私は思うし、だからAIはローカルで動かす必要があるのよ。まあいうて皆ChatGPT使いまくるし、プライバシーを気にしない人が多いんだろうなぁ。
まとめると、こう。
OpenAI:
フィルタリングは実施されない。サービス提供者自身がフィルタリングの機能を実装する必要がある。フィルタリングの判定基準として、moderation APIが提供される。
不正使用の監視をオフにすることはできない。(ログ保存は30日間)
Azure OpenAI:
フィルタリングはデフォルトで実施される。ただし、申請するとフィルタリングを解除することができる。
不正使用の監視はデフォルトで実施される。(ログ保存は30日間)
ただし、申請すると監視を解除できる。
※フィルタリングのオプトアウトと不正使用の監視のオプトアウトは、別々であることに注意。