https://x.com/uezochan/status/1852187319018885577
OpenAIのmoderationは、フラグを頻回に立てること自体を回避しないと、結局はAPIキーがBANされるんで、APIキー利用者(サービス提供者)は、フラグを頻回に立てるような悪質ユーザーをサービスからBANしないとダメなんですよね。やっぱりあまり理解されてないっぽいな。
これAzure OpenAIでも基本的に一緒のはずだけどね。
https://learn.microsoft.com/ja-jp/legal/cognitive-services/openai/data-privacy?tabs=azure-portal#preventing-abuse-and-harmful-content-generation
ただし、Azureの場合は、監視をオプトアウトするオプションがあり、申請が可能。
https://learn.microsoft.com/ja-jp/legal/cognitive-services/openai/data-privacy?tabs=azure-portal#how-can-customers-get-an-exemption-from-abuse-monitoring-and-human-review
もっともこれは規約違反プロンプトを実行しても許されるようになる、という意味では勿論なくて、サービス利用者が規約違反をしないように、サービス管理者自身が監査を徹底しなさい、という意味である。
とはいえ、キャラAIチャットで、ユーザーがエロ入れることを禁止するなんて不可能ですよ。でもクラウドAIが規約でエロ禁止している以上、AI事業者かサービス提供者のどっちかが必ず、会話を覗き見て、ユーザーのプライバシーを著しく侵害して、規約違反の有無をチェックする必要がある。
つまり何かというと、ローカルしか勝たん。
私も、クラウドAIの利用規約に入力禁止条項があることと、規約違反検出のための監視を行う必要性については理解してるけど、ユーザーが規約違反をしようがしまいが、ユーザー発言を全部監視する必要があり、プライバシーは必ず侵害されるのだよね。
監視はAIによるスクリーニングが行われたのち、フラグが立った場合のみ人力での精査が実施される、とはいえ、この監視AIは自然言語を解釈するAIであり、監視結果を人間にレポートするわけで、プライバシーが侵害されている事実には何もかわりない。
プライバシーが丸裸なクラウドAIなんて、利用用途はきわめて限定されると私は思うし、だからAIはローカルで動かす必要があるのよ。まあいうて皆ChatGPT使いまくるし、プライバシーを気にしない人が多いんだろうなぁ。