まとめると、こう。
OpenAI:
フィルタリングは実施されない。サービス提供者自身がフィルタリングの機能を実装する必要がある。フィルタリングの判定基準として、moderation APIが提供される。
不正使用の監視をオフにすることはできない。(ログ保存は30日間)
Azure OpenAI:
フィルタリングはデフォルトで実施される。ただし、申請するとフィルタリングを解除することができる。
不正使用の監視はデフォルトで実施される。(ログ保存は30日間)
ただし、申請すると監視を解除できる。
※フィルタリングのオプトアウトと不正使用の監視のオプトアウトは、別々であることに注意。
私も、クラウドAIの利用規約に入力禁止条項があることと、規約違反検出のための監視を行う必要性については理解してるけど、ユーザーが規約違反をしようがしまいが、ユーザー発言を全部監視する必要があり、プライバシーは必ず侵害されるのだよね。
監視はAIによるスクリーニングが行われたのち、フラグが立った場合のみ人力での精査が実施される、とはいえ、この監視AIは自然言語を解釈するAIであり、監視結果を人間にレポートするわけで、プライバシーが侵害されている事実には何もかわりない。
プライバシーが丸裸なクラウドAIなんて、利用用途はきわめて限定されると私は思うし、だからAIはローカルで動かす必要があるのよ。まあいうて皆ChatGPT使いまくるし、プライバシーを気にしない人が多いんだろうなぁ。
とはいえ、キャラAIチャットで、ユーザーがエロ入れることを禁止するなんて不可能ですよ。でもクラウドAIが規約でエロ禁止している以上、AI事業者かサービス提供者のどっちかが必ず、会話を覗き見て、ユーザーのプライバシーを著しく侵害して、規約違反の有無をチェックする必要がある。
つまり何かというと、ローカルしか勝たん。