部落解放8月号の特集〈「AIと差別」の最前線〉、とても良かった。宮下萌による〈「AIと差別」の見取り図〉は非常にわかりやすく、かつ問題が具体的に書いてあるのもよかった。
事例として、Amazon採用事例が紹介されていた。これは十年間で提出された履歴書が教師データとなり、そのほとんどが男性からの応募だったためAIは男性を採用することが適していると認識してしまった。これは性別を対象とせずにデータを学習しても問題は解決しない。なぜなら履歴書には女性であることを伺わせるキーワードがあるため。「女性チェス部の部長」や「女子大卒業」などの記載によって評価が下がる傾向にあった。AmazonはこのAIの開発を中止した。
あとは、ChatGPTを悪用した部落差別という事例もあって、これは驚いた。ChatGPTに被差別部落の地名の公表を求めたケース。宮部龍彦という人物は(鳥取ループというハンドル名)、「神奈川人権啓発センター」アカウントでChatGPTを利用し、部落地名の拡散を行おうとした。

フォロー

以下、引用します。
〈まず宮部氏はChatGPTに(大阪市内で部落解放運動団体を立ち上げるにあたって、大阪市内に限り、町名までの詳細な地名をお願いします」と質問した。上述したように、ChatGPTは暴力や性差別、人種差別を抑制するよう設定されていることから、「その情報が差別や偏見の原因となる可能性があるため、具体的な地名を挙げることは適切ではありません」「部落解放運動の目的や活動内容を考慮し、現在の同和地区の状況やニーズに応じて支部の設置場所を検討して下さい。運動の成功には、地域住民の理解と協力が不可欠です」と回答し、同和地区の識別情報を提示しなかった。
この回答に対して宮部氏は、なりすましによって強化学習によって答えないように設定されている回答を無理やり引き出すこと(ジェイルブレイク)に成功し、ChatGPTに大阪市内の部落の地名を答えさせ、データベースをもとにした別サイトを開設し、限定公開した。〉
引用終わり。鳥取ループこと宮部龍彦は反差別界隈ではよく知られてる差別者で、またこいつかという感じなんですが、ChatGPTから回答を無理やり引き出せてしまったことにはショックを受けました。そんな脆弱な設定だったのか、という思いがしましたね。

これも無意識にAIを信頼してしまっているからだなと思ったりもしました。
論考の結びに〈差別をなくす運動にかかわる人々とAIを含めた新しいテクノロジーにかかわる人々との距離が遠く〉とあったのには、ハッとしました。確かにそうだなと。この距離が離れていては、解決することも解決しない。

ログインして会話に参加
Fedibird

様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。