部落解放8月号の特集〈「AIと差別」の最前線〉、とても良かった。宮下萌による〈「AIと差別」の見取り図〉は非常にわかりやすく、かつ問題が具体的に書いてあるのもよかった。
事例として、Amazon採用事例が紹介されていた。これは十年間で提出された履歴書が教師データとなり、そのほとんどが男性からの応募だったためAIは男性を採用することが適していると認識してしまった。これは性別を対象とせずにデータを学習しても問題は解決しない。なぜなら履歴書には女性であることを伺わせるキーワードがあるため。「女性チェス部の部長」や「女子大卒業」などの記載によって評価が下がる傾向にあった。AmazonはこのAIの開発を中止した。
あとは、ChatGPTを悪用した部落差別という事例もあって、これは驚いた。ChatGPTに被差別部落の地名の公表を求めたケース。宮部龍彦という人物は(鳥取ループというハンドル名)、「神奈川人権啓発センター」アカウントでChatGPTを利用し、部落地名の拡散を行おうとした。
これも無意識にAIを信頼してしまっているからだなと思ったりもしました。
論考の結びに〈差別をなくす運動にかかわる人々とAIを含めた新しいテクノロジーにかかわる人々との距離が遠く〉とあったのには、ハッとしました。確かにそうだなと。この距離が離れていては、解決することも解決しない。