判断ベースになるデータセット(サンプル)に偏りがあったり、中身の区分けをする人間に偏見があるとそれが影響しちゃうんですよね… 
jst.go.jp/tt/journal/journal_c

@minamikuma
めっちゃ勉強なるやつ貼ってくるやんありがとう!_〆(Nω≦ )

「人間ではなく機械が決定を行うのだから、人間がするよりも公平だと考えている人もいるかもしれない。しかし、もしAIが人種差別主義者だったり、性差別主義者だったり、危険思想に親和的だったりしたら、どうなるだろうか。」

「ほかにも、Microsoftが提供する画像データセットを利用した画像認識ソフトでは、台所用品はより女性に関連付けられやすく、アウトドアスポーツは男性に関連付けられやすい。読み込んだデータと比較しても、ソフトウェアは画像をより強く一方の性別に関連付けた結果を出すため、ステレオタイプを増幅しさえする。
つまり、画像認識ソフトは古くからあるジェンダー・ステレオタイプを学習し、再生産していく。もしこういった問題をはらんだまま、AIロボットが生活の身近な存在となったら、どうなるだろう。」
jst.go.jp/tt/journal/journal_c


AI自体よりも「AIは機械なのだから人間と違って完璧!無謬!」
とか考える奴がいそうなのが怖いっすね

「これが絶対的な基準だ!」って他人を判定するのに使ったり(人事評価とかに入ったら目も当てられん)
抗議したら「機械が間違うはずがない!」とか絶対言うよ…もう今から見えるよ……

フォロー

@GB0FakeWat @minamikuma
結局道具で最後に判断すんのは人間やのに
扱うスキルが足りてへんやつがご神託扱い、ヤバイな

性別とかやったら人間も気づけて抗議できるかもやけど
何かヘンな偽相関とかやったらどうなるんや

ログインして会話に参加
Fedibird

様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。