AIの判断を参考に「保護しなかった」女児が死亡した事件の続報。
"国も三重県のようなシステムの開発を進めており、24年度から全国の児相で順次運用を開始する。こども家庭庁の担当者は「ただでさえ手いっぱいな児相の職員の負担を減らすことができれば」"
感想:危ない発想だ。機械学習に基づくAIの動作は統計的・確率的。ある割合で間違える。
そして機械に責任能力はない。「間違えるかもしれない判断の責任」は、人間でなければ引き受けられない。
EUは、人権に関わる事柄を機械処理で判断することをGDPR、AI法の両方で禁じている。
https://mainichi.jp/articles/20230915/k00/00m/040/304000c