問われるAI原則、AI倫理、信頼できるAI、責任あるAI
Google、ETH Zurich(チューリッヒ工科大学)、NVIDIA、Robust Intelligenceに所属する研究者らが発表した論文「Poisoning Web-Scale Training Datasets is Practical」は、トレーニングデータセットの一部を改ざん(毒を仕込む)して、機械学習モデルを攻撃する手法を提案した研究報告が注目されています。「データポイズニング」(Data poisoning)と言われ、大規模言語モデル(LLM:Large Language Model)の「生成系AI」に意図的に差別や偏見、バイアスなどを生じさせて、追跡しにくい手段で「AIの意思決定」に影響を与えようとするものです。「AI原則、AI倫理、信頼できるAI、責任あるAI」などが問われ国際的にも一層重要になってきました。