BT
このNHKの記事では、殺すところまで自動で行う“究極のAI兵器”について問題にしています。
ガザでイスラエルが使用しているというAIシステム「ラベンダー」では、最後にその人物を殺すかどうかの判断は人がおこなうため、かろうじて“究極のAI兵器”には至っていません。
が、AIが標的を選び、人間は最後に承認の「ハンコを押すだけ」。
一件につきせいぜい20秒程度しか考える時間がない、と+972マガジンの記事では指摘されています。
現実がここまで来ているのだから、国連軍縮部門は規制する範囲を広げて検討してほしいと思います。
※「ラベンダー」の問題点については、まず解説記事を読むことをおすすめします。
〔解説〕
「ラベンダー」:ガザの3万7千人を標的化するAIマシーン イスラエル独立メディア+972マガジンが調査報道
https://note.com/yasunorikawakami/n/ne67bb44e7af3
+972マガジンの記事
〔原文〕‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza
https://www.972mag.com/lavender-ai-israeli-army-gaza/
〔全訳〕「ラベンダー」:イスラエルのガザ爆撃を指揮するAIシステム
https://note.com/camomille0206/n/n4694b721d4b6