BT

このNHKの記事では、殺すところまで自動で行う“究極のAI兵器”について問題にしています。

ガザでイスラエルが使用しているというAIシステム「ラベンダー」では、最後にその人物を殺すかどうかの判断は人がおこなうため、かろうじて“究極のAI兵器”には至っていません。

が、AIが標的を選び、人間は最後に承認の「ハンコを押すだけ」。

一件につきせいぜい20秒程度しか考える時間がない、と+972マガジンの記事では指摘されています。

現実がここまで来ているのだから、国連軍縮部門は規制する範囲を広げて検討してほしいと思います。

※「ラベンダー」の問題点については、まず解説記事を読むことをおすすめします。

〔解説〕
「ラベンダー」:ガザの3万7千人を標的化するAIマシーン イスラエル独立メディア+972マガジンが調査報道
note.com/yasunorikawakami/n/ne

+972マガジンの記事
〔原文〕‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza
972mag.com/lavender-ai-israeli

〔全訳〕「ラベンダー」:イスラエルのガザ爆撃を指揮するAIシステム
note.com/camomille0206/n/n4694

ログインして会話に参加
Fedibird

様々な目的に使える、日本の汎用マストドンサーバーです。安定した利用環境と、多数の独自機能を提供しています。