現在「生成AI」への規制の議論が急速に前景化しています。
他方、「自律型致死兵器システム」に関する議論はおろか、情報提供も現在の日本ではほとんど行われていません。
「自律型致死兵器システム」とは、簡単に言えば「ドローン」にAIを搭載して、AIの判断で「敵」を抹殺する兵器、またはそのシステムのこと。
例えば、イラクやアフガニスタンで「疑わしい場所」・「家」にまず「ヒト」の特殊部隊が突入するのではなく、AIを搭載したドローンを送り込み、AIの判断において「危険」と判断した「人間」を抹殺する。
あるいは超超高度からのAI搭載のドローンから、AIが危険だと判断した集会を爆撃。アフガニスタン空爆では「結婚式」を「テロリスト」の集会として空爆する例が相次ぎました。推進派は、AI搭載の爆撃編隊であれば、このような「誤爆」は避けられる、と主張。
またF16のような戦闘機のパイロットもAIによって大部分置き換えられとする。
勿論、このような空軍編隊を要所で監視・指揮するのは、「ヒト」であるわけですが、戦闘による米軍兵士の「消耗」は劇的に下がる、という訳だ。
一見SFのような話ですが、「実用化」の技術的可能性は十分にあると見られている。
これも可否を判断するのは結局「ヒト」の側となります。
生成AIやCHATGPTのもたらす「ビジネスインパクト」噺はともかくとして、やはりAIが可能にした「自律型致死兵器システム」については議論は避けられない。
現在すでに技術的に可能であるのは、米軍のイラク占領時の状況へのシステム導入。
イラク戦争のような「大義なき侵略戦争」の後、外国軍が長期支配する場合、支配された側の抵抗を「テロリスト」と「民間人」に分けるのは原理上難しくなる。
これは日本の中国侵略、仏のアルジェリア戦争、米のベトナム戦争、すべて同じ。
例えば、イラク駐留米兵にとって、「武器をもった少女」を認知した時の判断。
特殊部隊に所属、この状況に置かれたある人物は、瞬時に「敵」と認知したが、「少女」であることも認知したため、引き金を引かなかった。
実際には、同様の状況で「引き金を引いた」兵士の方が多いと思われる。現在の国際法では、それは「合法」。
しかし、現場で「少女」を射殺した場合、生身の人間は後でPTSDに苦しむことが多い。
この判断・射殺をAIにさせれば、当然PTSD問題は発生しない。
先の元特殊部隊員は、そのことをもって、「自律型致死兵器」に警鐘を鳴らす。
逆にこのシステム開発に勤しみ、米政府に売り込んでいるのも元特殊部隊員である。