東京, 1月23日, /AJMEDIA/
ロボットが勝手に、自らの意図をもって人間を殺傷する――。高度化が著しいAI(人工知能)兵器は、一歩間違えれば、こんな映画のような世界に通じる。
国際社会は規制の必要性ではおおむね一致するが、国連を舞台にした交渉はなかなか進展しない。優秀な技術を有する米中露など各国には、AI兵器が自国の軍事的優位を保つ決め手となるとの認識があり、規制に及び腰だからだ。そんな中、より強力な新型兵器の開発の可能性さえ取り沙汰される。
冷戦時代・冷戦後に構築された軍縮の枠組みが限界を迎える中、世界はAI兵器を規制できるのか。国連での交渉を2014年の開始当初からモニターし続けてきた佐藤丙午・拓殖大教授に聞いた。(調査研究本部 大内佐紀)
疲労や逡巡と無縁。21世紀の戦争の「ゲーム・チェンジャー」
AI兵器の前段階である無人兵器は21世紀に入って拡散が著しく、今や約130か国が何らかの無人機能を持つ兵器を保有します。イスラム過激派などの組織も民生用ドローンの軍事利用を進めています。
無人兵器といえば、偵察のほか爆発物を積んで標的に陸海空から突入するドローンが思い浮かぶのではないでしょうか。実際には、潜水艦や戦車など、あらゆる兵器の無人化が進み、性能も格段に上がっています。
ドローン技術の開発と輸出で最近、目立つのはトルコです。旧ソ連のアゼルバイジャンとアルメニアは長らく領土紛争を繰り返していますが、2020年9月にアゼルバイジャンが決定的勝利を収めた。この勝因はトルコ製の偵察型と攻撃型の無人機とされています。アゼルバイジャンはトルコから買った無人兵器を使ってアルメニアの防空システムや戦車を破壊していった。
無人兵器がAIによって管制されるようになれば、いわゆるAI兵器になります。AIは短時間で無数の情報を処理し、人間が事前に設定したアルゴリズムに従って動きます。そこでは、人間が経験するような疲労や、 逡巡といった感情とも無縁です。無人兵器システムより 精緻かつ複雑で、自軍のコストを小さくする攻撃を行うことが可能になります。
その結果、指導者が武力攻撃を決断するハードルが下がりかねない。火薬と核が戦争の形態を根本から変えたように、AI兵器が21世紀の戦争の「ゲーム・チェンジャー」と指摘されるゆえんです。
AI兵器には、「半自律型」と「完全自律型」があります。人間の関与が全くないまま、AIが標的を選び、攻撃する完全自律型については、「あまりに危険だ。認めてはならない」という国際社会のコンセンサスがあり、保有を公言する国はありません。
人間が一定程度は関与する半自律型については米中露、イスラエル、韓国、英国など、かなりの国が保有するとみられています。完全自律型と半自律型の倫理上のギャップは非常に大きいが、技術的な壁はそれほど高くないとも言われます。しかも、半自律型を所有する国は、「AI兵器の技術開発を進める」という方針を大なり小なり示している。
開発の 全貌はいずれの国でも最高機密です。相手の実態がわからないから、疑心暗鬼に陥る。
そんな中、関係国が注視するのが中国です。軍民融合型の開発ができるから、相乗効果が発揮され、何が出て来るのか見通せない。
ロシアは脳科学を利用した兵器システム開発を公言しており、早期の実戦配備が警戒されています。人口1・5億弱で経済力も停滞気味の国が、3億強の米国や14億の中国に劣るマンパワーをAIで補いたいと考えても不思議ではありません。
さて、日本はどうか。自衛隊もF2戦闘機の後継機には遠隔操作型のAIを装備し、無人機との連携が可能なシステムを導入することを検討中です。つまりF2が切り替わる40年代には、日本でもAI兵器システムが実用化される可能性が高まっている。
中露韓に加え、開発に関心を示す北朝鮮。周辺国のAI兵器に、日本だけが有人機で対応するのは無謀です。周辺国のAI兵器の導入ペースにある程度合わせざるを得ない。次世代兵器の製造コストや人口減を勘案すると、無人化とAI推進は必然でしょう。
相互不信の中で「規範」作り。軍縮交渉の将来を占う
「ロボットは人間を殺傷してはならない」――。「ロボットは人間の命令に服従しなければならない」などとともに、SF作家アイザック・アシモフが定めた「ロボット3原則」は広く受け入れられる社会通念です。人間の関与しない兵器が標的を選び、 殺戮
さつりく
することはあってはならない。そこで、キラーロボット(殺人ロボット)と俗称される「自律型致死兵器システム(LAWS)」については、国連の特定通常兵器使用禁止制限条約(CCW)の枠組みで、2014年からジュネーブで規制交渉が始まりました。
19年の政府専門家会議でようやく、標的選定と攻撃に関与する兵器システムの配備を規制する必要性で合意し、その際に既存の国際人道法を援用するというコンセンサスは得られた。LAWSが人を殺傷すれば、それを所有する人間や組織、国に責任が生じることでも一致した。
しかし、何をどう規制し、どう査察するのか、合意に法的拘束力を持たせるのかといった軍縮交渉の基本ラインが見えてこない。さらに、既存の国際人道法で十分なのかという主張もある。
中露両国とも、米国の通常の軍事力に対する非対称の分野で優位を獲得する上で、AIが決定的役割を果たすとみて、開発に注力しています。当然、米国も対抗する。AI兵器システムの先進国は規制に慎重な態度を崩していません。
最近ではLAWSの規制に意味がなくなるという見方さえ出てきました。人を殺さずに無力化するような新型兵器が出現し、既存の国際人道法では完全に違法とはいえないかもしれない事態が想定されるからです。
例えば、子どもが一時的にできなくなる薬を作る。蚊のようなサイズの極小兵器を大量に製造し、この薬を搭載し、特定の民族を狙う。子孫ができなければ、その民族はいずれ消える。
歴史上、ジェノサイド(集団殺害)は常に残虐だったが、血みどろではない民族浄化が視野に入った。光や音を使った人の無力化も夢物語ではないのです。
では、自律型AI兵器などによる危機をどう防げばいいのか。
核兵器が実用化された時も、「世界が終わりかねない」という危機感から、米露2国間や、核実験全面禁止条約(CTBT)など多国間の関連条約ができた。ただ、核が広島、長崎を最後に戦争で使われていないのは、条約がなくても「核は使ってはならない兵器だ」という見識が、国際規範になったからだという説があります。
今の軍備管理・軍縮の枠組みは明らかに行き詰まり、限界を迎えています。最近の成功体験といえば、昨年1月に発効した核兵器禁止条約のような、「持てない国」の有志による規範作りです。
LAWS交渉でも、「規範」という言葉をよく耳にします。相互に不信感がある中での規範作りは至難の業ですが、AI兵器規制の放棄は危険過ぎる。世界の専門家とも意見交換していますが、国際人道法の規制にせよ、法的拘束力のある新条約の制定にせよ、LAWS交渉の行方は今後の軍縮交渉のあり方を占うものになっています。