キラーボットの軍拡競争はどのようなものになるでしょうか? キラーボットの軍拡競争はどのようなものになるでしょうか?

キラーボットの軍拡競争はどのようなものになるでしょうか?

キラーボットの軍拡競争はどのようなものになるでしょうか?

地平線上に現れた時、あなたを殺しに来るロボットは必ずしも戦闘機のような姿をしているわけではないだろう。カリフォルニア大学バークレー校のコンピューター科学者、スチュアート・ラッセル氏は、それは限定的で人間中心の考え方であり、今日の無人兵器にのみ当てはまると指摘する。プレデターとリーパーは、遠隔操縦と従来の飛行メカニズムを念頭に置いて設計され、空中戦で典型的な兵器、つまり人員だけでなく建物や車両の破壊にも役立つ強力なミサイルを装備していた。明日のより機敏で自律的な武装ロボットは、単に旧式の空爆のための最新鋭のツールではない。虐殺の媒介物となるのだ。

むしろ、今後登場する自律型致死兵器システム(LAWS)は、数千体、あるいはそれ以上の規模で出現するだろう。各ロボットは小型で安価、そして軽武装で、一度に一人の命を奪うのに必要な最低限の装備しか備えていない。こうした兵器の正確な性質を予測することは、空想的であると同時に不気味だが、自律型ロボットを戦場に配備するというテーマについて、私たちがどのように考えを改めるべきかを示すために、ラッセル氏は2つの仮説を提示する。「おそらく、人の眼球を撃ち抜くだけの威力を持つ小型の弾丸を発射できるだろう」と彼は言う。「30メートルから40メートル離れた場所からでも、容易にそうすることができるだろう。あるいは、成形炸薬を人の頭蓋骨に直接当てることもできるだろう。1グラムの爆薬で金属板に穴を開けるには十分だ。おそらくそれで十分すぎるだろう。」

ラッセルの予測は、集中的で効率的な殺傷力だ。しかし、この攻撃クラウドを擬人化し、小型の空飛ぶ狙撃兵や擲弾兵の群れとして想像するのは、また別の間違いだ。ラッセルは、十分な反復と革新があれば、LAWS軍拡競争で開発されるシステムは最終的に1個あたり10ドル程度まで安価になる可能性があると見積もっている。それらは自動化された戦闘部隊というよりは、誘導兵器の疫病に近いものであり、犠牲者の傍らにはイナゴの群れのように不活性で使い捨ての部品の跡を残すことになるだろう。そのような兵器を都市に解き放ち、武器のような物体を持っている者、あるいは単に特定の年齢層の男性全員を殺害せよという命令を下すのは、あまりにも安価で、抵抗するにはあまりにも効果的だろう。「この種の軍拡競争が最終的にどこに行き着こうとも、人類に勝ち目がないことは明らかだ」

ラッセル氏の懸念は、戦争の未来が単に不安をかき立てるもの、あるいは不公平なものになるというだけではない。本日ネイチャー誌に掲載された論評の中で、ラッセル氏は今年4月にジュネーブで開催されたLAWS禁止に関する国連会議で表明した多くの懸念を改めて表明している。その懸念の中には、自律型兵器が乱用される可能性、例えば戦争犯罪に利用される可能性、そして過剰使用の可能性などが含まれる。市街戦など、従来は死傷者が多い状況にロボットを送り込むことの明らかな魅力と、その潜在的な致死性が相まって、武力紛争を一方的な虐殺の連続へと変貌させかねない。「その危険性は大きい」と彼は記している。「LAWSは、火薬と核兵器に続く、戦争における第三の革命と呼ばれている」

「自律型致死兵器は、火薬と核兵器に続く戦争における第三の革命と言われている。」

自律型兵器をめぐる議論は、通常、誰が、あるいは何が殺害の決定を下すのかという点に集中している。ヒューマン・ライツ・ウォッチをはじめとするこの技術に反対する団体は、ロボットが自ら標的を選択できるようにすることの利点(例えば、距離や地形によって操縦者とドローン間の通信が途切れる場合など)を考えると、こうしたシステムの導入は避けられないとしばしば警告してきた。一方、軍関係者は、これらの機械に意志は存在せず、指揮官は常に人間が「ループに入り」、特定の標的への攻撃の最終命令を出すことを望んでいると主張する。しかし、防衛産業はそれでもこの能力の実現に向けて動いている。防衛関連企業BAEシステムズが開発中のステルスドローン「タラニス」を説明する際に用いたマーケティング用語には、「完全自律性」というフレーズが含まれている。

ラッセル氏はネイチャー誌の記事の中で、ドローンの自律性を大幅に向上させることを目指すDARPAの2つのプロジェクトを挙げている。高速軽量自律(FLA)プロジェクトは、小型無人システムが混雑した環境を自律的に航行する方法を開発しており、一方、非劣勢環境における協調作戦(CODE)プログラムは、自律戦闘への関心を明確に示している。「オオカミが最小限のコミュニケーションで群れをなして狩りをするように、CODE対応の複数の無人機が協力して標的を発見、追跡、識別、攻撃する。これらはすべて、1人のミッションスーパーバイザーの指揮下で行われる」と、DARPAのプログラムマネージャー、ジャン=シャルル・レード氏は今年初めのプレスリリースで述べている。

人間の監視員の存在は言及されているものの、標的への攻撃はCODEプログラムの一部であり、無人機が自律的に行​​動せざるを得ない状況に対処することを目的としたものである。「彼らは、あちこちに、監視員に関する隠れ蓑のような言い訳を挟む傾向がある」とラッセル氏は言う。「しかし、彼らは関心を持っていると思う。そして、禁止措置がなければ軍拡競争が起こり、LAWSが使われるだろう」。実際、彼はLAWSが既に配備されていると考えている。イスラエルの無人機「ハロップ」は、敵のレーダーサイトを捜索しながら、一定地域上空を徘徊するように設計されている。特定の放射線源を検知すると、システムが自動的にそこに衝突し、弾頭を爆発させる。「これは一線を越えているように思える」とラッセル氏は言う。「これは無差別攻撃の可能性がある。パレスチナ人が混雑した学校にレーダーシステムを設置し、イスラエルに戦争犯罪を犯させるのも想像に難くない」

しかし、たとえLAWSが完璧に機能し、何らかの形で戦場の霧を切り抜け、大規模な友軍誤射や本格的な自動化された残虐行為を回避できたとしても、核兵器と重要な類似点を持つ可能性がある。圧倒的な破壊力を持つ核攻撃に対して有効な防御手段は存在しない。ラッセル氏は、自律型兵器が成熟すれば、同様に止められなくなり、冷戦時代の核対立における危うい終末論的な地政学を再び生み出すだろうと主張する。各国がこれらのシステムを定義し、禁止し、エスカレーションを未然に防ぐという複雑なプロセスを開始しなければ、暗雲がいずれかの都市に迫ってくるのは時間の問題だとラッセル氏は懸念する。「人々は対抗策を思いつくだろう」とラッセル氏は言う。「何らかの電磁兵器、あるいは自前の対ドローンの雲を送り出すかもしれない」しかし、彼の分析が正しく、LAWS の軍拡競争が大規模な集団を標的とした数百万単位の集団でピークに達した場合、自律型大量破壊兵器に相当するものに対して有効なものはあるのでしょうか?

ラッセルは少しばかりわざとらしく笑った。「知りたくないような気がするんだ」