米国バイデン大統領が離日しました。日本での記者会見で台湾有事に際して米国が軍事的コミットメントすると明言したことは、当然ながら非常に大きな意味を持ちます。さっそく中国は反発しています。米国当局は2027年に中国が台湾侵攻に踏み切るとの分析をレポートしています。物騒な話ばかりですが、現実逃避はできません。安全保障関係の情報も一層注視していきます。
1.負の側面(ダーク・サイド)
ロシアのウクライナ侵攻は戦況の節目を迎えている感じです。東部マリウポリのアゾフスターリ製鉄所はロシア軍に制圧され、ウクライナ軍アゾフ大隊の兵士が投降。一方、ウクライナ側は「アゾフ大隊の任務は終了した」との意味深な声明を発表。
ロシア軍優勢のようにも思えますが、ロシア軍を東部に張り付けておくことがアゾフ大隊の役割だったと考えられます。その間にウクライナ軍が欧米諸国から兵器供与を受け、反攻準備が整ったということでしょうか。
他の地域ではロシア軍の苦戦も伝えられており、ウクライナ軍の予想以上の頑張りで全体としては膠着状態のようです。
個人的には、ロシア軍が苦戦を強いられると、やがてLAWS(ローズ)を投入するだろうと予想していましたが、今のところその情報はありません。
とくに昨年、ロシア軍が「ウラン9」というLAWSの訓練動画を初公開していたことから、ウクライナ侵攻が始まった当初は「なるほど、ウクライナ侵攻を前提にウラン9の動画を公開したのか」と妙に腑に落ちました。
LAWSとはAI(人工知能) の判断で自律的に動く「自律型致死兵器システム」(Lethal Autonomous Weapon Systems<LAWS>)の略称であり、別名「キラー(殺人)ロボット」と呼ばれています。
AIの急速な進化により、AIが自律的に操作する無人兵器の実戦配備が現実化し、米露中を筆頭にフランス、イスラエル、韓国等、10数ヶ国がLAWSの開発を進めています。
LAWSが実戦配備されれば、火薬、航空機、核兵器に次ぐ軍事技術の「第4 の革命」です。戦争の様相も概念も根本的に変える可能性が高く、「AIに人命を奪う判断を任せてよいのか」「その場合の責任は誰が負うのか」等の議論が既に行われています。
ニューヨークに本部を置く人権NGOであるHRW(Human Rights Watch)は、2012年のレポートで30 年以内にLAWSが実用化されると予想。その後の技術革新はHRWの予想をはるかに超えるスピードで進み、もはや実用化の段階です。
2014年から特定通常兵器使用禁止制限条約(Convention on Certain Conventional Weapons<CCW>)の枠組みの中で、非公式専門家会合としてLAWS規制の国際的議論がスタートしました。
核兵器、化学兵器、生物兵器以外の通常兵器の使用制限を定める国際合意としては、古くは1868年のサンクトペテルブルグ宣言のほか、1899年のダムダム弾禁止宣言やハーグ陸戦条約があります。
ハーグ陸戦条約では「不必要な苦痛を与える兵器」の使用が禁じられましたが、「不必要な苦痛」とは何でしょうか。この種の議論から、人間社会の暗澹たる未来が垣間見えます。
LAWSに関する上述の非公式専門家会合は2017年から公式の政府専門家会合に格上げ。論の結果、2019年のCCW締約国会議で11項目の指針が全会一致で採択されました。
国連のグテーレス事務総長は2020年1月22日に行った所信表明演説で、21世紀の脅威として、地政学的緊張、地球温暖化、グローバル規模での政治不信、科学技術発展の「負の側面」(The dark side of technology)の4つを挙げました。
このうち、科学技術発展の「負の側面(ダーク・サイド)」に関連して、事務総長は「AIは人類に大きな進展とともに大きな脅威をもたらしている。人間の判断を介さずに殺人が行えるLAWSは、倫理観と政治的観点から受け入れられない」と発言。
この時期、世界はコロナ禍に関心が集中し、あまりニュースにもなりませんでしたが、事務総長が所信表明でLAWSに言及したことは、事態が逼迫していることを示唆しています。
LAWSの開発・運用指針に関して、核兵器等を巡る国際力学と同様に、各国の利害対立が表面化しています。
中南米やアフリカを中心とする非同盟諸国グループは、LAWSに対する法的拘束力のある規制や条約化を求めています。
米露は既存の国際人道法で規制可能であるとし、新たなLAWS規制には反対。
2030年にAI世界一を目指す中国は、規制対象となるLAWSの定義を「人間が制御できない兵器」「自ら進化する兵器」に限定することを求めています。
日本や仏独は法的拘束力のない政治宣言等の形式での規制を主張。その立ち位置と目標が曖昧な印象です。そのうえで日本は「LAWSは開発しない」という方針を表明済。先走った感があります。
「開発はしないが、米国から購入する」のであれば、開発するのと同じことです。現在の安全保障環境を鑑みると、独自の技術力を持つことは必要でしょう。
2.アトラス
CCW締約国会議で合意に至った11指針の冒頭には「国連憲章、国際人道法、倫理に従う」とする一方、「将来の議論の結果に予断を与えるものではない」との条件が付されています。
そのうえで、第1項、第2項では、国際人道法は全ての兵器システムに適用され、LAWSの開発、使用においても例外ではないとし、LAWSに関する説明責任は常に人間側にあるとしています。
第3項は、LAWSが自律的に稼働している場合でも、人間とのインターフェースを確保し、重大なエラーや第3者に支配される事態に陥っても、人間による制御や機能停止が可能とすることを求めています。
第4項は、人間による命令及び指揮系統が確保されることを要求。第2項、第3項に通じ、第5項ではそうした条件をチェックするLAWSの法的審査の原則を謳っています。
第6項は、LAWS不拡散対策、及びテロ対策について。とくに、ハッキング、スプーフィング攻撃への対策が具体的に挙げられています。第7項はそうしたリスクのアセスメント及びリスク低減措置の必要性についてです。
スプーフィング攻撃(spoofing attack)は、不正プログラムによって攻撃者を別の人物や組織に見せかける「なりすまし」。動詞「spoof」は「だます」という意味です。
第8項ではLAWS関連の新技術使用時には、国際人道法及びその他の国際関連法規や義務に合致する必要性を求めています。
第9項は、LAWS規制が擬人化のイメージに囚われることに警鐘を鳴らしています。映画「ターミネーター」等の影響により、LAWSは擬人化を想定した議論になりがちです。しかし、実際のLAWSの姿は擬人化が前提ではなく、機能や性能に着目した実質的規制の必要性を指摘しています。
第10項では、LAWSに関連する新技術の平和的利用の権利を保障し、デュアル・ユースを妨げないことを指摘。最後の第11項は、軍事的必要性と人道的考慮のバランスの重要性を強調しています。
総じて言えば、LAWSの開発・配備・使用の全てにおいて人間が関与すること、新技術の平和的利用を妨げないこと等を定めています。
上述のとおり、AIの急速な進化によって想定より早くLAWSは戦力化しています。ディープラーニング等によるAIの自己学習、深層学習の成果です。
LAWS は生身の兵士が死傷するリスクが減るので良いという指摘と、逆に自軍の死傷者数を減らすことができるため、戦争のハードルが下がるとの指摘があります。
また、AI の判断は人間のように恐怖心や復讐心、興奮、錯乱等の情緒に影響されず、誤爆や民間人の犠牲が減ることから、むしろ人道的であると主張する専門家もいます。
核兵器は非人道的兵器だとする日本と、戦争の早期終結に寄与し、結果的に戦争犠牲者を減らしたとする米国の主張との対立を彷彿とさせます。
AI固有の問題も惹起します。故障や誤作動、将来的には人間に対する反乱を懸念する科学者もいます。
現時点では「ターミネーター」のような擬人化された完全なLAWSは存在しないと言いたいところですが、ボストン・ダイナミクス社が公開している「アトラス」の動画を見ると驚愕します。既に人間の運動能力を超えた人型AIロボットです。
3.KARGU(カルグ)2
AIを搭載し、機能の一部を自動化した兵器は既に存在し、実戦配備されています。以下、無人兵器やLAWSの分類と現状を整理します。
第1は「半自動型兵器」。人間が攻撃対象を設定し、攻撃開始も人間が指示しますが、途中過程や攻撃そのものが自動化された兵器。様々な兵器が実戦配備されていますが、LAWSには含まれません。
例えば、巡航ミサイル。発射後に目的地まで自動飛行しますが、目的地設定と目標破壊の最終判断は人間が行う「半自動型兵器」です。
第2は「自動型兵器」。この段階もLAWSには含まれないという定義で議論が進んでいます。「自動型兵器」は人間ではなく、プログラム(広義のAIも含む)が攻撃目標を認識し、攻撃を開始します。
但し、攻撃はプログラムに設定された範囲内であり、「自動型兵器」ではありますが「自律型兵器」ではありません。プログラムを作成するエンジニア(人間)が攻撃目標及び攻撃の判断基準を設定しているという整理です。
「自動型兵器」も既に実戦配備されています。例えば、イスラエルの無人攻撃機「ハーピー」。自爆型ドローンとも呼ばれ、攻撃対象の地理的情報等を入力して発射。遠隔操作なしに対象地域上空に到達し、旋回しながら標的を捕捉。接近して自爆します。
ロシアの無人戦闘車両「サラートニク」。機関銃、カメラ、レーダーを装備し、標的を識別して攻撃します。これが先週紹介した「ウラン9」の原型です。
米国の無人艦船「シーハンター」。海上を数ヶ月自律航行して、敵の潜水艦を探知・追尾します。韓国の哨兵ロボット「SGR」。北朝鮮との軍事境界線沿いに配備されており、敵兵士の動きを自動感知し、射撃します。
第3は「自律型兵器」すなわちLAWSです。「自律型兵器」には「メタ目的」が与えられます。「メタ目的」とは、より高次元または抽象的な目的のことであり、「この地域を確保せよ」「戦況を打開せよ」といった命令になります。
「自律型兵器」は「メタ目的」を達成するために、状況や環境に対応して、どのように行動するかを自ら考え、最終判断します。「メタ」とは「超越した」「高次の」という含意の古代ギリシャ語の接頭語です。
LAWSが複数連動する「集団自律型兵器」の場合、仮に全面戦闘状態になると、定義上、人間は全く制御できません。「ターミネーター」で「ジェネシス」が意思をもって戦争をエンドレスに継続するようなケースです。
もっとも、第2の「自動型兵器」も制御不能になる危険性があります。「自動型兵器」が複数連動する「集団自動型兵器」もプログラムが想定外の事態に遭遇して暴走する危険性が指摘されています。
システム取引中心になっている金融証券市場で、プログラム売買が暴走して暴落が起き、市場閉鎖せざるを得なくなるような事態と一緒です。金融証券市場では実際にそうした事例が発生しており、フラッシュ・クラッシュ(瞬間的暴落)と呼ばれます。
金融証券市場は閉鎖で事態を収束できますが、兵器のフラッシュ・クラッシュの場合、一方がシステムを止めても、相手が止めない限り、再び戦闘開始となります。そもそも、システムを止められない場合も想定されます。
こんなことを現実に懸念しなくてはならない状況となり、科学者や企業の間でもLAWSに反対する動きが顕現化。2018年7月、国際人工知能学会はLAWSの開発・生産・取引・使用を行わないことを宣言し、米グーグル傘下のAI開発企業など160社、2400人のエンジニア等が署名しました。
こうした話を聞くと、人間社会の未来にも希望が持てるような気がしますが、現実の世界は希望が持てるような方向には進んでいません。
昨年12月17日、コロナ禍で中断していたCCW締約国会議(120ヶ国参加)での議論が再開されましたが、LAWSの開発や使用制限について合意に至らず、対策強化に努めるというほとんど意味のない結論で終わりました。
昨年3月公表のLAWSに関する国連安保理専門家パネルの報告書の中に、2020年3月にリビア内戦で人類史上初の完全LAWSが使用された事実が記されています。
トルコの支援を受けていたリビア暫定政府軍が戦場に投入したトルコSTM社製の「KARGU(カルグ)2」というドローン型LAWSです。攻撃目標の選定、攻撃決定、実行を自ら判断したということです。
しかし、そこに至るまでの間にもLAWSに近い兵器が投入されてきました。その端緒はやはり無人攻撃機です。
2002年12月、スティンガー(携帯式防空ミサイルシステム)で武装した米軍のMQ1プレデターがイラク軍のロシア製MIG25と交戦。史上初の無人機と有人機の交戦です。その後はイラク側も中国製無人攻撃機を導入しました。
2014年のリビア内戦では、暫定政府側のトルコ製無人攻撃機「バイラクタルTB2」とリビア国民軍側の中国製無人攻撃機「翼竜」が交戦。史上初の無人機同士の空中戦です。
ここまでは無人攻撃機のオペレーションに人間が関わっていましたが、上述の2020年3月に使用された「KARGU(カルグ)2」は発進後に人間は関与していないということです。
ロシアのショイグ国防相は「魂なき軍隊」と命名したLAWSによる部隊を編成する方針を表明しています。その一端が昨年秋の軍事演習「ザーバド2021」で明らかになり、先週お伝えした「ウラン9」の動画が撮影されました。
もっともロシアの「ウラン9」よりも米中が先行しています。2007年に米軍がイラクに配備した「SWORDS」はM249軽機関銃を登載した無人ロボット車両。これをAI制御すれば「ウラン9」と同じです。既にそうなっていると考える方が現実的でしょう。
2016年、イラク軍もIS(イスラム国)との戦闘に中国製77式重機関銃とロシア製ロケットランチャーを装備した中型無人武装ロボット車両「AIROBOT」を投入しました。
LAWS専門家のひとりであるMIT(マサチューセッツ工科大学)のマックス・テグマーク教授は「技術は軍事政策の議論よりもはるかに早く発展している」と警鐘を鳴らしています。
プーチン大統領は核兵器の使用も辞さない姿勢を示して米欧日を中心とした反露諸国を威嚇していますが、LAWSの使用状況についても注視すべきでしょう。
なお、日本でも有人戦闘機とドローンが編隊を組む計画が具体化しています。母機となる戦闘機1機につき3機のドローンを編隊化し、空中戦での支援・援護に当たらせる構想です。(了)