AI兵器の国際規制議論~前編

世界の議題
スポンサーリンク

2019年9月27日赤口

「戦争の第3の革命」と危惧されているものがある。

第1は火薬、第2に核兵器。そして第3がAI兵器だ。

国連ではAI兵器「LAWS」(自律型致死兵器システム)と呼び、5年前から規制について議論(「CCW」:特定通常兵器使用禁止制限条約)を進めているが、意見対立が相次ぎなかなか一定の結論にたどり着かないのが現状だ。

ふとAI兵器と聞とくと、とてつもなく恐ろしいイメージが湧く。兵器ロボットがロボットの判断で戦争行為を行うようになる?危険な香りがする。

AI兵器といってもその対象は幅広い。例えば敵地偵察のためにドローンを飛行させるとしたら、これも一種のAI兵器と見なされるが、LAWS(自立型致死兵器システム)ではない。

 

LAWS=AIではなく、AIの中の一部と捉えるのが適切だろう。LAWSの定義も曖昧だ。

LAWS規制をどうするか、についての議論(CCW)の中身は、今後開発される兵器への説明責任を求めるということや、国際人道法の適用をすべきか、AIの平和目的の開発を妨げないこと、AI技術の監視機関の設置案など、10項目の原則が示されている。

 

現在、国連加盟国の過半数が法的に拘束力のあるルール作りを求めており、そのうちさらに28か国が明確な禁止条約の制定を支持している。

一方この規制に反対している国が6か国ある。

 

アメリカ
イギリス
オーストラリア
ロシア
イスラエル
韓国

 

既にAI兵器を開発しており既にAIを部分的に組み込んだ兵器を実践配備している国だ。

このように、一部の大国が多数の国の意思を妨げているのが実情だ。

AI兵器が戦場で実践配備されるようになるとしたら、いったい世界はどうなるか。

次回、このAI兵器の反対派・賛成派の見解をそれぞれ紹介し、考察を深めたい。

つづく

コメント

タイトルとURLをコピーしました