AIの使用について、「面白〜い!」というだけでは済まない時代になっている。なぜなら、AIの技術は、すでに軍事利用されるようになっているからだ。先日、大阪大学の工藤郁子(フミコ)特任准教授の話を聞いたので、以下共有したい。
AIの軍事利用としては、例えば、自動迎撃などミサイルの誘導、ドローンの操縦といった兵器の制御、衛星画像の解析や仮想敵の動きを予測といった情報の分析、戦況シュミレーション、作戦や計画の策定といった意思決定の支援、攻撃検知や防御といったインターネット上のサイバー戦といったことで、すでに利用されている。
そのような趨勢にあって、今回注目されたのは、AnthropicのAI技術が、米軍によるベネズエラのマデュロ大統領拘束に間接的に利用されたことだ。
このAnthropicは、ChatGPTの社員たちの中で安全性の方針についての対立があり、ChatGPTの安全性や倫理性を問題視したメンバーが、2021年に新たに立ち上げたAIの公益法人だ。「Claude(クロード)」というAIチャットボットを提供している。
そのため、今回の国防総省のAnthropicのAI技術の利用は、「暴力の助長」「兵器の開発」「市民の監視活動への使用を禁止する」という自社の利用規約に反するとして、国防総省(最近では、戦争省と自称しているが・・・)の契約違反であり、国防総省の軍事的あらゆる利用には応じられないと指摘。国防総省への協力は続けたいが、「人間の介入なしに標的を選定・攻撃すること、完全自立兵器、アメリカ国民の監視について自社のAIは使用しない」という自社の原則は維持することが前提であると表明した。
これに対して、国防総省は「どんな企業にも軍事上の判断を指図することは許さない」と表明、トランプ大統領は「急進左派の一企業が、偉大な軍に闘い方を指図することは決して許さない。我々は、欲しくもないし、二度と取引はしない。」とSNSに投稿。Anthropic社を政府機関で使用しないよう指示し、閉め出そうとした。
しかし先日、カリフォルニア州の連邦地方裁判所は、「この国防総省の判断は、不当な報復であり違法である」という判決を下した。
そんな中、ChatGPTが名乗りをあげ、国防総省へのAI提供を発表。国防総省は、Anthropicとの契約終了を表明し、Open AIに切り替えると表明した。
そこでユーザーが反応。ChatGPTの利用をやめAnthropicへの乗り換えの動きが急速に起きている。ChatGPTのアルトマン氏は、「発表を急ぐべきではなく誤りだった」と認め、軌道修正したという。(というか、この人いつもこのパターン。)
今後、AIをどう利用していくかについては、国際ルールをどう制定するかが問題だと工藤准教授は指摘する。
国連ではすでに検討が進んでおり、私も注目してきた。2023年には、日本を含む152カ国が「AI兵器に国際法が適用される」ことを確認する決議を採択。
また数年前から、LAWS(自律型致死兵器システム)の規制について検討が進められており、今年2026年までに法的拘束力のある国際ルール(条約)を設けることを目指している。昨年には、安保理で初めて、AIをテーマにした会合が開催されている。
現在の、アメリカとイスラエルによるイランへの攻撃でも相当にAI技術が使用されていることから、規制の動きが加速してほしいと願っている。
ただし、工藤准教授は、仮に、民主主義国家側がAIの軍事利用を制限・禁止しても、ロシアや中国などの国では、開発がどんどん進んでいくだろうと指摘。また(一般の私たちが使用している情報を利用した)生成AIの汎用性や普及性を基盤にして、軍事的に利用されりようになっている。そして最後に、「AIはミサイルや核と同じ重要性をもつようになっている」という点を指摘していた。その通り!
これまでの紛争が予期していない、新たな技術の出現と、新たな「行為主体が問われる事態」に対して、私たちは、早急に、安全性、倫理、法など、あらゆる面から検討・判断し、規制(ルール)の制定に動かなければならない。
注目したい。


コメント