研究者たちはAIが起こしうる最悪の事態を事前に想定しようとしている 研究者たちはAIが起こしうる最悪の事態を事前に想定しようとしている

研究者たちはAIが起こしうる最悪の事態を事前に想定しようとしている

研究者たちはAIが引き起こす最悪の事態を事前に想定しようとしている

フィクションには邪悪なロボットが溢れている。『バトルスター・ギャラクティカ』のサイロンから、 『ブレードランナー』の復讐心に燃えるレプリカント、そして人類を滅ぼしたあの象徴的なターミネーターまで。しかし、これらはすべて善意から作られたロボットであり、その恐ろしい暴力性は、その明確な目的ではなく、設計上の予期せぬ結果である。

もし人間の愚かさではなく、人間が意図的に悪意を持って設計したために人工知能が危害を加えたとしたらどうなるだろうか? イーロン・マスク氏が一部資金提供した新たな研究は、意図的に悪意を持った機械の可能性を検証している。

ルイビル大学のローマン・V・ヤンポルスキー氏と未来学者フェデリコ・ピストノ氏による「非倫理的な研究:悪意ある人工知能の作り方」と題されたこの短い論文は、能動的に悪意のあるプログラムによって人がどのような害を及ぼす可能性があるかを考察している。なぜだろうか?それは、DARPAが人々に裏庭で新しい武器を開発するよう求めたのと同じような理由からだ。つまり、平和的な研究を通して今脅威を見つける方が、後にそれが攻撃的な攻撃に使われてから適応しなければならないよりも良いからだ。

ピストノ氏とヤンポルスキー氏は何を発見したのだろうか?悪意あるAIを生み出す可能性のあるグループのリストは、おなじみのものから始まる。軍隊(支配権を握るためにサイバー兵器やロボット兵士を開発している)、政府(AIを用いて覇権を確立し、人々を支配し、あるいは他の政府を打倒しようとしている)、企業(独占を達成しようとし、違法な手段で競争相手を破壊しようとしている)、そしてブラックハットハッカー、悪役、終末論を唱えるカルト、犯罪者などが含まれる。そして、AIは様々な場所から生まれる可能性がある。著者らによると、監視なしに書かれたコード、あるいはできるだけ少ない人の目に触れるように設計されたクローズドソースのプログラミングは、どちらも世界に事前に警告することなく有害な人工知能を生み出す方法である。

さて、では悪意のあるAIは実際に何をして問題を引き起こすのでしょうか?ピストノ氏とヤンポルスキー氏は、人間の労働力を奪うと指摘します。

自動化によって仕事が奪われるという恐怖は、すでに広く予期されている。実際、あまりにも予期されていたため、1921年に英語に「ロボット」という言葉を導入したチェコの劇『RUR』の中心的な筋書きとなっている。

ピストノ氏とヤンポルスキー氏は、AIに他にどのような恐怖を見出しているのだろうか?生産手段を掌握しないとしても、プロパガンダによるクーデターで政府を乗っ取ったり、綿密な資金提供で立法府を乗っ取ったり、新たに設計された病原体や既存の核兵器備蓄によって人類を絶滅させたりする可能性もある。言い換えれば、積極的に悪意を持つAIが人類に及ぼす最悪の影響は、人類がこれまで何百回も自らに及ぼしてきた、あるいは及ぼすと脅してきたことと何ら変わらない。

これは必ずしも明るい未来像ではないが、少なくとも冷たく金属的な一片の慰めを与えてくれるはずだ。私たちは、自分自身に対してすでに恐れるべきでないものを、機械に対して恐れる必要はないのだ。

[ニューサイエンティスト経由]