人工知能を恐れる人々に宛てた公開書簡 人工知能を恐れる人々に宛てた公開書簡

人工知能を恐れる人々に宛てた公開書簡

人工知能を恐れる人々に宛てた公開書簡

今週初め、Future of Life Instituteという組織が、人工知能システム(AI)への安全対策の組み込みについて、公開書簡を発表しました。この書簡とそれに付随する研究論文は、AI研究者がこの技術の可能性を最大限に引き出す方法について、非常に公平な視点を示しています。以下は、この書簡の中で最も不吉な部分、つまり全く不吉ではない部分です。

そして、この手紙に関する記事のCNETの見出しは次の通りです。

一方、BBCニュースはパニックルームから少し抜け出して、次のような虚偽を伝えた。

これがどん底だと思いたい。ロボットやAIに関して、ジャーナリストはこれ以上無知で、冷酷にもトラフィックを誘導するようなことはあり得ない。読者は、AI以外の研究者(具体的にはイーロン・マスクとスティーブン・ホーキング)が同じような終末論を唱える、同じ騒々しい見出しをクリックすることに、いつかは飽きてしまうはずだ。恐怖をあおる報道は時とともに必ず勢いを失い、最も有害なメディア報道でさえも、本来は半減期がある。しかし、それは決して止まらない。

機械が今後数十年にわたって私たちにもたらすであろうリスクについては忘れてください。2015年において、より適切な問いは、故意に無知なジャーナリストから人類を守る者はいるのか、ということです。

***

AI を取り上げると、このような恥ずかしい思いをすることになります。

まずは、できるだけ報道を控えることから始めましょう。今回の場合、それはオンラインで公開された公開書簡を読むことであり、その作成に関わった人々にインタビューすることさえしないことを意味します。CNETとBBCの記事を例に挙げると、どちらの記事にも、公開書簡や付随する研究文書の作成に協力した研究者からの引用や説明は含まれていません。これはスピードの問題ですが、同時に戦略的な判断でもあります(意識的かどうかは別として)。終末的なAIに関する必死の警告を軸にした記事はどれもそうですが、報道すればするほど、前提が陳腐化していきます。この分野の専門家は、劇場が火事になっていないことを指摘する傾向がありますが、読者を出口へと駆け回らせることが主な目的である場合、それは全く面白くありません。

骸骨のようなアンドロイドが人間の頭蓋骨を踏みつけている光景を思い起こさせる見出しを付けると、複雑で革新的なテクノロジーがカーニバルの余興と化してしまう。

より迅速かつ劇的な方法は、一見文脈のように見えるものの、実際にはイーロン・マスクとスティーブン・ホーキングが専門外の話題について話しているだけのことを説明することです。私が特に彼らに言及したのは、彼らがAIパニックの集合的な代弁者となっているからです。彼らは、機械の超知能が人類の絶滅につながる可能性があると考えています。そして、その点に関する彼らの発言は、メディアフィルターをほとんど通さない素晴らしい頭脳から発せられているため、真実味を帯びています。時は金なりとすれば、マスクとホーキングの際限なく繰り返される発言は、多忙な記者や編集者にとって金鉱です。人類の衰退を公然と憂慮する二人の天才以上に、一体何の文脈が必要なのでしょうか?

これほどまでに重要なテーマを報道するには、それだけで十分だ。オンライン文書、過去のインタビュー、ツイート、コメントをコピー&ペーストし、骸骨のアンドロイドが人間の頭蓋骨を踏みつけているような光景を想起させる見出しを添え、視聴者が唖然とするのを待つ。こうしたジャーナリズムは、制作者にも消費者にも、まさにその通りの結果を生む。複雑で変革をもたらす技術を、カーニバルの余興にしてしまうのだ。実際、AI報道のほとんどが過大評価されている。カーニバルの関係者は給料のために懸命に働いている。テクノロジー記者はとにかく速く仕事をしなければならない。

***

この公開書簡の背景にあるストーリーは、ある意味では、書簡自体よりも興味深い。1月2日、約70人の研究者がプエルトリコのサンファンのホテルに集まり、AIの安全性に関する3日間の会議が開かれた。これは極めて秘密主義的なイベントだった。Future of Life Institute(FLI)は、少なくとも6ヶ月前から会議を計画していたにもかかわらず、事前にメディアに通知したり、記者を招待したりしていなかった。現在でも、イベント主催者は出席者の完全なリストを公開していない。FLIは、週末にわたる公式・非公式の議論の中で、研究者たちに率直に、そして出所を気にすることなく発言してもらいたいと考えていたのだ。

映画だったら、この謎めいた会議は、魅惑的な名前を持つ組織が主催し、しかも熱帯地方で開催されていた。フランケンシュタインの怪物を再現したような、アルゴリズムが暴れまわる予期せぬ攻撃にさらされていただろう。あるいは、もっと忍耐強い映画製作者たちの手腕があれば、第一幕の展開は、あらゆるAI研究を即時停止せよという緊急の呼びかけだっただろう(もちろん、暗いサーバールームに潜む狂人によって無視されるが)。BBCニュースやCNETの見出しは、映画のスクリーンに違和感なく映し出され、正真正銘の恐怖の発表に対する世界的な反応を象徴していただろう。

実際、FLIからの公開書簡は、かなり冷静な内容だ。「堅牢で有益な人工知能のための研究優先事項:公開書簡」というタイトルだけでも、読者の期待は高まるはずだ。書簡では、機械学習、神経科学、そしてその他の研究分野における進歩が、AIシステムに有望な成果をもたらしていることに言及している。悲観的な見方をすると、関連する記述は前述の「潜在的な落とし穴」に関する一文と、以下の一文だけだ。

正直に言って、この公開書簡はこれ以上暗い内容はないでしょう。意図的に楽観的な言葉遣いで書かれた文書の中に、やや皮肉な発言がいくつか散りばめられています。署名者は「AIの社会的利益の最大化」に関心を持っており、書簡は行動への呼びかけで締めくくられています。

これは、報道機関が人類を機械から守り、AIの研究開発を抑制するよう求める呼びかけだと解釈している文書です。これはまた、多くのジャーナリストが人工知能に関して単に要点を見落としているだけでなく、嘘をついていることの証拠でもあります。

***

実のところ、AIコミュニティの中には、人工超知能の問題を非常に懸念する研究者が存在します。そのため、FLIは公開書簡の付属文書に、そうした懸念に関するセクションを設けました。しかし、こうした研究者は極めて少数派であることも事実です。コーネル大学のコンピュータサイエンス教授、バート・セルマン氏によると、この公開書簡の目的は、ジャーナリストが一般大衆に植え付けようとしているヒステリーを抑え込み、短期的な懸念を提起することだったとのことです。これらの問題の中には、複雑で切実なものもあります。住宅ローン会社の機械学習システムは、申請者のメタデータを深く掘り下げすぎることで、誤ってプライバシーを侵害し、場合によっては法律違反にさえなるのでしょうか?セルマン氏が懸念しているのは、反抗的なアルゴリズムではなく、欠陥のあるアルゴリズムや過剰なアルゴリズムです。「これらのシステムには、かなり高水準の目標が与えられることが多いです。そのため、予測とは大きく異なる方法で目標を達成しないようにすることは、合理的な研究目標です」とセルマン氏は言います。 「私たちが抱えている問題は、マスコミ、特に大衆紙が、超知能やAIによる支配といった極端な論調に傾倒していることです。私たちは彼らに、それは懸念すべき点の一つではあるものの、私たちにとってはそれほど大きな懸念事項ではないということを示そうとしているのです。」

もちろん、文脈を無視して発言すれば、まさに彼らが消そうとしている火に油を注ぐことになりかねない。サンファン会議に出席し、FLIの公開書簡と研究文書にも貢献したセルマン氏でさえ、良心の呵責を感じずにAI分野の将来的な成果を否定することはできない。そのような独断的な否定は、責任ある科学者として忌み嫌われる行為だ。しかし彼は、ブートストラップ型AI、つまりシステムが突如として飛躍的に賢くなり、能力も向上するという可能性に気をとられている研究者たちを、少しばかり批判することも厭わない。「この分野で20年、30年研究してきた人たちは、この複雑性とスケーリングの問題を、この分野に不慣れな人たちよりも少しだけよく理解しています」とセルマン氏は言う。

AI研究の歴史は、計算資源の不足だけが唯一の障壁と思われた理論的なベンチマークやマイルストーンに満ち溢れています。しかし、プロセッサやストレージ技術が研究者の予想をはるかに上回る進歩を遂げているにもかかわらず、AIの最も有望な(あるいは、目的によっては恐ろしい)応用の期限は、今後10年か20年先まで先送りされたままです。私は以前、超知能の必然的な神話について書きましたが、セルマン氏はこのテーマについてはるかに簡潔に述べています。彼によると、根本的な誤りは原理と実行を混同し、特定のシステムにリソースを投入すれば爆発的な能力向上が引き起こされると想定していることです。「コンピュータサイエンスの人々は、原理的には可能であっても、無制限のリソースがあったとしても、それが実現できない可能性があることをよく理解しています」と彼は言います。「無制限のリソースは指数関数的なスケールアップを意味するわけではないからです。そして、もし指数関数的なスケールアップが実現できたとしても、変数は突然20倍に増えることになります。」 AI のブートストラッピングは、AI 研究者にとって最悪の悪夢であると同時に夢の実現でもあります。何週間も続けてバグだらけの同じコードに取り組む代わりに、研究者はただ座って、コードが自ら書き上げるのを待つことができるのです。

超知能へのこの恐怖の根底には、現時点では答えられない疑問がある。「主流のAIコミュニティは、システムが10年か20年後には人間レベルの知能に到達すると信じていますが、知能のあらゆる側面という意味ではありません」とセルマンは言う。例えば、音声認識や画像認識は、幼児でさえ理解できるような社会的合図を理解するシステムにはならずとも、個別にはそのレベルの能力に達するかもしれない。「しかし、コンピューターは優れたプログラマーや数学者、あるいは創造性を必要とする他の何かになれるでしょうか?それははるかに不明確です。それには実際に計算上の障壁があり、それらは根本的な障壁である可能性もあります」とセルマンは言う。超知能は、人間と認識できる思考プロセスを備えて出現する必要はないが(苦々しい抗議詩に失楽園への言及を散りばめている)、神のような存在へと自らをプログラムする能力は必要だろう。そのようなことは原理的に可能であり、ましてや実際に可能だろうか?

FLIはAIコミュニティが特に緊急性は感じていないものの、まさにこの問題を探求することを期待している。同組織の創設者の一人、ヴィクトリア・クラコフナ氏に話を聞いたところ、彼女はメディアが公開書簡を解釈し、超知能の問題にほぼ特化していることに懸念を示していた。「AI研究コミュニティは、有益なロボットやAIの開発を目指す責任ある人々のコミュニティであることを示したかったのです」と彼女は言う。しかし、記者たちは公開書簡をまるで悔悟の行為のように扱い、AIの暴走という問題(脅威ではなく、問題そのもの)を研究する可能性を包含する包括的な文書を作成したFLIを罰している。

セルマン氏は、このようなプロジェクトを「少数の人々」の仕事、つまり研究も定義もされていない問題を定義しようとする仕事だと捉えている。彼はこれを、純粋な研究課題として宇宙の大変動の影響を計算する理論物理学者の研究に例える。この終末論が原理的に実現可能だと判断されるまでは、何の対策も講じる必要がない。これは重要な区別だが、見落とされがちだ。科学が機能するためには、観測可能な宇宙に焦点を合わせなければならない。科学用語で言い表された迷信に焦点を合わせるべきではないのだ。

残念ながら、AI報道が少しでも恐怖を煽るような報道にならなくなる可能性は、大型ハドロン衝突型加速器(LHC)が惑星を消滅させるブラックホールを生み出す可能性と同じくらい低い。あの、簡単に理解できるつまらない話と、それが粒子加速器の真の重要性を矮小化してしまったことを覚えているだろうか?科学技術報道という難しい仕事において、読者の命を脅かすような報道ほど心を掴むものはない。

追記:この記事を公開して以来、私がFLI(Fli)が超知能に関して即時行動を起こすことに関心を持っていることを過小評価していたことが明らかになりました。あるいは、イーロン・マスク氏がどれほどパニックに陥っているかを過小評価していたのかもしれません。マスク氏は本日、FLIが管理する助成金の形で、「AIを人類にとって有益なものにし続けるための研究を支援するために1,000万ドルを拠出する」と発表しました。「これは…様々な悪影響が起こり得るケースであり、その中には非常に深刻なものもあります。そのため、これらの悪影響の一部から回復できるかどうかは明らかではありません」とマスク氏はビデオ発表で述べています。「人類文明の回復が起こらないというシナリオも想定できます。」

こうして、ジャーナリストたちは、AI 研究者ではない人物からのもう一つの衝撃的な発言を得て、2015 年の AI パニックを乗り越える力を得たのです。