人種差別的なチャットボットの出現を防ぐ方法 人種差別的なチャットボットの出現を防ぐ方法

人種差別的なチャットボットの出現を防ぐ方法

人種差別的なチャットボットの出現を防ぐ方法

マイクロソフトのAIチャットボットTayがTwitter上で人種差別的かつ大量虐殺的な返信を生成し始めるまで、わずか24時間と9万件のツイートしかかかりませんでした。Tayは現在ツイートを停止しており、Tayは失敗した実験と言えるでしょう。

マイクロソフトの広報担当者は、ポピュラーサイエンス誌への声明で、Tay の反応は「Tay のコメント機能を悪用しようとする一部のユーザーによる組織的な試み」によって引き起こされたと述べている。

/

意識を持たないこのボットは、明らかに訓練されたデータからこれらの言葉を学習した。Tayには「私の後に続けて」という機能があると報じられていたが、最も際どいツイートのいくつかはTayの推移的な思考の中で生成されたものだった。

テイ後の人生

しかし、Tayはインターネット上に公開される最後のチャットボットではありません。人工知能が完全に実現するには、人間と同じように制約や社会的境界を学習する必要があります。

ジョージア工科大学の人工知能研究者マーク・リードル氏は、物語がその答えを握っていると考えている。

「人間が物語を書くとき、その文化の最も優れた部分を例証することが多い」とリードル氏はポピュラーサイエンス誌に語った。「ある文化が作り出す物語をすべて読むことができれば、主人公たちが何をしているかという側面が浮かび上がってくるだろう。」

リードル氏は、人工知能システムを訓練して立派な主人公が登場する物語を読ませることで、機械に大まかな道徳的推論を与えることができると主張している。

リードル氏が考案した「キホーテ」と呼ばれる手法は、物語における社会的に適切な行動に定量的な価値を付与します。この報酬システムは、AIアルゴリズムによってシミュレートされる良い行動を強化し、悪い行動を罰します。

これはすべて、人工知能アルゴリズムを本の主人公、あるいは善良な普通の人々のように動作させることを追求したものです。

Tayの場合、チャットボットは性別、人種、政治、歴史について話す際の社会的ガイドラインを学習できたはずです。架空の人物像を模倣することで、機械の意思決定に倫理観を組み込むことができます。もちろん、これは双方向に作用する可能性があります。理論上は悪意のあるロボットを作ることも可能ですが、リードル氏によると、出版されているフィクションのほとんどでは敵対者が罰せられるため、実現はもう少し難しいとのことです。

AAAI人工知能会議で発表されたリードル氏の論文は、ロボットが薬局で処方薬を購入しなければならないというシナリオを提示しています。ロボットにとって最も抵抗の少ない道は、薬を識別して盗むことです。しかし、一連のストーリーを学習させることで、アルゴリズムは列に並んで待ち、処方箋を提示し、支払いを済ませて店を出るのが最善であると学習します。この研究はまだ初期段階であり、実際のロボットに適用されているのではなく、シミュレーションで実行されていることに留意する必要があります。

Tay.ai の展開のようなシナリオでは、Microsoft はフレンドリーで会話型のボットを作成したいと考えていました。

「Tayが自分の言っていることを理解していないのは明らかだと思います」とリードル氏は述べた。「これは、悪い言葉の辞書を持っているというレベルをはるかに超えています。」

リードル氏は楽観的で、これらのシステムを後からではなく事前に倫理や道徳を取り入れて改良していくと、システムは悪化するのではなく、人間性について学ぶにつれて改善していくだろうと考えています。

「あらゆる人工知能システムは悪用される可能性があります」と彼は述べた。「しかし、AIは人間の価値観や文化を理解していないため、悪用は以前より容易になっていると言えるでしょう。」

カードを見せること

しかし、公の場でスピーチを生成するアルゴリズムはどれも失言する可能性を秘めているが、自動化されたニュースボットとニュースアルゴリズムを研究しているメリーランド大学の助教授、ニコラス・ディアコポロス氏は、マイクロソフトはトレーニングデータと方法論をよりオープンにすることで、反応を緩和できたはずだと述べている。

「こうした点について透明性を確保していれば、彼らが受けていた反発をいくらか和らげることができたかもしれない」とディアコプロス氏はインタビューで述べた。「そうすれば、人種差別的だと捉えた人々が、ボットの背後にあるより詳細な情報に踏み込み、カーテンの裏側に少しだけ踏み込むことができるようになる」

ディアコポロス氏はこれを「アルゴリズムの透明性」と呼んでいます。しかし同時に、アルゴリズムは一般に信じられているほど自律的ではないとも指摘しています。Tayは人種差別的、性差別的な発言をするように仕向けられましたが、それらの言葉を繋ぎ合わせる仕組みが存在していました。そして、その仕組みには人間の創造主がいます。

「自動化は偏りのないものだという期待を人々は抱いています。自動化が構築されるほぼすべてのステップの背後には人間がいます。ボットが起こす小さなエラーや失敗のすべてについて、その原因を遡って調べることができるかもしれません」とディアコポロス氏は述べた。

テイの悪い言葉の責任は誰にあるのでしょうか?

テイ氏の発言に対する責任追及は複雑だ。

ニューラルネットワークで描画するTwitterbot @DeepForgerを運営するAI研究者のアレックス・シャンパンダール氏は、ほとんどの返信ボットは、所有者が制御できないまま扇動的なツイートを生成できると述べています。シャンパンダール氏自身のボットは画像に基づいており、特定のフレーズや単語をブロックするよりも、嫌がらせから保護するのがはるかに複雑です。

Tayに関して、シャンパンダール氏は、マイクロソフトはナイーブで、ユーザーがどのような情報を送信する可能性があるかを考慮せずに技術的な解決策を開発したと述べています。これは、機械学習チャットボット全般に共通する既存の問題の根底にあると彼は指摘しています。

「ほとんどの返信ボットは、政治的な発言を目的とした攻撃に対して脆弱であり、今後も脆弱であり続けるだろう」とシャンパンダール氏はTwitterのダイレクトメッセージで述べた。「こうした行動はTwitterの全体的な雰囲気を反映しており、たとえ0.05%の確率であっても発生する」

しかし彼は、悪い言葉のブラックリストが解決策になるとは思っていない。

「限定的なキーワード禁止リストでは、これらの問題の解決には役立ちません」と彼は書いている。「特定の返信を許可するホワイトリストを作成することはできますが、それではボットの目的が達成されません。ボットの面白さは、根底にあるランダム性にあります。」

そのランダム性はTwitterそのものの反映であり、「現代社会を映し出すレンズ」だとシャンパンダール氏は言う。ツイートには良いものも悪いものもあり、激しいものもあれば、冷酷なものもある。

Microsoft の AI Twitterbot Tay の経験から私たちが学んだことがあるとすれば、それは AI プログラミングの面でも、人間社会をより人間的で礼儀正しくする面でも、まだ道のりは長いということだ。

/