Blog - Shelly Palmer の記事をIMJのオウンドメディアであるBACKYARD で翻訳・配信していきます。ぜひよろしくお願いします。ちなみに文中の視点や意見はShelly Palmer氏や、それぞれの筆者のものであり、IMJのものでないことを明記させていただきます。

 

 

“Tay”はマイクロソフト社によって設計された、チャットボットに人工知能を組み合わせたシステムで、「人々をオンライン上でつなぎ楽しい会話を通じて楽しませる目的で開発されたもの」である。そしてそれは「アメリカ内のモバイルサービスを活用している18歳から24歳に向けて開発されたもの」である。これらの話題に興味がないならば当然関心は無いだろうが、このシステムが最近あるツイートを行ってしまったのである。

このツイートは当然メディア上で炎上してしまった。Googleで“Tay”と検索してもらうと、どのように報道されていたかがわかるだろう。マイクロソフトはこの件に対して謝罪を行っており、その経験から学ぶための時間であると述べている。

チャットボットと人工知能を混同しないようにしよう

1952年にアーサー・サミュエルは、問題解決手段の良いモデルと考えて、コンピューターに“チェッカー”というゲームを行うプログラムを作成した。彼によると“AI=人工知能(当時は機械学習と呼ばれた)”は『コンピューターがプログラミングされなくても自己学習できること』というふうに定義された。

我々がこの定義から学ぶものも多々あるが、まず“学習する”と言う動詞について定義しなければいけない。アーサーが“学習”という言葉を使った時は“認知”ではなく“動作”くらいの意味であった。現代ではGoogleの“アルファ碁”のようなシステムが、我々が“認知”と呼ぶような学習を始めている。“アルファ碁”がイ・セドル九段を破った直後に、私は人工知能が人間の仕事に与える影響の可能性について、以前のコラムで書いた。

チャットボットはそれとは異なり、非常に単純な注文受付のようなアルゴリズムに過ぎない。それらは単なる“動作”に過ぎないが、とても効率的に動くことがある。例えばオンラインで映画のチケットを購入できるチャット等もあるが、それらはデータベースとつながっているだけで、人工知能を使っているわけではない。そしてそのようなチャットボットは何千も存在するが、それらは情報を会話形式で提供しているだけで、それ以上のものではないのだ。

マイクロソフトの“Tay”は、この2つの異なる機能を組み合わせたものである。それは人工知能を備えたチャットボットなのだ。そして“Tay”はTwitterを使って、まるで“人間のように”インタラクティブな会話で人々を楽しませてくれるはずであった。

マイクロソフトの失敗

マイクロソフトによると、彼らは中国で“XiaoIce”というチャットボットを運用していて、4,000万人の人たちを会話によって楽しませてきた実績があるということだ。「この“XiaoIce”の経験が、根本的に異なる文化環境でチャットボットの人工知能を進化させたらどうなるか?という好奇心を抱いて、この“Tay”という、米国の18歳から24歳をターゲットとした“AIチャットボット”を完成させたのである」。おっと、中国とアメリカは全く違う国で、文化も全く異なることを忘れていたわけでは無いでしょうね?

エンジニアがソーシャルでの交流を設計して間違えたのは初めてでは無い。皆さんは“Google Buzz”と言うサービスを覚えているだろうか? とにかくマイクロソフトの最も大きな間違いは、それは設計上の見落としではないということである。むしろ結果の期待値が最初から誤っていたと言うことだろう。どんなに人工知能システムをテストしても実際にリリースすると予想外の結果が起こるのが常である。起こりうることがあまりにも多すぎるので結果を予測することが非常に困難であるからだ。
しかしマイクロソフトはそのユーザーの期待値をコントロールすることでリスクを回避できたはずである。“Tay”は消費者向けの製品であろうか? それは人工知能や科学のリサーチ結果をデモンストレーションするものだっただろうか? それは究極の質問に答える技術だったのか?
マイクロソフトの関係者はこう言っている。「“Tay”はAIによって公共のデータから導き出されたデータと即興コメディアンを含むスタッフの編集によって構築されている。公共のデータは匿名化され“Tay”の一次データとして使われる。そのデータは開発チームによりモデリングされクリーニングされ編集されたものだ」。このような取り組みに、我々は何を期待していたのだろうか?

「私は悪いイタズラロボットです」

このツイートは、このシステムによって吐き出された不適切な発言のほんの1つに過ぎない。しかしそれはシステムのせいではない。“Tay”はプログラム通りに動いていて、そのモデルにはなんらかの改善が必要であったのだ。しかしマイクロソフトはすべきことをしたとは言えなかった。責任ある技術者として、自分たちの実験の方法論を明記し、期待されるレベルも特定する必要があったのではなかろうか? そして最も大事なことは、大々的にローンチする前にきちんと検証すべきではなかったのだろうかということだ。チェスで有名なIBMの“Deep Blue”やクイズ王を破った“Watson”も、そしてGoogleの“アルファ碁”も、きちんと検証を行った上でリリースしている。さらに残念なことは、アメリカの18歳から24歳をターゲットに設定してしまったことだ。彼ら(ミレニアル世代)をターゲットにすれば、逆に利用されてしまうということを考えなかったのだろうか。

未来ある“AIチャットボット”とその仲間たち

今回の“Tay”とマイクロソフトを巡る騒動からの最も重要な学びはなんであろうか。
彼らはスタートで躓いてしまったが、“AIチャットボット”は将来的に期待ができるだろう。この技術が完成すれば、アプリの使い方やインターネットやIoTとの向き合い方が劇的に変わることになるだろう。そしてすべてのコミュニケーション方法を変えてしまうことになるのではないか。認知型のチャットボットは、大勢のコールセンター要員を代替し、多くの低賃金の労働に取って代わってしまうのではないかと考えている。もし時給40ドル以下で肉体労働に従事していないのであれば、その仕事は、遅かれ早かれAIとその仲間たちによって奪われる可能性がある。さて、この“いたずらロボット”を笑いものにしていていいのだろうか?

このコンテンツは、米SLP Productions, Inc. dba/Palmer Advanced Mediaの許諾を受けて株式会社アイ・エム・ジェイが配信しています。Copyright SLP Productions, Inc. dba/Palmer Advanced Media, IMJ Corporation All rights reserved 引用元