2016年3月30日水曜日

人工知能の可能性と危険性

データアナリティクスグループの宮本です。





ここ最近AlphaGoというGoogleが開発した囲碁プログラムが現役のトッププロ棋士Lee Sedol氏(プロ九段)を破り、人工知能界隈だけならず巷で大きな話題となりました。

世界最強の囲碁棋士にも勝ち越し - 半年足らずで劇的に強くなったAlphaGo
http://news.mynavi.jp/articles/2016/03/25/alphago/

対局の賞金が100万ドルであったことや運用費に30億円近く掛かりそうだということなど、様々な話題で注目を浴びましたが、個人的には短期間で人間にはできないスピードで進化した点が印象的でした。

上記記事によると、2015年10月に3度ヨーロッパチャンピオンになった経歴を持つFan Hui氏(プロ2段)と対戦し勝利しましたが、この時点でのAlphaGoの評価値(Elo Rating)は3140で、Lee Sedol氏との対戦後には3518に評価されました。

3140の評価値から3518へ上がるまでの期間は約半年間で、人間のプロ棋士がこの期間でこれほど強くなることは考えられない程の速さで強くなりました。

人間ではありえないようなスピードで学習していく人工知能は、時間を掛けて人を育成して行うような業務を人工知能に置き換えて遂行できることを示唆しているように思えます。


ただ、この記事の一方で会話から学ぶ人工知能としてTwitterなどに登場したMicrosoft社の人工知能「Tay」は人種差別的な発言をして波紋を拡げました。

人工知能 Tayの差別発言をマイクロソフトが謝罪。「脆弱性を突いた組織的攻撃」と説明 - Engadget Japanese
http://japanese.engadget.com/2016/03/28/tay/

これは一部の悪意を持ったユーザーが意図的に差別的な発言をTayに吹き込んで、Tayに差別的な発言を学習させたため起こってしまいました。

もちろんMicrosoft側にはTayに差別的な発言をさせるような意図はなく、すぐに一般公開を一時中止にしました。

私はこの出来事から人工知能の危険性を感じました。

人工知能は与えられた情報を素直に学習し、処理を実行します。
善悪の判断はできないので、人間が悪意を持った情報を与えることで人工知能を悪い方向へコントロールすることも可能であることがTayの例でわかります。

この危険性について、近い将来に実現すると思われる人工知能での自動運転を例にして考えてみます。

自動運転を人工知能で実装する際には、人工知能に正しい運転方法を教える必要があります。
例えば、「国道Aは制限速度が40km/hで、500m地点にと大きなカーブがある」のような情報を与えておけば、国道Aを走る時は40km/hで500m地点の大きなカーブも安全に曲がれるとします。

この人工知能に悪意を持った人間がハッキングして、与えた情報を「国道Aは制限速度が80km/hで、500m地点は直線である」というような情報に改ざんしたらどうなるでしょう。
恐らく現実にはカーブがある箇所を直進しようとして大きな事故が起きてしまいます。

現実には、自動運転車は車にセンサーやカメラを搭載しているので、状況と事前に与えられている道の情報を総合して判断すると思います。
ただ、センサーやカメラもハッキングされて、状況のデータも改ざんさせる可能性はゼロではないと思います。

Tayの例も含めて考えると、悪意を持つユーザーが人工知能に情報を与えられるような状況を作ることは避けるべきでしょう。

今後人工知能の実用化が進んでいくと、セキュリティ面での課題も普及への大きなキーになってくると思います。

2016年3月は今回紹介した2つのような出来事があり、人工知能の可能性を感じる一方で危険性も考えさせられる、人工知能の話題が非常に興味深い1ヶ月でした。

0 件のコメント:

コメントを投稿