2017年3月9日木曜日
「中国語の部屋」という有名な話
話:松尾豊
…
まず「中国語の部屋」という有名な話から始めてみましょう。
ある人工知能のプログラムがあったとします。プログラムには箱があって、その中に「小さな人間」が入っていると考えてください。その人に中国語で話しかけると、中国語で答えてくれます。それで「中国語の部屋」。
部屋の中の人がやっていることは、中国語の文字が入ってきたら、難しい漢字で意味がまったく分からないとしても、「この文字が出てきたらこう返せ」と書かれた分厚い辞書をめくりながら言葉をつくり、できたら箱の外に投げ返すという作業です。
中国語で問いかけると中国語で返してくれますが、中の小さな人は中国語が分かっていると言えるかどうか?
”ああ。理解しているとは言えませんよね”
「人工知能には人間と同じような思考があるか?」という質問は、これと同じなのです。中の小さな人がいくら賢い返答をしたとしても、コンピューターは中国語がまったくわかっていない。これが「中国語の部屋」の話を考えたジョン・サールという哲学者が言いたかったことです。
もう一つ、「チューリングテスト」という、知能があるかないかを試すテストがあります。今度は部屋が2つあるとしましょう。1つの部屋に人間がいて、もう一方には人間、もしくは人工知能が入っている。ここでチャットをします。チャットをする人間が、何時間たっても、もう一方の部屋にいるのが人間かコンピューターかを判断できなかったときに、チューリングテストに合格、初めて人工知能ができたと見なすわけです。
※チューリングテスト…1950年、イギリスの数学者、アラン・チューリングが考案。
”なるほど。人間を騙せるか否かでテストをするということですね。ネット上で顔が見えていなかったら騙せるかもしれません”
ネットでは
"On the Internet, nobody knows you're a dog".
「あなたが犬かどうか誰も知らない」
という有名な言葉もあります。今から30年前には、「ELIZA(イライザ)」という短い対話プログラムを人間だと思った人もいました。
※イライザ(ELIZA)…1960年代にMITのジョセフ・ワイゼンバウムによってつくられた、原始的な自動チャットプログラム。ユーザーが発した言葉をつかった返答をプログラムすることによって、人間らしさを演出した。
これと「中国語の部屋」は対立構造にあります。外から見て賢いふるまいをすれば、それは人工知能だとする立場と、そうは言っても中の小さな人は分かっていないのだから、知能とは言えないよね、という逆の立場です。行動主義か認知主義かのような話ですが、そんな議論もあります。
iPhoneに入っている音声認識プログラムの「Siri(シリ)」を使っている人は、何となく自分の言ったことに答えてくれているような気がすると思います。Siriに英語で「今夜、空いている?」と聞くと、「あなたのためなら、いつでも」と返されるわけですし。この返答は認識であり、Siriはきっと考えているのだろうと人間は想像するわけです。
感覚的にはそうですが、しかし実際は、中にいる小さな人が何かの文字を見ては辞書を引き、お返しする文字をつくっているだけです。
”つまり、じつは考えてはいないということですか?”
それはSiriの答えを「考えている」と言うのかどうかです。「考える」の定義の問題でもありますね。
知的かどうかは往々にして見るほうが思うことで、動物の動きにしても、ハチが巣の周りを探索する様子は非常に賢いように見えます。ただ、ハチは遺伝子に組み込まれている行動をとっているにすぎず、見る側の人間が賢いと思っているだけですよね。
九九にしてもそうです。「三三が九」と自然に数字が出てきますが、計算しているわけではない。一連の言葉として覚えていて、計算を代行しています。それが賢いように見えるわけです。
コンピューターの場合も、事例をたくさん覚えさせて、どの事例に近いかを予測する。
たとえば、就活生の受け答えの仕方をデータとして持っていて、その就活生が結果的に使える人材だったかどうかを示す事例がたくさんあれば、過去のデータベースでどれに近いからきっと使える、いやそうではない、と判断できるでしょう。
ある部分はトレーニングを積むことで、賢く見せることができますから。こういうときはこう動くというルールをたくさん学習して、だんだん賢くなっていくという要素も、人工知能にとっては重要なところです。
…
引用:松尾豊・塩野誠「人工知能って、そんなことまでできるんですか?」
登録:
コメントの投稿 (Atom)
0 件のコメント:
コメントを投稿