全1359文字
英DeepMind(ディープマインド)の囲碁AI(Artificial Intelligence、人工知能)「AlphaGo」がイ・セドル名人と初対戦したとき、AlphaGoはプロ棋士でも理解できない予想外の手を打った――。こんなふうに、深層学習(ディープラーニング)に基づく機械学習を実装したAIが想像外の推論結果を出したとき、「なぜ」と思うだろう。
その気持ちは分かる。だが推論に至った「理由」を説明してほしいのであれば、機械学習ではなくロジックやルールに基づくAIを使うべきだろう。
深層学習に用いられている技術が、脳の神経回路をモデル化したニューラルネットワークだ。そしてニューラルネットワークによる推論結果には、理由が分からないので不安だという意見がつきまとう。何と1980年代の第2次AIブームの頃からそうした意見があった。
考えてみれば、理由が分からないのは当たり前であり、「そういうものだ」と割り切って使うべきであろう。そもそもニューラルネットワークにおける推論とは、教師データ(ある一定量の入力データと出力データの組)を学習した結果として、何かデータを入力するとそれなりに確からしいデータを出力することである。加えて、学習したデータそのものに基づかなくても、入力に対してそれなりにいい感じの結果を出してくれる。
この「いい感じ」らしさを「汎化性能」と呼ぶ。機械学習には様々な種類があるが、深層学習はこの汎化性能の高さが評価されている。
だいたい機械学習を使う場面というのは、明確なロジックやルールとして記述しきれない何かを、うまくシステム化したいときだ。ちゃんとロジックやルールを記述できるのなら、それに基づくAIをつくって使うべきである。
そうではなく、自分で認知し切れない、あるいは言語化し切れないから深層学習を使うのに、それを棚に上げて「出力の理由を説明せよ」とするのは惰弱といえよう。