大関先生の「機械学習入門」の巻末で紹介されていた人工知能に関する入門書です。
人工知能には過去3度のブームがありました。第1次ブームでは推論を行うプログラムで、迷路を解いたり、ハノイの塔をプレイしたり出来ましたが、現実的な問題は扱えませんでした。
第2次ブームは知識をいれて現実的な問題を扱えるようにしました。診断して薬の処方を行うMYCINに代表されるエキスパートシステムです。しかし、ヒトの知識をプログラムで表現することは膨大な作業であり、知識量が増えれば増えるほど大変なものとなりました。理由は、知識は言葉で表されますが、言葉は「意味」や「概念」と結びついています。この結びつきをプログラムで表すのができなかったのです。こうした問題を扱うのがオントロジーという分野で、オントロジー研究の究極の形がIBMの開発したワトソンです。ワトソンはクイズ番組で人間のチャンピオンに勝ったことで有名になり、現在は医療診断や料理のレシピの考案を行っているそうです。
一方、第3次ブーム のブレイクスルーはディープラーニングがもたらした特徴表現学習の進化です。特徴表現学習とは、データから特徴と特徴間の相関ルールを自動的に抽出する学習のことです。そのブレイクスルーをもたらしたのが2012年の世界的な画像認識のコンベンションILSVRCでカナダのジェフェリー・ヒントンの率いるトロント大学の開発したSuper Visoonです。
過去の人工知能や機械学習の最大の問題は認識や予測の精度を左右する特徴量をヒトが探して組み合わせてきたことでした。例えば競馬予想なら過去の勝率や走破タイムが大事だとヒトが予想し、それを勝率を計算する確率にインプットして、インプットの仕方だけ自動的に学習します。また、ある画像がどういった画像なのかを認識する問題でも同じで、画像のどういった特徴を捉えて分類するかをヒトが決め、それをもとにプログラムが自動的に最適な計算式を探します。すると、予想や分類の精度はヒトの特徴量を探す能力で決まることになります。
一方、ディープラーニングでは予測や認識でのキーとなる特徴量を自動的に探し、さらに特徴量と特徴量を結びつけることを多層のニューロンで行います。そうしたアイデアはニューラルネットのころからあったのですが、多層にしたときの学習がうまくいきませんでした。多層にすると局所的な最適解が増え、精度の向上がとまってしまうからです(「消滅する勾配」が原因ではない)。ディープラーニングでは自己符号化器という、入力と出力に同じ画像を用いることで特徴量やそれを組み合わせる高次の特徴量を学習し、それを用いて画像を認識することに成功したのです。
この自己符号化器のアイデアはなかなかおもしろいです。例に挙げられているのは、全国の都道府県の天気の情報を10個の数値で他人に伝えるというゲームです。10個の数値として、北海道、東北、北陸、関東、中部、東海などと代表的な値域の天気を伝えれば、それをもとに全国の天気を再現する精度が高くなる。10個にまとめているので、完全に再現できませんが、少々天気にばらつきがあっても、ばらつきがならされて変な天気を予測することもありません。この10個の数値が日本の天気の特徴であり、ディープラーニングではこうした10個の数値や、それを組み合わせた高次の情報を自動で見つけることができるのです。
こうして人工知能はデータから特徴量や高次の特徴量を自動的に見つけるレベルに達しました。これは、概念や概念の間の関係を学習できるレベルに達したことを意味しています。すると、データとして時間変化するようなものを与えれば因果関係を学ぶことができ、学習する主体としての個が確立できるかもしれません。そうした個が他の個と情報をやりとりすることで並列化し、環境に対する高度な適応能力を獲得したとき、人工知能はヒトと同じレベルに達するのでしょう。
非常に刺激的な本で、大変勉強になりました。ディープラーニングの凄さがよく分かりました。
0 件のコメント:
コメントを投稿