第1回 初めてのニューラルネットワーク実装、まずは準備をしよう ― 仕組み理解×初実装(前編):TensorFlow 2+Keras(tf.keras)入門
機械学習の勉強はここから始めてみよう。ディープラーニングの基盤技術であるニューラルネットワーク(NN)を、知識ゼロの状態から概略を押さえつつ実装してみよう。まずはワークフローを概観して、データ回りの処理から始める。
本連載では、「ニューラルネットワーク」を難しくないものと捉え、できるだけ視覚的かつシンプルに説明を行う。「機械学習を始めてみたいけど、数学や統計から勉強を始めるのは大変だなぁ」と思っている人に、「まずは始めてみよう」というきっかけを与えることを目的として、記事を執筆した。
本連載の読者対象は、完全な初心者を想定している。機械学習の知識はゼロで構わず、数学は中学数学レベル(二次関数など)を見て何となく理解できるレベルで問題ない。Pythonのコードは出てくるので、不安がある場合は、下記の連載などに目を通すとよいだろう。
- 『機械学習&ディープラーニング入門(概要編)』……「ディープラーニングって何?」という人
- 『機械学習&ディープラーニング入門(コンピューター概論編)』……プログラミング未経験の人
- 『Google Colaboratory入門』……Jupyter Notebook/Google Colaboratory未経験の人
- 『機械学習&ディープラーニング入門(Python編)』……Python未経験の人
- 『機械学習&ディープラーニング入門(データ構造編)』……NumPy未経験の人
- 『Python入門』……Pythonをマスターしたい人
ニューラルネットワークは難しくない
「ディープラーニング」や、その基盤技術である「ニューラルネットワーク」について学び始めて、途中で挫折した人は少なくないだろう。実際に、ニューラルネットワークの解説を読むと、高校や大学以来、遠ざかっていた数式のオンパレードで、機械学習時の各ステップで用いられる各要素の技術/理論も多種多様である。まずこれに、面食らう人が少なくない。次に、そういった各要素を網羅的に勉強して、完全な知識としていくのは、それなりに時間のかかる大変な作業となる。このため、「本1冊最後まで読んでコードも書いてみたけど、全体的にはやっぱりよく分からない」という感想を持つ人も多いのではないだろうか。
確かに、実務で思い通りにディープラーニングを活用できるようになるまでには、やはり各要素技術/理論を十分に理解することが不可欠で、それでようやく技術や理論を適切に使い分けられるようになる。しかしながら、ニューラルネットワーク全体を概観してみると、やっていることはワンパターンで、コード内容も難しくないことに気付く。よって、とりあえずそのパターンを理解すれば、「ニューラルネットワークやディープラーニングがどのように機能するか」を理解するためのきっかけや枠組みとなるはずである。
そこで本連載では、最もシンプルなニューラルネットワークを実装しながら、そのパターンを説明する。それによって、「ニューラルネットワークがどのように機能するか」を理解することを目標としたい。
ニューラルネットワークの実装には、よりシンプルなコードとするため、Python(バージョン3.6)と、ディープラーニングのライブラリ「TensorFlow」の最新版2.0(バージョン2系)を利用する。TensorFlowには書き方が何種類かあるが、本連載では高水準APIのKeras(以下、tf.keras)を使用する。開発環境にGoogle Colaboratory(以下、Colab)を用い、ニューラルネットワークの視覚化に「ニューラルネットワーク Playground - Deep Insider」(以下、Playground)を利用する。
本連載のテーマは『仕組みの理解×初めての実装』とし、全3回で、以下のタイトルとなる。
- 前編: 初めてのニューラルネットワーク実装、まずは準備をしよう(今回)
- 中編: ニューラルネットワーク最速入門
- 後編: ディープラーニング最速入門
全3回の全てのサンプルコードは、下記のリンク先で実行もしくは参照できる。
さっそく前編の説明を始めよう!
ディープラーニングの大まかな流れ
機械学習/ディープラーニングの一般的な作業の流れは、『前掲の連載(概要編)』の「Lesson 3 機械学習&ディープラーニングの、基本的なワークフローを知ろう」という記事でも紹介しているが、本連載では、おおまかに下記の8つの工程に分けて、1ステップずつ進めることにする。
- (1)データ準備
- (2)問題種別
- (3)前処理
- (4)“手法” の選択: モデルの定義
- (5)“学習方法” の設計: モデルの生成
- (6)学習 : トレーニング
- (7)評価
- (8)テスト
この工程は、Playground(図0-2)にある赤色の丸数字に対応している。
それでは(1)から順番に見ていこう。次回中編の(4)からニューラルネットワークの説明に入るが、その前に今回の前編ではその準備として(1)〜(3)のデータに関する説明をさせてほしい。
(1)データ準備
まず、データの準備を行う。事前に、こちらのPlayground(表示内容を絞り、初期値を設定済みのもの)をクリックして開いておいてほしい。
Playgroundによる図解
これをPlayground上で実行するには、図1-1のように、左上の(1)で「座標点」を選択すればよい(※これしか選択できない)。
ここでいう座標点とは、横のX軸が-6.0〜6.0、縦のY軸も-6.0〜6.0の数値を取る、2次元の座標系にたくさんプロット(=点描画)した全ての点のことである。今回は、このような点々データを使う。図1-2がそのプロット例である。
青色とオレンジ色の座標点がたくさんプロットされているのが分かる。点の色については後述する。
Pythonコードでの実装例
それでは、「座標点」データを準備するためのコードをPythonで記述してみよう。
点々の生成処理は、ニューラルネットワークとは関係がないので、筆者が実装したライブラリ「playground-data」を使うことにする。このライブラリをインストールするには、Colabで新規ノートブックを作って、1つのセルに以下を入力して実行してほしい(※Colabノートブックの作成方法はこちら、使い方はこちらを参照してほしい)。
!pip install playground-data
実際のデータ生成は、ステップ(3)で行う。
(2)問題種別
次に、問題種別を選択する。
Playgroundによる図解
これをPlayground上で実行するには、図2-1のように、左側の(2)で「分類(Classify)」を選択すればよい(※「回帰(Regression)」も選択できるが、今回は説明を割愛する)。
分類というのは、「写真が犬か猫か」を判定する機械学習モデルを想像すると分かりやすいだろう。今回は、「犬か猫か」ではなく、「青色(=1.0)か、オレンジ色(=-1.0)か」を判定する。
なお、前掲の図1-2で示した2次元座標系では、青色の点群は右上の方、オレンジ色の点群は左下の方に偏って存在していた。よって、点群と点群の間に「線」を引けば、線の右上にある点は青色、線の左下にある点はオレンジ色、と予測/推論できる。実際にこれを実現するのがトレーニング(=学習)後の機械学習モデル(通称:AI)なのである。
図2-2の背景色は、Playgroundでトレーニング後の機械学習モデルの予測結果を視覚化したものである(※プロットされている各点は、図1-2で示したデータと同じものである)。右上の青色の背景と、左下のオレンジ色の背景の間に白い線が出来ているのが分かるだろう。これが、前述の「線」に相当するもので、決定境界(Decision boundary)と呼ばれている。
ここまでで、「ニューラルネットワークで作成した機械学習モデルで、分類問題を解く」とは、どのようなことなのかがイメージできるようになっただろう。
なおPlaygroundでは、分類か回帰かで、選択できるデータの種類/種別が違う(※記事をコンパクトにするため、その違いの詳細は割愛する。選べる種別については後掲の図2-4を参照)。よってここで、データ種別も選択しておく。
今回は、図1-2や図2-2で示した2群に分かれて集まっている点データを使う。Playground上でこれを行うには、図2-3のように[どのようなデータセットを使いますか?]欄で「ガウシアン(Gaussian)」(=正規分布の「山」形状のように、ある基点に集中して分布するデータ)を選択すればよい。
ここでは「ガウシアン」を選択したが、それ以外のデータセットの表示例を参考までに図2-4にまとめた。
図2-4 [どのようなデータセットを使いますか?]で選択できるデータセットの表示例
分類(=例えば犬猫のような離散的なデータの予測。この例では「青色か、オレンジ色か」)の場合は、円/XOR/ガウシアン/螺旋(らせん)が選択可能。
回帰(=例えば気温のような連続的なデータの予測。この例では「青色〜オレンジ色と連続する範囲のどのあたりの値か」)の場合は、平面/マルチガウシアンが選択可能。
Pythonコードでの実装例
それでは、「分類問題」と「データ種別」を設定するためのコードをPythonで記述してみよう。
なお本連載では、Pythonのバージョン3系を必須とする(※Colabにインストール済みのPythonバージョンが分からない場合は、import sys; print('Python', sys.version)を実行すれば、バージョンを確認できる)。Pythonのバージョンは、Colabにデフォルトでインストール済みのものをそのまま使えばよいはずだ(※2019年9月17日の執筆時はPython 3.6.8だった。バージョンの切り替え方法はこちらを参考にしてほしい)。
ここでは、ライブラリ「playground-data」のメインパッケージであるplygdataをpgという別名でインポートし、その中で定義されているDatasetTypeクラスのClassifyTwoGaussDataクラス変数の値(=分類で、2つのガウシアンデータ)を、定数PROBLEM_DATA_TYPEに代入することで(リスト2)、これを表現する。この定数をpg.generate_data()関数に指定して実際のデータ生成を行うが、このコードは後述のリスト3で説明する。※なお、データ生成方法は本連載独自のコードであるため、コード内容が理解できるよう意味を説明しているが、内容を覚える必要はない。
# playground-dataライブラリのplygdataパッケージを「pg」という別名でインポート
import plygdata as pg
# 問題種別で「分類(Classification)」を選択し、
# データ種別で「2つのガウシアンデータ(TwoGaussData)」を選択する場合の、
# 設定値を定数として定義
PROBLEM_DATA_TYPE = pg.DatasetType.ClassifyTwoGaussData
# ※実際のデータ生成は、後述の「pg.generate_data()関数の呼び出し」で行う
(3)前処理
それでは、実際のデータ生成を行おう。通常の機械学習では、収集しておいたデータから、使うデータを選別し、さらに機械学習モデルへの入力データとして使えるように欠損値を埋めたりなどして整え、最終的に、
- 学習用のデータ(=トレーニングデータ。以下、「訓練用」「訓練データ」と表記)
- 評価用のデータ(=精度検証データ。以下、「精度検証用」「精度検証データ」と表記)
に分割する。今回は独自にデータ生成を行うので、通常とは違い、これらの作業はひとまとめに行えるようになっている。
Playgroundによる図解
実際にPlayground上で行っているのが、図3-1だ。
Copyright© Digital Advantage Corp. All Rights Reserved.