TensorFlow 2.0 α版で何が変わる? 新機能の概要 ― TensorFlow Dev Summit 2019イベントから学ぶ最新技術情報

ついにTensorFlow 2.0 α版がリリースされた。TensorFlowにとって初めてのメジャーバージョンのアップデートになる。初期リリース〜2.0正式リリースまでの歩みを示し、2.0の新機能の概要を紹介する。

» 2019年03月14日 05時00分 公開
[一色政彦デジタルアドバンテージ]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

「AI・機械学習のイベントレポート」のインデックス

連載目次

ご注意:本記事は、@IT/Deep Insider編集部(デジタルアドバンテージ社)が「deepinsider.jp」というサイトから、内容を改変することなく、そのまま「@IT」へと転載したものです。このため用字用語の統一ルールなどは@ITのそれとは一致しません。あらかじめご了承ください。

 2019年3月6日〜7日(米国時間)に開発者カンファレンス「TensorFlow Dev Summit 2019」が開催された。そこでTensorFlow 2.0のα(Alpha)版のリリースが発表され、現α版時点での新機能と改変の内容が説明された。

 最初に、ライブラリ「TensorFlow」の利用者にとって一番重要な改変ポイントだけ、簡単に示しておこう。それは、

  • tf.keras(TensorFlow向けに拡張されたKeras)が、TensorFlow標準の高レベルAPIになったこと
  • Eager実行Eager execution:即時実行)がデフォルトの実行モードになったこと

の2点である。

 1点目については、tf.kerasが標準化されたことに伴い、TensorFlow 1.x時代に乱立したいくつかの高レベルAPIが排除されることになった。1.x時代(執筆時点)においても高レベルAPIを使う場合は、シンプルで使いやすいAPIのtf.kerasを使用するのが一般的ではあった。ただし、分散深層学習といったスケーラブルな機能が必要な場合は、同じく高レベルAPI(むしろ“中”レベルAPIとも言うべき)のtf.estimatorEstimators)を使う必要があった。TensorFlow 2.0以降でもtf.estimatorは残されており使用できるが、そのパワーはtf.kerasにも統合されている。つまり2.0では、tf.kerasでも分散深層学習が可能になっている。

 2点目については、TensorFlow 1.xまで静的な「グラフ」モードがデフォルト挙動だったが、2.0以降では動的な「Eager実行」モードがデフォルト挙動に変更された。Eager実行になると、Pythonコーディング環境でのデバッグ作業などがやりやすくなるという利点がある。特に機械学習モデルのプロトタイピングや研究段階の作業では非常に役に立つ機能だ。それでいて、「AutoGraph」(自動グラフ)という機能により、パフォーマンスの良さや、エキスポートしやすさといった「グラフ」モードの利点も併せて享受できる。つまり良いところ取りである。

 これらの話を中心に、本稿では、主に基調講演の内容から、TensorFlow 2.0 α版の新機能の概要をコンパクトにお伝えする。

 まず前半では、TensorFlow 2.0への歩みと、実際のリリース時期について紹介する。後半では、どのような機能が追加されるのかの概要を見ていく。

TensorFlowの歩みとバージョン2.0

これまでの歩み

 現在、TensorFlowは非常に速いスピードでアップデートされてきている。その歩みは、

  • 2015年11月: TensorFlowの最初のβ版リリース
  • 2017年02月: バージョン1.0のリリース
  • 2017年04月: バージョン1.1で、Kerasを統合
  • 2017年11月: Eager実行(Eager execution)モードを発表
  • 2018年03月: Eager実行モードが実験的なcontrib機能から標準機能に昇格
  • 2019年03月: バージョン2.0α版リリース(本稿の執筆時点)

となっており(図1)、たった3年4カ月間で大きな躍進を果たしている(リリース履歴はこちら)。

図1 TensorFlowの歩み(基調講演より) 図1 TensorFlowの歩み(基調講演より)
右端が切れていて読めないが、動画配信内容の時点で切れていたので、ご了承いただきたい。

現在のTensorFlowの利用状況

 今や、世界中の人々が、GitHub:tensorflow/tensorflowにスターを付けている(図2はスターを点にした世界地図)。

図2 GitHub:tensorflow/tensorflowへのスターを点にした世界地図(基調講演より) 図2 GitHub:tensorflow/tensorflowへのスターを点にした世界地図(基調講演より)

 そのダウンロード数は4100万にものぼる(図3)。

図3 ダウンロード数/GitHubオープンソースプロジェクトへのコミット数/プルリクエスト数/貢献者数(基調講演より) 図3 ダウンロード数/GitHubオープンソースプロジェクトへのコミット数/プルリクエスト数/貢献者数(基調講演より)

これからの歩み

 そんなTensorFlowの次期メジャーバージョン「2.0」のα版が、2019年3月6日(米国時間)のTensorFlow Dev Summit 2019に合わせてリリースされたわけだが、あくまでこれはバージョン2.0の初期プレビュー(=α版)リリースという位置付けである。これから2〜3カ月かけて、正式版に向けた実装のテストと最適化が進められていくことになる。そういった作業が終わるのが、春ごろ(「春」の定義はあいまいではあるが……)を目指しているとのこと。通常のアップデートリリースよりも時間がかかる見込みだ。RC版が出てから、(1.0の時と同じなら恐らく1カ月後くらいで)最終の正式版がリリースされる予定である。まとめると今後は、

  • 2019年の春(Q2、5〜7月?): バージョン2.0 RC(正式リリース候補)版の公開
  • 2019年の春〜夏ごろ(6〜8月)か?: バージョン2.0正式リリース

といったタイムラインでリリース作業が進められていくと考えられる(図4)。

図4 TensorFlow 2.0リリースまでのタイムライン(セッション「Introducing TensorFlow 2.0 and its high-level APIs」より) 図4 TensorFlow 2.0リリースまでのタイムライン(セッション「Introducing TensorFlow 2.0 and its high-level APIs」より)

 より細かくプロジェクトの進捗をフォローしたい人は、

をウォッチしてほしい。

図5 TensorFlow 2.0のカンバンツール「Project」の内容(GitHubより) 図5 TensorFlow 2.0のカンバンツール「Project」の内容(GitHubより)

 それでは、TensorFlow 2.0の概要説明に入っていこう。

TensorFlow 2.0の方向性

 これまでのTensorFlow 1.xの利用者からは、

  • APIをもっとシンプルにしてほしい
  • 不必要で複雑な部分を減らしてほしい
  • ドキュメントとサンプルプログラムを改善してほしい

といったフィードバックや要望が寄せられていたという。というのも、TensorFlow 1.xには試験的にさまざまな機能が、しかも重複を気にせずに搭載されてきた、という問題があったからだ。例えばディープラーニングのモデルを簡単に作る高レベルAPIが、何種類も存在していた(具体的には、tf.kerastf.estimatortf.layerstf.contrib.learntf.contrib.slimなど)。利用者から見ると、「どれを使うべきか判断しづらい」「サンプルプログラムの書き方が高レベルAPIの種類ごとに違うので、サンプルコードも選ぶ必要がある」といった課題があった。

 TensorFlow 2.0は、これらの要望に応えるべく、

  1. 簡単: よりシンプルなAPI。具体的には、高レベルAPIをKerasに集約し、Eager実行をデフォルトにすること
  2. パワフル: 柔軟性とパフォーマンス。具体的には、さまざまなカスタマイズ機能を提供し、パフォーマンスを継続的に改善していくこと
  3. スケーラブル: Googleスケールでの徹底的な大規模テストをしており、学習済みモデルをどんなところにもデプロイできること

といった点を重視していく(図6)。

図6 TensorFlow 2.0の方向性(基調講演より) 図6 TensorFlow 2.0の方向性(基調講演より)
「exa」(エクサ:E)とは10の18乗のことで、メガ(M)、ギガ(G)、テラ(T)、ペタ(P)の次の単位。FLOP(FLoating point number Operations Per Second)とは、1秒間に浮動小数点演算が何回できるかの指標値のことで、性能を測る指標となる。
「scale to > 1 exaflops」とは、オークリッジ国立研究所の最先端研究(cutting edge research)を行うチームが、高性能コンピューティングとTensorFlowを使用して1.13 exaFLOPSを達成したことを指しており、それほどのハイパフォーマンスまでスケール可能ということを示唆している。

 本稿では、上記の「簡単」「パワフル」の2点について、さらに掘り下げて見ていこう。

1. 簡単:よりシンプルなAPI

全体構成

 新しいTensorFlow 2.0の全体構成をまとめると、図7のようになる。

図7 TensorFlow 2.0の全体構成(基調講演より) 図7 TensorFlow 2.0の全体構成(基調講演より)

 左側が訓練(TRAINING)時に使う機能、右側が運用環境へのデプロイ(DEPLOYMENT)時から使う機能である。

 右側を見ると、これまでどおり、デプロイ先はさまざまなものが用意されている(既存の機能なので説明は割愛)。

 左側にある訓練時の機能には変更があったので、訓練時のワークフローについてより細かく見てみよう。

図8 訓練時のワークフロー(基調講演より) 図8 訓練時のワークフロー(基調講演より)

 図7の左から、最初に「データの取得と加工」をtf.dataを使って行い、機械学習モデルに入力する特徴データを作成する。なお、tf.estimator(Estimators)の機能を使う場合は、特徴カラムFeature Columns: 生データとEstimatorsの間の中間物)も作成する。

 次に、「モデル構築」をtf.keras(Keras)で行う。もちろん、低レベルAPIにより完全に独自のカスタムモデルを作ったり、“中”レベルAPIのtf.estimatorで事前に作成された標準的な機械学習モデルのパッケージ(Pre-made Estimators)を使ったりすることもできる。

 さらに、「訓練」をEager実行(即時実行)とAutoGraph(自動グラフ)で行う。繰り返しになるが、TensorFlow 2.0では、Eager実行モードがデフォルトの挙動となった(TensorFlow 1.xではグラフモードがデフォルトの挙動)。この2つの機能は、次節でもう少し詳しく説明しよう。

 最後に、「保存」をSavedModel形式で行う。保存したパッケージは、前述のとおり、さまざまな運用環境にデプロイできる。

Eager実行

 Eager実行とは、ライブラリ「Chainer」など(実際にChainerからインスパイアされた機能)で言うdefine-by-run(通常のPythonコーディングと同じように、定義と実行が同時に行われる)と同じ実行方法のことである。

 Eager実行では、従来のようにわざわざデータフローグラフを事前に定義したうえで、セッションtf.Session)を明示的に開始し、それから実行(run())する(これをdefine-and-runと呼ぶ)、という複数段階の手順を踏む必要がない。例えば図8-1にあるPythonコードの制御フロー(while文)は、即時に実行されることになる。

図8-1 Eager実行の例(基調講演より) 図8-1 Eager実行の例(基調講演より)

 このため、モデルを構築する際のデバッグがしやすくなるので、効率的に機械学習の実装を進められるという利点がある。

AutoGraph

 AutoGraphとは、通常のPythonコードを自動的にTensorFlowのグラフに変換する機能である。従来は、TensorFlowの「テンソル」を使ってデータフローグラフを定義していた。

 新しいAutoGraph機能では、煩雑なテンソルに関する記述をしなくても、自然でシンプルなPython構文を使ってグラフが定義できるようになるというわけだ。例えば図8-2にある関数定義(@tf.functionデコレーターが付加されたdef文)のPythonコードによって、そのグラフが生成されることになる。

図8-2 AutoGraphの例(基調講演より) 図8-2 AutoGraphの例(基調講演より)

 この機能により、グラフの利点であるパフォーマンスの良さや、モデルのエキスポートしやすさといった、従来の利点も維持できる。

 TensorFlow 2.0では、Eager実行だけでなく、@tf.function+AutoGraphによるグラフであっても、デバッグ機能が強化されている。例えば図8-3ではモデルのグラフ内に、split関数の引数に指定した数値がエラーを起こしているが、そのエラーの内容が通常のPythonコーディングと同じように見られることを示している。より効率的にディープラーニングを実装していけるというわけだ。

図8-3 AutoGraphでのエラーの例(基調講演より) 図8-3 AutoGraphでのエラーの例(基調講演より)

 少し脱線したが、「訓練時のワークフロー」に話を戻す。これらの手順のいくつかについて、実際の例を見てみよう(以下の内容は、TensorFlow 1.xでも実装できることが含まれているので、注意してほしい。TensorFlow 2.0における典型的な訓練ワークフローを説明しているだけである)。

TensorFlow Datasetsによる公開データの取得

Copyright© Digital Advantage Corp. All Rights Reserved.

スポンサーからのお知らせPR

注目のテーマ

Microsoft & Windows最前線2025
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。