Googleは、機械学習(ML)ワークロードをより高速かつ柔軟に実行できるように「AI Platform」の各種機能を強化した「AI Platform Prediction」の提供を開始した。さまざまなマシンタイプを選択できる。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Googleは2019年10月26日(米国時間)、機械学習(ML)ワークロードをより高速で柔軟に実行できるように「AI Platform」の各種機能を強化した「AI Platform Prediction」の提供を開始した。
AI Platformは、Google Cloud Platform(GCP)で提供されるクラウドサービスの一つ。AI Platformを使えば、大規模な機械学習の開発と運用が容易になる。GCPのリソースを使用して大規模な機械学習モデルをトレーニング後、モデルをホストして、それらのモデルに予測リクエストを送信したり、GCPサービスを使用してモデルとジョブを管理したりできる。
AI Platform Predictionを利用すると、データサイエンティストはサーバレス環境でオンライン予測のモデルを提供できる。アプリケーション開発者は、MLフレームワークを理解していなくてもAIにアクセスでき、データサイエンティストは、インフラを管理しないで済む。
だが、一部の複雑なMLモデルでは、許容可能なレイテンシで実行するために条件があった。具体的には多数のCPUを搭載するマシンか、NVIDIA GPUのようなアクセラレーターを搭載するマシンを使用しなければならない。これは、画像や動画、テキストなど、非構造化データを処理するモデルに特に当てはまる条件だ。
今回の機能強化により、AI Platformの予測サービスコンポーネント「AI Platform Prediction」では、GCPのIaaS(Infrastructure as a Service)サービス「Google Compute Engine」でさまざまなマシンタイプを選択できるようになった。
例えば推論に最適化された低レイテンシの「NVIDIA T4」のようなGPUを追加することが可能だ。従来のメリットは変わらず享受でき、インフラを管理する必要はない。AI Platformがモデルのプロビジョニングやスケーリング、提供を管理する。なお、これまでのAI Platform Predictionでは1つか、4つのvCPUマシンタイプの提供にとどまっていた。
Copyright © ITmedia, Inc. All Rights Reserved.