検索
ニュース

Red HatがAI戦略の要「OpenShift AI」で新機能を投入 エッジ対応やリソース割り当てなどRed Hat Summit 2024

OpenShift AIは、Red HatのAI戦略における中核的な基盤だ。同社は年次カンファレンスにおいて、エッジ対応やGPU利用の簡素化、リソース管理などの新機能を発表した。

Share
Tweet
LINE
Hatena

 Red Hatは2024年5月6日(米国時間)、年次カンファレンス「Red Hat Summit 2024」で、エッジ対応をはじめとした「OpenShift AI」の強化を発表した。これにより、企業が各種生成AIアプリケーションをハイブリッド/マルチクラウドで開発/デプロイ/運用するための、統合的な基盤としての価値が高まったと訴えた。

 OpenShift AIは、コンテナ基盤である「Red Hat OpenShift」上の機械学習/AI運用(MLOps)プラットフォーム。予測AIに対応したMLOps基盤「OpenShift Data Science」として始まったが、2023年には予測AIに加えて生成AIに対応し、現在の名称になった。

 Red HatはOpenShift AIを、AIモデルとAI対応アプリケーションの構築と提供における複雑さを取り払える基盤」と表現する。また、DevOpsの世界に習熟したアプリケーションエンジニアと、AIエンジニアやMLOpsエンジニアとの間のギャップを埋める共通基盤になるという。生成AIモデルのトレーニングからアプリケーションの構築・運用までのプロセスを、オープンソースのコンテナプラットフォームと関連ツールにより、大幅に自動化できるとしている。

 今回のカンファレンスで同社は、クラウド、オンプレミス、エッジなどさまざまなインフラと(GPUなどの)ハードウェアアクセラレーターを抽象化し、生成AIモデル/アプリケーションの配置、パフォーマンス、コストを最適化できることを強調した。

 Red Hatは主に4つの機能強化を発表した。

エッジへの対応強化

 エッジへの取り組みを強化する。単一ノード構成のOpenShiftにAIモデルを投入し、稼働できるようになる。これにより、必要な場所に生成AIモデルを機動的に投入できるという。

 「インターネット接続が全くないか接続が不安定な環境でも、推論が実行できる。一方で、分散する多数のエッジ環境のライフサイクルを統合的に管理できる。エッジでのモデルの監視や管理に、一貫性と拡張性を与えられる」(Red Hatグローバルソフトウェアエンジニアリングシニアディレクターのシェラード・グリフィン氏、以下同)

 関連してRed HatはDell Technologiesなどのサーバベンダーと協業し、OpenShift AIのパッケージソリューションを提供する。必要な構成を済ませ、アプライアンスてしてエッジやオンプレミスへ導入しさえすれば、生成AI活用の環境が整うようになる。

 こうしたパッケージには、Red HatがIBM Reseachと共同でオープンソースとしてリリースした大規模言語モデル(LLM)「Granite」が組み合わせられる。より具体的には、Graniteをインストールした「Red Hat Enterprise Linux(RHEL)」を「RHEL AI」と呼び、これをOpenShift AI上で動かすことになる。

GPUなどの利用のセルフサービス化

 生成AIモデルの構築や運用を担当するチームが、GPUをはじめとしたハードウェアアクセラレーターをセルフサービス形式で利用できるようになった。ハードウェアアクセラレーターの利用構成をプロファイルとして設定できる新機能によって実現する。

 「これまで、モデル、ランタイムとアクセラレーターを適切に組み合わせるのは面倒な作業だった。新機能では、これを容易でシンプルに行えるようにする」

パフォーマンスやスループットの最大化、コストの節約がやりやすくなるという。

予測AIモデルと生成AIモデルの統合的なサービング

 KubernetesのCustom Resource Definition(CRD)であるKServeなどを活用し、予測AIモデルと生成AIモデルの統合的なサービングができる。推測、前処理、後処理を含めて予測/生成AIモデルを単一基盤上で実行できることにより、複数のユースケースでのAI利用におけるコストを節約でき、運用も簡素化できるとしている。

分散処理におけるGPUなどのリソースの割り当て

 KubeRay(分散コンピューティング フレームワークのRayをKuberentes上にデプロイするもの)によるワークロード管理、およびCodeFlareによるタスクオーケストレーション機能を活用し、GPUなどのアクセラレーターリソースを、ユーザーやワークロードに割り当てることができる。

 「(KubeRayやCodeFlareによって、)何百のノード、数千のGPUがあれば全てをシームレスに使い、ワークロードを分散して処理できる。それだけでなく、リソース管理に気をつけたい場合にも役立つ。クォータ管理、ジョブのキュー管理などにより、適切なユーザーやワークロードに割り当てて、ハードウェアの利用を最適化できる」

Copyright © ITmedia, Inc. All Rights Reserved.

[an error occurred while processing this directive]
ページトップに戻る