Cloudflare、AI推論のデプロイプラットフォーム「Workers AI」の正式リリースなどを発表:AIモデルを「Hugging Face」からワンクリックでデプロイ可能に
Cloudflareは、AI推論を大規模にデプロイするためのプラットフォームである「Workers AI」の一般提供開始や、Hugging Faceとの提携拡大によって、ワンクリックでAIモデルを「Hugging Face」プラットフォームからグローバルにデプロイできるようになったことなどを発表した。
CDN(Content Delivery Network)やインターネットセキュリティサービスなどを手掛けるCloudflareは2024年4月2日(米国時間)、AI(人工知能)推論を大規模にデプロイするためのプラットフォームである「Workers AI」の一般提供開始や、Hugging Faceとの提携拡大によって、ワンクリックでAIモデルを「Hugging Face」プラットフォームからグローバルにデプロイできるようになったことなど、AIに関する一連の取り組みの成果を発表した。
発表内容の概要は以下の通り。
- Workers AIの一般提供開始
- AIモデルがワンクリックでHugging Faceからグローバルにデプロイ可能に
- 世界150以上の都市のデータセンターにGPUを展開
- 「BYO LoRA」でファインチューニングしたモデルがWorkers AIで実行可能に
- Pythonで「Cloudflare Workers」が記述可能に
- 「AI Gateway」が「Anthropic」「Microsoft Azure」「Amazon Bedrock」「Vertex AI」「Perplexity AI」をサポート
- ベクトルデータベースの「Vectorize」を2024年6月に正式リリース
Cloudflareは、これらの取り組みによってCloudflareの開発者向けプラットフォームは、より包括的なAI構築プラットフォームに進化していると述べている。
「最近の生成AIブームを背景に、企業はAIに膨大な時間と資金を投資している。だが、AIに関しては、簡単にデモを行うことができる一方で、本番環境への投入が極めて難しいという課題がある。Cloudflareは、AIアプリケーション構築のコストと複雑さを軽減することで、この課題の解決を目指す。『Workers AI』は、AIによる推論を実行するための最も手ごろで利用しやすいソリューションの一つだ。さらに、Hugging FaceとCloudflareは、シンプルな方法と手ごろなコストでAIを提供可能にするために緊密に連携している。AIモデルを選択し、AIアプリケーションを一からグローバルに瞬時にスケールできる自由とスピードを、開発者に提供していく」(Cloudflareの共同創設者兼最高経営責任者《CEO》、マシュー・プリンス氏)
Workers AIの一般提供開始
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 非同期マルチスレッドフレームワーク「Pingora」をオープンソース化 Cloudflare
Cloudflareは、RustフレームワークPingoraのオープンソース化を発表した。Pingoraは、Cloudflareが開発したHTTPプロキシサービスの構築を支援するRustの非同期マルチスレッドフレームワークだ。 - Cloudflare、エッジ環境で分散データベースを構築可能な「D1」のオープンβ版を公開
Cloudflareは、ネイティブサーバレスデータベース「D1」のオープンβ版を公開した。 - Metaは生成AIの研究開発を支えるAIインフラ環境をどのように構築しているのか
AGIの構築をビジョンとして掲げるMetaは、生成AIインフラをどう構築しているのか。公式エンジニアリングブログで最新の取り組みを紹介した。