ニュース
LLMスタックのセキュリティを確保するには? Ciscoが解説:AIモデルの運用に不可欠
LLMスタックの保護は、データの保護、ユーザーの信頼、AIモデルの運用の完全性などを保証するために不可欠だ。本記事では、AIシステムの安全性を確保する方法を学ぶことの重要性について、LLM実装とLLMスタックに焦点を当てながら紹介する。
Cisco Systemsは2024年3月26日(米国時間)、公式ブログでLLM(大規模言語モデル)スタックの保護について解説した。Ciscoによると、LLMスタックの保護は、データを保護しユーザーの信頼を維持するだけでなく、AI(人工知能)モデルの運用における完全性、信頼性、倫理的な使用を保証するためにも不可欠なものだという。本記事では、LLMスタックを保護することで得られる、AIシステムの安全性確保やLLM実装、LLMスタックについて、Cisco Systemsがブログで解説した内容を紹介する。
LLMスタックとは?
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- LLM、AIツールの活用がAPIの需要増加要因に Gartner予測
Gartnerによると、2026年までにAPIの需要増加の30%以上は、大規模言語モデル(LLM)を使用するAIやツールからの需要が寄与するようになる見通しだ。 - デロイト トーマツが「ファインチューニング付きLLM」の開発サービスを提供開始
デロイト トーマツは、「特化型LLM」の開発サービスを提供開始した。クラウド提供型LLMが利用できない業種、業界に向けてオンプレミス運用可能な特化型LLMを提供することで、企業のLLMの活用を促進するという。 - 生成AIが抱えるリスクと、プラットフォームエンジニアリングで生成AIを活用するメリット
生成AI導入の最前線に立っているのは、DevOpsチームとプラットフォームエンジニアだ。生成AIが抱えるリスクを解説したり、生成AIを活用するメリットの事例として、プラットフォームエンジニアリングにおける活用事例を紹介したりする。