ニュース
Microsoft、「ChatGPT」がセキュリティ担当者を支援する「Microsoft Security Copilot」を発表:脅威分析や関連資料の自動作成を支援
Microsoftは、「ChatGPT」を活用してセキュリティ担当者を支援する「Microsoft Security Copilot」を発表した。
Microsoftは2023年3月28日(米国時間)、「Microsoft Security Copilot」(以後、Security Copilot)を発表した。OpenAIが開発、提供する「ChatGPT」のGPT-4モデルを活用したAI(人工知能)アシスタントとして、セキュリティ担当者の意思決定を支援する。
Microsoftは、相次ぐサイバー攻撃に対して、セキュリティ業界はそれに追い付くだけのサイバーリスク専門家を雇用できていないと指摘する。Security Copilotにより、脅威インテリジェンスを要約して理解しやすくすることで、複雑性を軽減し、セキュリティチームの能力を強化し、悪意のある活動の特定に役立つという。
Microsoft Security コーポレートバイスプレジデントのバス・ジャッカル(Vasu Jakkal)氏は次のように述べている。
「今日のサイバーセキュリティの専門家には常に大きな負担がかかっている。執拗(しつよう)で巧妙な攻撃者との不利な戦いを強いられることが多くなっているためだ。Security Copilotにより、Microsoftは戦いのパワーバランスをセキュリティ担当者に有利な方向へシフトさせる。Security Copilotは、セキュリティ担当者をAIのスピードと規模で支援する生成系AIセキュリティ製品だ」
攻撃者の次の行動を予測する、Security Copilotの特徴
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 新発表のMicrosoft 365 CopilotはChatGPTを付けただけじゃない、パワポ自動作成などの活用例をMicrosoftが紹介
Microsoftが、Microsoft 365にChatGPTのようなインタフェースを統合した「Microsoft 365 Copilot」を発表した。発表イベントでMicrosoftが説明した新製品のさまざまな使い方を紹介する。 - 思考の連鎖(Chain of Thought)でChatGPTからよりよい応答を引き出そう
ChatGPTやInstructGPTが間違った答えを出すときには、解決の手順となる「思考の連鎖」と呼ばれる情報をプロンプトに含めることで、よりよい解答を得られることがあります。これを実際に試してみましょう。 - ハルシネーション(Hallucination)とは?
ハルシネーションとは、チャットAIなどが、もっともらしい誤情報(=事実とは異なる内容や、文脈と無関係な内容)を生成することを指す。AIから返答を受け取った人間が「本当かどうか」の判断に困るという問題がある。この問題を回避する方法として、独自の情報源を付与するRAGや、Webアクセスを含める機能などがある。