プロンプトエンジニアリング力を高めるには何をすればいい? Google Cloudが紹介文脈に合った明確で具体的なプロンプトを作成するには

Google Cloudは、効果的なAIプロンプトを作成するための6つのベストプラクティスを公式ブログで紹介した。

» 2023年08月18日 08時00分 公開
[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 Google Cloudは2023年8月15日(米国時間)、効果的なAI(人工知能)プロンプトを作成するための6つのベストプラクティスを公式ブログで紹介した。

 「AIベースのツールの普及が進むにつれ、プロンプトエンジニアリングは、開発者が習得すべきスキルになりつつある。生成AIの基盤モデル(大規模言語モデルなど)に望ましい出力を生成させるには、文脈に合わせて、意図を具体的に記述した自然言語命令を与えなければならない。つまり開発者は、有用な情報を提供する明確かつ簡潔なプロンプトを書く必要がある」と、Google Cloudは述べている。以下のベストプラクティスを実践することで、よりパーソナライズされ、正確で、文脈を意識したアプリケーションを作成できるようになるとしている。

ヒント1:モデルの長所と短所を知る

 AIモデルが進化し、より複雑になるとともに、その能力と限界を理解することが開発者にとって不可欠となっている。

 例えば、特定のフルーツ(ブルーベリーなど)の画像を認識するようにトレーニングされたAIモデルは、別のフルーツ(イチゴなど)の画像を認識できないかもしれない。このモデルを使って、ブルーベリーとイチゴの両方を認識するためのアプリケーションを作成すると、そのアプリケーションはミスを犯す可能性が高い。

 AIモデルにはバイアス(偏り、偏見)がある場合があることに注意することも重要だ。AIモデルのトレーニングに使われる現実世界のデータにバイアスがあれば、モデルにもバイアスが生じてしまう。人々に影響を与える決定を下すためにモデルが使用される場合、これは問題につながりかねない。社会に内在する不公平な力関係など、社会的バイアスを強化する恐れがあるからだ。

 こうしたトレーニングの限界やバイアスを認識し、これらに対処することは、データの公正性を保証し、平等を促進し、AI技術の責任を確保するために重要だ。

ヒント2:できるだけ具体的に

 プロンプトの具体性が不十分な場合、AIモデルはそれを誤って解釈する可能性がある。望む結果に合わせた具体的なプロンプトを作ることが重要だ。

 例えば、AIモデルに「50個のビーガンブルーベリーマフィンのレシピ」を生成させたいとする。「ブルーベリーマフィンのレシピは何ですか」というプロンプトを与えた場合、必要な材料の量が示された回答や、大量のマフィンを効率よく焼くためのヒントが示された回答は、まず得られない。

 より効果的なプロンプトは、「50人のゲストをもてなします。50個のブルーベリーマフィンのレシピを作ってください」といったものだ。

ヒント3:文脈に合ったプロンプトを利用

 文脈情報を明示したプロンプトを与えることで、モデルが要求を深く理解できるようになる。モデルに実行させたい具体的なタスク、求めている出力のレプリカ、模倣すべきペルソナ(マーケティング担当者、エンジニア、高校の教師など)などを記述することで、文脈に合ったプロンプトになる。

 上に挙げたブルーベリーマフィンのレシピの場合、レシピがヴィーガンフレンドリーでなければならないという文脈も、モデルに伝える必要がある。例えば、熟練したヴィーガンシェフとして回答するよう求めるプロンプトを作るとよいかもしれない。

 文脈に合ったプロンプトを提供することで、AIとのやりとりを可能な限りシームレスで効率的なものにし、より正確で適切な回答を生成させることができる。

ヒント4:AIモデルに例を示す

 プロンプトで例を示すと、AIモデルに要求を理解させるのに有効だ。例えば、次のようなプロンプトを作るとよい。「私が好きなレシピがここに幾つかあります。これらのレシピを基に、新しいレシピを作ってください」

ヒント5:プロンプトとペルソナで実験する

 さまざまなリクエストの仕方を創造的に探求することで、「モデルがどのように答えを重み付けするのか」や、「特定分野の知識、専門ノウハウ、生活経験を、数十億のパラメーターを持つ大規模言語モデル(LLM)のパワーと融合させると、どうなるのか」が、すぐに分かってくる。

 さまざまなキーワード、文の構造、プロンプトの長さを試してみるとよい。また、「プロダクトエンジニア」「顧客サービス担当者」といった職種から、「祖母」「セレブシェフ」といった親族や有名人まで、さまざまなペルソナを使ってみるのも有効だ。

 自分の専門ノウハウや経験を盛り込んだユニークで斬新なリクエストを作成することで、どんなプロンプトで理想的な出力が得られるかが分かる。プロンプトを微調整し、より洗練させることで、次の出力につながるモデルの理解やフレームワークがより改善される。

ヒント6:思考連鎖プロンプトを試す

 思考連鎖プロンプトは、LLMの推論能力を向上させるテクニックだ。複雑な問題をより小さなステップに分解し、各ステップで中間的な推論を行うようLLMに促すというものだ。このテクニックは、LLMが問題をより深く理解し、より正確で有益な答えを生成するのに役立つ。また、自分が答えをよりよく理解し、LLMが実際に問題を理解していることを確認するのにも役立つ。

Copyright © ITmedia, Inc. All Rights Reserved.

スポンサーからのお知らせPR

注目のテーマ

Microsoft & Windows最前線2025
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。