この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
ガートナーの米国本社発のオフィシャルサイト「Insights」や、アナリストらのブログサイト「Gartner Blog Network」などから、@IT編集部が独自の視点で“読むべき記事”をピックアップして翻訳。グローバルのITトレンドを先取りし「今、何が起きているのか、起きようとしているのか」を展望する。
「ChatGPT」は何が得意なのか。それはテキストだ。なぜなら、ChatGPTの機能は全てテキストでトレーニングされているからだ。
ChatGPTのベースとなっているAI(人工知能)モデルである「GPT-3」ファミリーのような大規模言語モデル(LLM:Large Language Model)は、膨大なデータセットでトレーニングすることで構築されている。これらのデータは、クローラーを使ってWebからスクレイピングで収集したり、Wikipediaなどから抽出したりしたものだ。
GPT-3だけでも、数千億の単語を含んでいる。既に周知のように、GPT-3は自然言語による質問に対して、これらの単語をつなぎ合わせて見事な回答を返せる。
だが、私はずっと「LLMを文章ではなくユーザーインタフェース(UI)でトレーニングできたらどうなるか?」と考えている。
「Figma」のような現代的なデジタルデザインプラットフォームでは、レイアウトや構成要素をコードで記述する。つまり、画面上の全オブジェクトの配置やサイズ、色といった属性がコードで記述される。
Copyright © ITmedia, Inc. All Rights Reserved.