2025年までにソフトウェア開発リーダーの半数以上が「生成AIの監督」を任される Gartner:倫理的なリスクに備えたガイドライン導入も必要
Gartnerは、2025年にはソフトウェア開発リーダーの半数以上が、生成AIの監督を任されるとの予測を発表した。
Gartnerは、2025年までにソフトウェア開発リーダーの半数以上が、生成AI(人工知能)の監督を要求されるようになるとの予測を発表した。
Gartnerのシニアディレクターアナリストであるハリサ・カンダバッツ氏は「生成AIはテクノロジーの実装に与える影響だけでなく、ソフトウェア開発リーダーの役割も変化させる。チームや人材の管理、倫理規定に関するものも含まれる。リーダーは、このような変化を認識して適応しなければ、大きなハンディキャップを背負うことになるだろう」と述べている。
生成AIでチームの価値が焦点に
企業で生成AIを試験的に導入する場合、ソフトウェア開発リーダーは、生成AIの導入により開発チームを強化させることによるビジネス価値を示す必要がある。Gartnerは、チームに対して透明性を保ち、AI技術がどのようにスタッフを置き換えるかに焦点を当てるのではなく、AI技術がどのように開発者の生産性を向上させるかに話題を集中させる必要があると指摘している。
カンダバッツ氏は「生成AIが近い将来、開発者に取って代わることはないだろう。ソフトウェア開発における一部分を自動化する能力はあるが、人間が持つ批判的な思考や創造性、問題解決能力を複製することはできない。ソフトウェア開発リーダーは、生成AIがいかに効率を高める戦力であるかを示し、チームの価値を高めるべきだ」とも述べている。
ソフトウェア開発リーダーの人材採用と管理を変革する
生成AIアプリケーションは、職務分析や面接要約の書き起こしなど、ソフトウェア開発者の募集や採用のタスクを効率化するのに役立てることもできる。生成AIに投資することで、ソフトウェア開発リーダーの役割の人間中心の側面に集中する時間をより多く割り当てられる。
カンダバッツ氏は「採用に加えて、スキル管理と能力開発はリーダーの責任の中核をなす。AIを活用したスキル管理は、人材と作業プロセスの支援に役立つ革新的なアプローチであり、ソフトウェア開発リーダーに新しい役割を生み出すだろう」と述べている。
生成AIは倫理的な新たなポリシーを必要とする可能性も
一方、カンダバッツ氏は「基礎AIモデルを活用することで、フェイクコンテンツの生成や、バイアスなどのリスクをもたらす可能性がある。ソフトウェア開発リーダーは、慎重になる必要があるということだ」と指摘している。
AI倫理委員会と協力するか、AI倫理委員会を結成して、チームが責任を持って設計や開発を行う際に生成AIツールを使用するためのガイドラインを作成する必要がある。それは、自社開発またはサードパーティーベンダーから購入した生成AI製品の倫理的リスクを特定し、軽減する上で重要な役割を果たす。
「人間の判断や批判的思考を必要とするタスクを代替するために、生成AIを使用することは控えるべきだ。生成AIが日々の活動に最大限の価値を付加できるユースケースを常に評価すべきだろう」(カンダバッツ氏)
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 生成AIは人間が思うほど賢くはないが、人間も同じだ
生成AIのチャットエンジンから一見知的な返答があったと書くと、専門家から「単なる余興」「予測アルゴリズムの産物にすぎない」などとたしなめられる。だが、人間の知性は生成AIと比べてはるかに高いレベルにあるという、われわれの認識は正しいのだろうか。 - 「ランサムウェア攻撃にやられたらどうする」、Gartnerが説く組織としての効果的な備えとは
ランサムウェア対策では、防御やデータ保護のテクノロジーに注目が集まりがちだが、Gartnerはインシデント発生時の全社的な対応を明確化しなければならないと強調する。身代金の支払いについてのアドバイスもできる必要がある。セキュリティ担当アナリストに対策のポイントを聞いた。 - 生成AIでサイバー攻撃が「より迅速で高精度な攻撃」に進化 バラクーダがランサムウェアの攻撃パターンを調査
バラクーダネットワークスは、脅威レポート「バラクーダの注目する脅威:AI戦術の定着でランサムウェア攻撃の報告件数が倍増」を発表した。「サイバー犯罪者が生成AIを使用して、より迅速で精度の高い攻撃を行っていることを検証した」としている。