複数の支援先で組織設計の相談を受けるうち、自分の中でのメンバー選定の基準が以前と根本から変わってきたことに、私は気付きました。かつては「何ができるか」を問うていました。今は違います。AIエージェントが多くの作業を引き受ける前提で、「この人は、AIと共に働いたときに、人間側として何を担えるのか」を問うようになったのです。なぜなら、単純な能力であれば、AIが既に担えるか、近い将来担えることが予測できるからです。
改めて考えてみると、AI時代の人間の仲間に求めるものは、突き詰めれば2つに収れんするように、私には思えるのです。
1つは、異論を出してくれる人であること。AIも技術的には異議を唱えられますが、ユーザーの意向に寄り添いがちな癖があります。加えて、私たちの側にも「どうせAIだろう」と、その意見を受け流す癖がある。生身の人間からの「それ、おかしくないですか」は、そうは受け流せません。「そもそも、それは誰の、何のためなのか」という大元の問いを投げ返してくれる仲間がいるかどうかで、プロダクトの方向性が大きく変わってきた経験が、私自身、何度もあります。無批判に「作ろう」を受け入れず、「なぜ」を問うてくれる人の存在は、AIが作業を引き受ける時代にこそかけがえがないのです。
もう一つは、一緒に責任を取ってくれる人であること。AIがどれだけ進化しても、最後に責任を取るのは人間しかいません。会社としての責任は基本的に契約に縛られますが、その契約設計そのものが「自分たちは社会でどうありたいか」の表明でもあり、ミッションやビジョンに直結しています。「儲ければいい」で済ませるなら、収益を伸ばす施策はいくらでも考えられる。そうではなく、「ここは社会にどう受け入れられるか」で止める判断が、確実にあるのです。倫理的なルールをAIに教え込むことはできるかもしれません。しかし、教え込むのは人間ですし、AIが何を言ってきても、それを受け入れるかを決めるのも人間です。最後の最後、「本当にこれ、我々で責任が取れるのか」と問題提起してくれるのは、そういう仲間です。AIはリスクの大小を示してくれるかもしれません。けれど、AIはいざというときに、裁判所に一緒に立ってくれるわけではないのです。一緒に立ってくれる可能性があるのは、人間の仲間にほかなりません。
なお、当然の前提があります。仲間に共通して求めたいのは、AIを使いこなす能力です。技術の基礎を理解し、AIに作らせたものをブラックボックスのままにしないこと──そこができていなければ、異論も責任も、そもそも成り立たないのです。
もう一つ、関係性の土壌として加えておきたいことがあります。私が13年前に日本語版の解説を書いた『Team Geek』で説かれていた、HRT──Humility(謙虚)、Respect(尊敬)、Trust(信頼)です。異論を出せるのは信頼があるから。責任を共に取れるのは尊重があるから。そして自分の限界を認められるのは、謙虚さがあるから。AIエージェントが優秀になればなるほど、この古典的な原則は、人間同士の仲間関係を支える土壌として、むしろ重要になっていくと思うのです。
「AIで1人で作れる」は、もはや事実です。しかし「AIがいれば1人で済む」という世界を、私は求めていません。
AIエージェントが優秀な作業担当者として、開発の作業の多くを引き受けてくれる時代になりました。少数で済むかもしれません。しかし、人間の仲間がゼロになることは、当面ないでしょう。
AIの出力に異論を出してくれる人、責任を一緒に背負ってくれる人。そして、スポンジ化と孤独の構造的な辛さから、互いを守り合える人──そうした仲間こそが、AI時代の組織の中核に残るのです。
冒頭でお話しした、「他人と話すのが苦手だから、ソフトウェアエンジニアになりたい」と相談してきた若者たちへの私の答えは、AIエージェントの時代になった今も変わっていません。AIエージェントに意図を伝え、文脈を共有し、出力をレビューする営みは、人と関わるのと変わらない。そして、その先でAIが踏み外したことを引き受け、責任を共に持つのは、いつも人間の仲間です。
AIが強くなるほど、人間の仲間を選ぶ目はむしろ重要になっていく。私はそう考えています。
Copyright © ITmedia, Inc. All Rights Reserved.