AI時代に残る人の価値は「正しい問い」を生み出す「どうありたいか」
生成AIは、作業を速くするための道具という枠を超え始めています。コード生成の支援に加えて、設計書のたたき台まで作れる場面が増え、学習用の情報も短い周期で更新されます。私はこの変化を、技術トレンドの話として見るより、開発や運用の前提が変わる話として捉えています。
ただ、変化が速いからこそ導入を急いだ結果として、期待と現実がずれるケースもあります。出力が増えるほど確認範囲が広がり、レビューや差し戻しが増え、責任の所在が曖昧になりやすくなります。成果につなげるには、ツール選定よりも先に「どう業務へ組み込むか」を設計する必要があります。
目次
AIへの恐怖感 変化の速さは、負荷と不安も生む
生成AIの変化はめまぐるしく、数週間、あるいは数日単位でも状況が変わります。新しいモデル、連携機能、周辺ツールが出るたびに、最適解が変わります。この変化は追随の負荷を生みますし、短期的には人間の仕事の一部が置き換わる局面もあります。現場が不安を感じるのも当然です。
「今日頑張っている工夫や努力が明日には無駄になるかもしれない」
「自分の仕事がAIにとって代わられるかもしれない」
この不安を打ち消すためには、楽観論を語るよりも、変化を受け止めたうえで「人が担う価値をどこに置くか」を設計し直すべきだと考えています。AIが得意なのは、一定の条件がそろった問題に対して、解決策の候補を大量に出し、反復を速く回すことです。逆に人が担うべきは、条件をそろえる前段にある「問題の定義」や「判断基準の明文化」です。
2026年2月の決算発表のタイミングで、元Twitter創業者のジャック・ドーシーが率いるアメリカのフィンテック企業Block(旧Square)が、従業員約1万人のうち4,000人以上(約40%)を解雇すると発表し、大きなニュースになっています。
CEOドーシーは主な理由をAIによる生産性向上と説明し、さらに「1年以内に多くの企業が同じことをする」と発言しています。これは、市場環境が厳しくなくても、AIの効率化によって解雇されるケースが増えていく可能性を示唆しています。
人間の価値は「正しい問いができるか」に移る
AIが進化するほど、人に残る価値は正しい問いに寄っていきます。ここでいう問いは、気の利いた質問文のことではありません。意思決定としての問いです。何を優先し、何を守り、何をしないのかまで含む、方針そのものです。
AIは解決策の候補を作れます。しかし、どの解決策を採用するか、その結果の責任を誰が引き受けるかは、人が引き受ける必要があります。私はこの点が、AI時代の差別化の中心になると考えています。
ツールの差は縮まり、機能は同質化しやすいからです。最後に差が出るのは、判断の質と、その判断を支える価値観です。
さらに言えば、AIの普及は「正しい結論に到達する速度」を引き上げます。裏返すと、正しい意見を集めて合意すると、結論が平均点へ収束しやすくなります。だからこそ、差別化は施策の数や小手先の工夫ではなく、意思決定の原則として何を採用し、何を採用しないのかを先に言語化しておくところから始まります。
個性を作るために「何をしないか」を決める
難しいのは、理性的であればあるほど、周囲の意見がだいたい正しいことです。正しい意見を丁寧に集め、丁寧に合意すると、結論は安定します。ただし、安定するほど着地点は平均点に寄ります。
AIが普及すると、この傾向はさらに強まります。ベストプラクティスが高速に共有され、もっともらしい結論が誰でも作れるようになるからです。結果として、正しさを積み上げた先で、どこも似た意思決定になりやすくなります。
しかし、新しさは、いつも正しい道の延長から生まれるわけではありません。むしろ、局所的な違和感や、少し変な組み合わせ、周囲が採らない選択から生まれることが多いと私は考えています。
合理的に期待値を最大化しようとすると、どうしても高確率の選択に寄ります。高確率の選択は失敗しにくい一方で、差が出にくい。リスクとリターンが相反する以上、差別化はどこかでリスクを引き受ける意思と結びつきます。
だから私は、差別化を何をするかより先に、何をしないかで決めるべきだと思っています。ここでいう「しない」は、保守的になるという意味ではありません。
全方位で正しく振る舞おうとして平均点に収束するのを避けるために、あえて取らない選択肢を明確にするという意味です。言い換えると、どこまで他社と違ってよいかを、価値観として先に決めるということです。知的好奇心が重要になるのもこの文脈です。正しさの比較だけでは辿り着けない領域に踏み込むには、計算だけでなく探究心が必要になります。
ただし、やみくもに逆張りすればよいわけではありません。差別化にはリスクが伴います。だからこそ、周囲の状況を見ながら、どの範囲までリスクを取るのか、どの範囲は揃えるのかの線引きが必要です。私はこの線引きを、意思決定の前提として言語化しておきたいと考えています。
そのために、私は次の問いを先に置きます。
- 私たちは、正しさの合意が取れていても、あえて採らない選択肢を何にするか
- 他社と同じ結論に寄りやすい領域と、違う結論を許容する領域をどう分けるか
- 期待値の最大化より優先する価値は何か(信頼、透明性、長期の関係、説明可能性など)
- どの程度の不確実性までなら受け入れるか、受け入れないか
- うまくいかなかったときに、どこで立ち止まり、何を見直すか(撤退条件や再設計の条件)
- 現場が迷ったときに参照できる判断基準を、誰の責任で維持するか(最上位管理者を含む)
AI活用も同じです。AIでできることが増えるほど、合理的な結論に寄りやすくなります。
だからこそ、私たちがどこでリスクを取るのか、どこで取らないのかという価値観が、活用の質そのものになります。結局、AIをうまく活用できるかどうかは、ツールの性能だけで決まりません。何を目的にし、何を守り、どこまで違いを許容するかという考え方まで含めて、組織としての差になります。
倫理観、価値観が正しい問いにつながる
AI活用が難しいのは、できることが増えるほど、責任の所在が曖昧になりやすい点です。出力の品質が上がるほど、人はそれを前提に動けてしまいます。
ところが、何か問題が起きた瞬間に問われるのは、「なぜその判断をしたのか」「誰がそれを許容したのか」です。私は、ここに企業の倫理観が表れると考えています。倫理観は、綺麗なスローガンではなく、例外が起きたときの判断の一貫性として見えます。
AIは、最適化の道具として非常に強力です。しかし、最適化は目的関数を置いた瞬間に始まります。目的関数が曖昧であれば、最適化は別の方向へ進みます。つまり、AIの出力を制御する鍵は、モデルの性能だけではなく、「何を目的としてよいか」「何を目的としてはいけないか」を先に決めることです。私はこれを、技術の設定ではなく、組織の価値観の設定として扱います。
ここで誤解が生まれやすいのは、倫理観やルールの定義を、禁止事項の列挙だと思ってしまうことです。禁止だけでは現場は萎縮し、結局は自己判断で曖昧に運用されます。私が重視したいのは、現場が迷ったときに戻れる最小限の軸を作ることです。軸があることで、現場は挑戦できます。挑戦の範囲が明確であれば、違いを作るためのリスクも、管理可能なリスクとして扱えます。
定義するべき最小限の項目を挙げるとすれば、以下の4点です。
-
利用してよい情報と利用してはいけない情報を分類する
個人情報や契約情報のように扱いが厳格な情報に加えて、公開前情報や機密区分の高い設計情報など、組織として守るべき対象を明文化します。ここが曖昧だと、現場の善意に依存しやすくなります。 -
レビュー基準を言語化する
正確性、法令、セキュリティ、ブランドの整合、引用の適切性といった観点を、誰が見ても同じ方向へ判断できる言葉に揃えます。私はこれを、判断の再現性を上げるための標準化だと捉えています。 -
意思決定の履歴を追える構造にする
ログは量を増やすことではありません。誰が、何に、どの情報を参照させ、どんな出力を得て、どう採用したかを追える形にします。追える構造があれば、説明可能性と是正可能性が上がります。 -
例外発生時の手順を決める
緊急時に誰が止めるのか、誰が承認するのか、どこで差し戻すのかを決めます。ここでは最上位管理者が最終判断を担う場面も明確にします。例外時の手順が決まっていれば、現場は安心して運用できます。
私は、これらを「守りのルール」として置くのではなく、「信頼を作る設計」として置きます。AIが当たり前になるほど、差別化は出力の巧さではなく、意思決定の理由が説明できるかどうかと、誤りが起きたときの是正の速さに現れます。倫理観とガバナンスは、その基盤です。何をしないかを決めることは、現場の自由を奪うのではなく、企業として引き受けられる責任の範囲を明確にすることだと考えています。
競争力を決めるのは、問いと責任
AIが普及すると、正しい情報は以前より速く手に入ります。その結果、出力結果は平均点へ収束しやすくなります。だからこそ、差別化の中心は「何をするか」ではなく、「何をしないか」を含めた問いの設計へ移ります。どこで他社と違ってよいのか、どこまでの不確実性を受け入れるのか、どこで止めるのか。この線引きは、人間が持つ倫理観や価値観の問題です。
そして、価値観は運用に落ちた瞬間に実体を持ちます。説明可能性、再現性、検証可能性、是正可能性が揃っている状態は、偶然には生まれません。標準化によって判断基準を揃え、履歴を追える構造を持ち、例外時の手順を先に決めることで、信頼は設計できます。
AI時代に問われるのは、ツールの使い方そのものよりも、どんな問いを立て、どんな責任を引き受け、何をしないと決めるかです。私はそこに企業の姿勢が現れ、長期的な競争力が宿ると考えています。
株式会社LYZON 代表取締役。 2006年、東京大学工学部卒業。大学在学中よりWeb関連ビジネスに携わり、2007年、大学院在学中に株式会社LYZONを設立。 2009年よりSitecore開発案件に参画し、以降、CMS導入や大規模Webシステムの構築・運用支援に従事。 Sitecore、Drupalをはじめとする多様なCMS開発に携わり、会員サイト、認証連携、外部システム連携など、複雑な要件を伴うプロジェクトを多数支援。ビッグデータ関連の特許技術開発経験も持つ。