AIを信頼しても、確認と承認は分けておく

Model Weave
この記事は約9分で読めます。

前回は、AIは深掘りには強いが、飛躍や撤退判断は人間に残る、という話を書いた。

AIは、与えた方向を粘り強く掘ってくれる。
仕様を深める。
実装案を出す。
文章を整える。
レビュー観点を並べる。
何度でも改善してくれる。

これは大きな強みだ。

一方で、前提が少しズレていると、そのズレた方向のまま精密化してしまうことがある。
だから、人間は「どこを掘るか」「いつ止めるか」を見る必要がある。

今回は、もう一つ重要だと感じていることを書いてみたい。

それは、AIを信頼しても、確認と承認は分けておく必要がある、という話だ。

AIを使い続けるほど、信頼は積み上がる

ChatGPT、Codex、Geminiを使い分けながらModel Weaveを作っていると、AIへの信頼は自然に積み上がっていく。

ChatGPTは、曖昧な考えを整理してくれる。
Codexは、実際のリポジトリに対してコードを修正してくれる。
Geminiは、実装結果や仕様の抜け漏れを細かく見てくれる。

何度も助けられる。

最初は半信半疑でも、うまくいく経験が増えてくると、だんだん任せられる範囲が広がっていく。

これは悪いことではない。

むしろ、信頼できない道具は継続的には使えない。
AIを開発に組み込むなら、一定の信頼は必要になる。

毎回すべてをゼロから疑っていたら、開発は前に進まない。
ChatGPTに整理してもらった内容を毎回完全に作り直す。
Codexの差分をすべて手で書き直す。
Geminiの指摘をすべて別の観点で再検証する。

それでは、AIを使っている意味が薄くなる。

だから、AIを信頼すること自体は必要だと思っている。

ただし、信頼することと、承認することは同じではない。

信頼は武器になるが、同時にバイアスにもなる

この感覚は、PMとして仕事をしてきた経験ともつながっている。

PMとして顧客と向き合っていると、最初は提案に対してかなり慎重に見られる。

なぜその対応が必要なのか。
本当にその設計でよいのか。
費用やリスクは妥当なのか。
他の選択肢はないのか。
運用に乗るのか。
あとで困らないのか。

かなり細かく確認される。

これは自然なことだ。
顧客から見れば、こちらは外部の提案者であり、最初から全面的に信頼する理由はない。
だから、疑いの目を持って見る。

しかし、提案して、実行して、結果を出すことを繰り返していくと、関係は変わってくる。

最初よりもずっと少ない説明で承認されるようになる。
大きな方向性に合っていれば、細かいところは任せてもらえるようになる。
以前なら細かく確認されていたような提案も、比較的スムーズに通るようになる。

これは、PMとしては正直かなり大きな武器だった。

もちろん、手を抜いていたわけではない。
むしろ、信頼を失わないように、提案の質や実行結果には注意してきたつもりだ。

ただ、信頼関係があることで、提案を前に進めやすくなっていたのは事実だ。

一方で、これは顧客側に一種のバイアスが生まれていたとも言える。

「この人の提案なら大丈夫だろう」
「以前もうまくいったから、今回も大きく外さないだろう」
「細かいところまで見なくても、きちんと考えてくれているだろう」

こうした信頼は、仕事を進めるうえでは必要なものだ。

すべての提案を毎回ゼロから疑っていたら、プロジェクトは前に進まない。
信頼があるから、判断コストを下げられる。
判断コストが下がるから、仕事が進む。

ただし、信頼によって確認のハードルが下がること自体は、意識しておく必要がある。

そして今、自分がAIを使う側に回ると、同じことが起きる可能性があると感じている。

自分が顧客の位置に立ったとき、同じことが起きる

AIを使う側に立つと、自分はある意味で顧客の位置にいる。

ChatGPTが提案する。
Codexが実装する。
Geminiがレビューする。
自分はその出力を見て、採用するかどうかを判断する。

これは、顧客がPMや開発チームから提案を受けて承認する構造に少し似ている。

最初は慎重に見る。

この実装は本当に正しいのか。
この文章は自分の意図に合っているのか。
このレビュー指摘は妥当なのか。
この方針はModel Weaveのコンセプトに合っているのか。

しかし、AIが何度もよい結果を出してくれると、少しずつ承認のハードルは下がっていく。

「前回もうまくいったから、今回も大丈夫だろう」
「Codexならこの程度はうまく処理してくれているだろう」
「Geminiの指摘は細かいけれど、きっと正しいのだろう」
「ChatGPTが自然にまとめてくれたから、この文章でよいだろう」

そう思いやすくなる。

この感覚はかなり危うい。

AIを信頼することは悪くない。
むしろ、信頼できるくらい使い込めるからこそ、設計、実装、レビュー、発信が前に進む。

ただし、自分が顧客の位置に立ったとき、その信頼によって確認が甘くなっていないかは意識した方がよい。

信頼は仕事を前に進める力になる。
同時に、確認を省略させるバイアスにもなる。

だから、AIを使うときにも、信頼と承認は分けて考える必要がある。

AIは、こちらの考えを肯定し強化するのが得意

このバイアスをさらに強めるのが、AIの肯定的な応答だと思っている。

AIは、こちらの考えを整理し、補強し、前に進めるのが非常にうまい。

まだ曖昧なアイデアでも、言葉にしてくれる。
構成にしてくれる。
実装案にしてくれる。
記事案にしてくれる。
スラッグやタグやX紹介文にまで展開してくれる。

これは大きな長所だ。

自分の中にあるぼんやりした感覚を、外に出してくれる。
「この方向で考えられる」と見える形にしてくれる。
アイデアを前に進めたいときには、とても心強い。

Model Weaveの開発記事でも、この効果はかなり大きかった。

最初は断片的なメモだったものが、記事の流れになった。
開発経緯が、数回のシリーズ構成になった。
各回のタイトル、スラッグ、タグ、アイキャッチ、X紹介文まで揃っていった。

これは、人間だけでやるよりずっと楽だった。

一方で、肯定的な意見が続くと、自分の考えが正しいものとして補強されていく。

本当は前提を疑うべき場面でも、AIがきれいに整えてくれることで、問題が見えにくくなることがある。

「この方向でよいと思います」
「かなり良いです」
「記事になります」
「この構成は自然です」

こうした反応は、前に進める力になる。
ただし、同時に自分の考えを強化しすぎることもある。

つまり、AIはアイデアを強化するのは得意だが、こちらが明示的に求めない限り、十分に批判的な立場を取ってくれるとは限らない。

肯定が続くと、客観性を失いやすい

これは、AIを使う上でかなり気をつけたいところだ。

人間同士でも、肯定的な反応が続くと、自分の考えに自信を持ちやすくなる。

それ自体は悪いことではない。
何かを作るには、ある程度の勢いが必要だ。
常に否定されていたら、個人開発は進まない。

しかし、肯定だけが続くと、客観性を失いやすい。

これはAIでも同じだと思っている。

AIは、こちらが出した方向性をうまく言語化してくれる。
きれいにまとめてくれる。
説得力のある形にしてくれる。

その結果、まだ弱い案でも、かなり整った案に見えることがある。

文章が整っている。
構成が自然に見える。
メリットも整理されている。
次のアクションも出ている。

すると、つい「これはよい案だ」と思いやすくなる。

しかし、整っていることと、正しいことは別だ。

これはAI活用でかなり重要だと思っている。

特に、Model Weaveのような設計ツールを作っていると、AIは非常に多くの拡張案を出してくれる。

このフォーマットも作れる。
このdiagnosticsも追加できる。
このViewerも作れる。
このdiagramも出せる。
この連携もできる。
この記事も書ける。

どれも魅力的に見える。

でも、全部が今必要なわけではない。
全部がModel Weaveのコンセプトに合うわけでもない。
全部を作ると重くなる。

だから、肯定的な整理を受け取った後に、あえて一度距離を置く必要がある。

確認と承認を分ける

AIを使うときに意識したいのは、確認と承認を分けることだ。

確認とは、出力を見ること。
内容を理解すること。
差分を見ること。
前提に合っているかを見ること。
明らかなミスがないかを見ること。

承認とは、それを採用することだ。

この二つは似ているが、同じではない。

AIの出力を読んだ。
自然に見えた。
大きな問題はなさそうだった。

それだけでは、まだ承認したことにはしない。

特に重要な変更では、もう少し見る。

たとえば、Codexがコードを変更した場合は、差分を見る。
ビルドやテストの結果を見る。
関係ないファイルを触っていないか見る。
READMEや仕様とズレていないか見る。

Geminiがレビュー指摘を出した場合は、その指摘をそのまま採用するのではなく、優先順位を見る。
今対応すべきか。
後続でよいか。
そもそも採用しない方がよいか。

ChatGPTが記事本文を整えた場合は、自分の言葉として公開できるかを見る。
自分が言っていないことを言っていないか。
過度に断定していないか。
公開向けとして自然か。

確認したうえで、採用する。

この線を残しておくことが大事だと思っている。

あえて反対意見やリスクを出させる

AIの肯定的な性質を補うには、あえて批判的な役割を与えるのがよい。

最近は、AIに対して次のような聞き方をすることが増えた。

  • この案の弱点は何か
  • 前提が間違っている可能性はあるか
  • 反対意見を出すならどうなるか
  • 今やらない方がよい理由はあるか
  • もっと軽い代替案はあるか
  • 後で保守に困りそうな点はあるか
  • 公開前に確認すべきことは何か
  • この文章は外から見て不自然ではないか

こう聞くと、AIはかなり役に立つ。

つまり、AIが常に肯定しかしないというより、使う側が批判的な役割を明示する必要がある。

「この案を良くして」
と聞けば、AIは良くする方向に進む。

「この案の弱点を出して」
と聞けば、弱点を出してくれる。

「反対意見を書いて」
と聞けば、反対側の視点を出してくれる。

この使い分けが重要だと思っている。

AIを小さな開発チームとして使うなら、肯定的な企画担当だけではなく、慎重なレビュー担当や、反対意見を出す役も必要になる。

Geminiをレビュー役に置くのも、その一つだ。
ただし、Geminiの指摘もそのまま承認するのではなく、やはり人間が採否を判断する。

批判的な視点をAIに出させる。
そのうえで、人間が判断する。

この二段階が大事だ。

信頼してよいが、任せきりにはしない

ここまで書くと、AIを疑いながら使うべき、という話に見えるかもしれない。

でも、自分の感覚は少し違う。

AIは信頼してよい。

少なくとも、信頼しないと実用にはならない。
毎回すべてを疑っていたら、開発も記事作成も前に進まない。

実際、Model Weaveの開発はAIなしではここまで進まなかったと思う。

ChatGPTが構想を整理してくれた。
Codexが実装を進めてくれた。
Geminiが細かくレビューしてくれた。
またChatGPTで記事化や次の指示に落とし込んだ。

この流れはかなり強い。

だから、AIを信頼すること自体は悪くない。
むしろ必要だと思っている。

ただし、任せきりにはしない。

信頼して使う。
でも、重要なところでは確認する。
確認したうえで承認する。
承認したものは、自分の成果物として引き受ける。

この感覚が大事なのだと思う。

AI活用で人間に残るもの

ここまで4本に分けて、Model Weaveの開発を通じたAI活用について書いてきた。

最初は、ChatGPT・Codex・Geminiを小さな開発チームとして使う話を書いた。
次に、AIによって自分だけでは作れなかったものに手が届くようになる話を書いた。
その次に、AIは深掘りには強いが、飛躍と撤退判断は人間に残るという話を書いた。
そして今回は、AIを信頼しても、確認と承認は分けておく必要があるという話を書いた。

この流れで考えると、AI時代の人間の役割はかなり変わっていくように思う。

全部を自分で手作業する必要は減っていく。
実装も、文章化も、レビュー観点出しも、かなりAIに任せられる。

一方で、人間の役割がなくなるわけではない。

何を作るのかを決める。
どのAIに何を任せるのかを決める。
どの提案を採用するのかを決める。
どこで止めるのかを決める。
出てきたものを自分の成果物として引き受けられるか確認する。

この役割は残る。

むしろ、AIが作業を肩代わりしてくれるほど、人間は判断と責任の側に寄っていく。

Model Weaveの開発は、自分にとってその実験にもなっている。

AIを使えば、個人開発で作れる範囲は大きく広がる。
ただし、AIの出力をそのまま流すのではなく、人間が方向を決め、確認し、承認する。

AIを信頼する。
でも、承認の線は残す。

今のところ、自分にとってはこれが一番しっくりくるAIとの付き合い方だ。

コメント

タイトルとURLをコピーしました