7 AI に相談して戦略を決めた日 — 最初の 6 枚を疑って 7 枚目で方向転換
recipe-ai の戦略判断で、6 つの AI に同時に相談した。僕自身 + Gemini + Claude 別インスタンス + Perplexity + ChatGPT + Microsoft Copilot。全員が「献立 AI を主役から降ろすべき」「食材検索が本命」という方向で合意した。
翌日、ChatGPT から 7 枚目の意見が届いた。それは 6 枚の合意を覆す内容だった。「食材検索を独立入口として主役にしろ」と。
これに安易に従わなかった。情報を出し直した結果、ChaptGPT 自身が主張を修正した。
この記事は、AI に戦略相談するときに陥りがちな落とし穴と、それを回避する情報の出し方の話だ。
この記事でわかること:
- 6 AI に同時相談する実務的な意味
- 合意が出たときほど疑うべきポイント
- 「7 枚目の意見」が 6 枚と違うときにどう扱うか
- AI への情報の出し惜しみが提案を歪める理由
- 相談 → 実装 → 再相談の非対称なサイクル
なぜ 6 AI に同時相談したか
相談相手を増やす目的は「合意を取ること」ではなく「違う角度を集めること」だ。
1 つの AI だけに相談すると、そいつの癖に引っ張られる。例えば Gemini は比較的保守的な提案を好む傾向があり、ChatGPT は構造化された段階設計を出してくる傾向があり、Claude は引き算(減らす判断)を提案しやすい。個々の癖は AI の特徴であって優劣ではない。でも 1 つだけだと「この角度しか見ていない」リスクがある。
6 AI に同時に同じ状況を説明すると、以下のパターンが見える:
- 全員が合意した部分 → 角度に依存しない強い判断材料
- 多数派(4-5/6)で合意した部分 → ほぼ筋が通っているが念のため反対派の論点を確認
- 意見が分かれた部分 → その論点は現時点では決めきれない。一旦保留
今回の recipe-ai の例では、「献立 AI を主役から降ろす」と「ライブラリが 122 本は少ない」は 6/6 で合意。「買い切りパックを併設すべき」は 5/6(Gemini のみ保守派)。「具体的な実装順序」は 1/6(ChatGPT のみが段階設計を提示)。
6/6 で合意した部分から優先して動く、というのがここで得られる実務的な指針だ。
合意が出たときほど疑う
問題は、6/6 の合意が「正しい」とは限らないことだ。
AI たちは同じようなデータセットで訓練されていて、似たような公開情報を参照している。だから「一般論として筋の通った答え」は合意しやすい。でもあなたのプロダクト固有の事情を知らない。
recipe-ai のケースでは、6 AI 全員が「食材検索が本命」と言った。これ自体は正しい方向なのだが、彼らは recipe-ai に既に料理名検索が実装済みなことを知らなかった。僕が最初の相談のときにその情報を出していなかったからだ。
僕は「献立 AI の位置付けをどうするか」という問いを立てて相談したので、既存の検索体験の話は脇に置いていた。結果、AI たちは「URL 直貼りしか入口がない」前提で「食材検索を新設すべき」と合意した。
ChatGPT 7 枚目が 6 枚の合意を覆した
6 AI の合意を踏まえて、一旦ピボットは保留して「広める」判断をした。その翌日、ChatGPT から追加で意見が届いた。これを 7 枚目と呼ぼう。
7 枚目は前日の合意より一段深く、「食材検索を主役にしろ。独立した入口として /ja/ingredients を切れ」という提案をしてきた。これは 6 AI の合意を「半歩先に進めた」形で、合理性は高いように見えた。
ここで安易に従いそうになる。6 枚の合意の「半歩先」だから、受け入れやすい心理がある。
でも従わなかった。
情報を出し直した
ChatGPT 7 枚目への返信で、初めて既存機能の全体像を出した:
- 料理名検索が実装済み(
/ja/search、無限スクロール、YouTube Data API) - おすすめ動画がトップに表示される(
extract_jobsキャッシュ 348 本から人気順) - 動画クリック → プレビュー + 任意タイミングで抽出ボタン(再生中でも OK、Gemini は動画全体を処理するので再生位置は関係ない)
つまり recipe-ai には既に 「食材起点じゃない検索体験」 が 3 層で実装されている。食材検索を新設するかは、この既存体験の上にどう乗せるかの問題であって、独立入口として作るべきかは前提が違う。
ChatGPT 自身が主張を修正した
情報を出し直した返信に対して、ChatGPT 7 枚目が返してきた答えは次のようだった:
訂正を踏まえると、評価は少し変わります。C は独立した第三の入口ではなく、既存の動画発見体験に乗る上位機能として扱うのが自然です。
前日の提案「食材検索を独立入口として主役に」を、自ら「既存検索の上位機能」に修正してきた。僕が合意に従って実装していたら、もっと雑多な構造になっていたはずだ。
しかも ChatGPT は、修正後の提案として 3 段階(C0: 既存検索への食材文脈の重ね合わせ → C1: 並び替え・フィルタ化 → C2: 独立した食材検索 MVP)を提示してきた。これは前日の「独立入口を作れ」より、実装順序として格段に筋が良い。
情報を出し切ると、AI は自分で主張を修正する。
相談 → 実装 → 再相談の非対称なサイクル
ここで起きたのは、以下のサイクルだ:
- 初回相談(6 AI): 情報を部分的に出す → 一般論ベースの合意 → 「食材検索を主役に」
- 実装判断: 合意を保留して広める判断
- 7 枚目: 初回合意の「半歩先」を提案 → 「独立入口で食材検索」
- 情報を出し直す: 既存機能の全体像を追加
- ChatGPT 自身が主張修正: 「独立入口ではなく上位機能」
このサイクルで大事なのは 4 のステップ だ。相談相手に情報を出し惜しみしているうちは、提案が歪む。相談の往復を増やすより、最初から情報を出し切るほうが効率的だった。
でも最初から情報を出し切るのは難しい。自分が何を当たり前と思っているかは、相手の返答を見て初めて気づく。だから「AI の提案が当てはまらないと感じたとき、それは自分が情報を出していない部分にヒントがある」と思って情報を追加する、というのが実践的な回し方だ。
他の AI にも同じ情報を出し直すべきか
今回、僕は 6 AI のうち ChatGPT にだけ情報を出し直した。他の 5 AI にも同じ情報を出して再確認するかは、リソース配分の問題になる。
一般論として:
- 初回合意が強い方向(例: 献立 AI の降格) → 情報追加しても結論は変わりにくい。再相談不要
- 実装の具体的な順序(例: 食材検索の配置) → 情報追加で提案が変わる可能性が高い。再相談の価値あり
今回は「献立 AI の降格」は 6 AI 全員一致だったので、情報追加の必要なし。「食材検索の配置」は実装に直結する部分なので、1 AI(ChatGPT)から具体的な 3 段階設計まで引き出せれば十分だった。
まとめ
- 6 AI に同時相談する目的は合意ではなく違う角度を集めること
- 全員一致したときほど、「その合意はあなたのプロダクト固有事情を知らない前提で出ている」ことを疑う
- 合意を実装する前に、情報を出し直して再相談する価値がある
- AI に情報を出し切るのが最大の節約策。相談回数を増やすより、情報の完全性を上げる
- ENTP 気質の作者は「7 枚目の提案にすぐ飛びつく」リスクがあるので、合意が出たときほど一呼吸置く
AI に戦略を丸投げするのではなく、自分のプロダクトの前提を AI に教えるつもりで情報を出す。これが 7 AI 相談から得た一番の学びだ。
この記事で作っている YouTube 料理レシピ抽出アプリ本体。動画 URL を貼るだけで AI がレシピに変換。月 5 本まで無料。
この記事が役に立ったらシェア