第3章と第4章の間
ワークショップ
学んだことすべてが、ひとつの会話の向こうに。
ワンショットをやめよう。
この時点で君にはツールキットがある:ビルディングブロック、ソクラテス式手法、コンテキストエンジニアリング、システムプロンプト、トークン。
実際のところ、良い結果はほとんど一発のプロンプトからは出てこない。AIから一番多くを引き出す人たちは、AIを協力者として扱う。目標を共有し、モデルが一振りし、君が押し返し、モデルが書き直し、君が文脈を足し、モデルがまた試す。4~5ラウンドのあと、答えが着地し始める。
プロンプティングとは会話だ。
どのテクニックもムーブだ。
会話の中では、君が学んだどのテクニックも、君ができるムーブになる:
5つのビルディングブロックで開く:役割、タスク、フォーマット、制約、例。 (第1)
目的があいまいなとき、AIに組み立てる前にまず君をインタビューさせる。それがソクラテス式ムーブ。 (第2)
重要な場面ではコンテキストを丁寧に詰める。何を入れるかと同じくらい、何を外すかも真剣に考える。 (第3)
推論が必要な問題では、モデルにステップごとに考えるよう伝える。 (少しあとで詳しく)
初稿がしっくりこないときはイテレートする。一発で決める人はいない、プロも含めて。
これらのムーブはすべて同じ仕事をする:AIが本当に役に立てる会話を整える手伝いをしてくれる。
もうひとつムーブ
Chain of thought、手短に。
chain of thought というプロンプティングの有名なトリックがある。プロンプトに「ステップごとに考えて」という一言を加えると、難しい問題での精度が目に見えて跳ね上がる。モデルが賢くなったわけじゃない。下書き用紙ができて、それを使っているだけだ。
この手法があまりにうまく働くので、研究者たちはそれを自動化した。君が耳にしたことがあるであろう推論モデル(ClaudeのExtended Thinking、OpenAIのoシリーズ、DeepSeek R1)は、基本的にchain of thoughtがモデルに組み込まれたものだ。頼まなくても、答える前にステップごとに考える。
ここで良い問いが浮かぶ。モデルがすでに自分で推論するなら、人間はまだ何をテーブルに持ち込めるのか?
会話だ。chain of thought は、より多くの思考がより良い答えを生むことを証明した。同じルールは一段上でも成り立つ:より多くのやり取りがさらに良い答えを生む。単独で推論するモデルは有用だ。君と一緒に推論するモデルは、たいてい本当の品質が生まれる場所だ。
下のワークショップはそれを練習する場だ。
君の番
Ultimate Prompt Builder。
左側のレシピを選び、使いたいムーブをオンにして、納得いく結果になるまでAIとターンを重ねて進めよう。