第3章と第4章の間

ワークショップ

学んだことすべてが、ひとつの会話の向こうに。

ワンショットをやめよう。

この時点で君にはツールキットがある:ビルディングブロック、ソクラテス式手法、コンテキストエンジニアリング、システムプロンプト、トークン。

実際のところ、良い結果はほとんど一発のプロンプトからは出てこない。AIから一番多くを引き出す人たちは、AIを協力者として扱う。目標を共有し、モデルが一振りし、君が押し返し、モデルが書き直し、君が文脈を足し、モデルがまた試す。4~5ラウンドのあと、答えが着地し始める。

プロンプティングとは会話だ。

どのテクニックもムーブだ。

会話の中では、君が学んだどのテクニックも、君ができるムーブになる:

5つのビルディングブロックで開く:役割、タスク、フォーマット、制約、例。 (第1)

目的があいまいなとき、AIに組み立てる前にまず君をインタビューさせる。それがソクラテス式ムーブ(第2)

重要な場面ではコンテキストを丁寧に詰める。何を入れるかと同じくらい、何を外すかも真剣に考える。 (第3)

推論が必要な問題では、モデルにステップごとに考えるよう伝える。 (少しあとで詳しく)

初稿がしっくりこないときはイテレートする。一発で決める人はいない、プロも含めて。

これらのムーブはすべて同じ仕事をする:AIが本当に役に立てる会話を整える手伝いをしてくれる。

もうひとつムーブ

Chain of thought、手短に。

chain of thought というプロンプティングの有名なトリックがある。プロンプトに「ステップごとに考えて」という一言を加えると、難しい問題での精度が目に見えて跳ね上がる。モデルが賢くなったわけじゃない。下書き用紙ができて、それを使っているだけだ。

この手法があまりにうまく働くので、研究者たちはそれを自動化した。君が耳にしたことがあるであろう推論モデル(ClaudeのExtended Thinking、OpenAIのoシリーズ、DeepSeek R1)は、基本的にchain of thoughtがモデルに組み込まれたものだ。頼まなくても、答える前にステップごとに考える。

ここで良い問いが浮かぶ。モデルがすでに自分で推論するなら、人間はまだ何をテーブルに持ち込めるのか?

会話だ。chain of thought は、より多くの思考がより良い答えを生むことを証明した。同じルールは一段上でも成り立つ:より多くのやり取りがさらに良い答えを生む。単独で推論するモデルは有用だ。君と一緒に推論するモデルは、たいてい本当の品質が生まれる場所だ。

下のワークショップはそれを練習する場だ。

君の番

Ultimate Prompt Builder。

左側のレシピを選び、使いたいムーブをオンにして、納得いく結果になるまでAIとターンを重ねて進めよう。