◀︎ AI NEWS 一覧へ

同じプロンプトを繰り返すだけで精度が上がる?「QQメソッド」とは

2026.01.07
同じプロンプトを繰り返すだけで精度が上がる?「QQメソッド」とは

Googleが見出した新たなプロンプト手法

「プロンプトを構造化したり、指示を具体的にしているのにいまいち伝わっていない気がする…」
「できれば作りこみをせずに精度を上げたい…」

ここ数年で生成AIの性能や機能は大幅に強化されましたが、それでもあと一歩、かゆい所に手が届かないということはあるかもしれません。
追加学習やRAGの開発、外部ツールとの連携など調整方法はいくつか知られていますが、そこまでの予算や労力はかけられないことが多いでしょう。

ですが、もし、簡単なプロンプトの工夫だけでより良い成果が得られるとしたら…?

今回ご紹介するのは、Googleの研究チームが2025年末に発見したプロンプト手法です。
そのテクニックは驚くほど簡単で、「同一の入力をそのまま2回繰り返す」だけ。
同じQUERY(クエリ)を2回繰り返すことから、「QQメソッド」と呼ばれています。

本稿では、Google ResearchがarXiv(アーカイブ)で公開した “Prompt Repetition Improves Non-Reasoning LLMs” を一次情報として参照しつつ、使いどころと注意点を整理します。


1. 概要:Prompt Repetition(通称:QQメソッド)とは

手法はシンプルで、同じプロンプトをそのまま連結して2回入力するだけです。
論文では、入力を次のように変換すると説明されています。

  • 変更前:<QUERY>
  • 変更後:<QUERY><QUERY>

例えば、下記のようなイメージです。

(Q)
次の文章を要約してください:......

(QQ / Prompt Repetition)
次の文章を要約してください:......
次の文章を要約してください:......

ポイントは、2回目に内容を言い換えたり、補足したりしないことです。
あくまで「同一クエリの反復」になっていることが重要です。


2. 実験の詳細:実験結果から見る効果と有効範囲

論文が主に主張しているのは、推論(reasoning)を使わない設定において、プロンプトの反復が幅広いモデル・ベンチマークで精度を高めた、という点です。

2.1 対象モデルと評価条件

論文の実験では、評価対象として主要LLMプロバイダの公式APIで動作する7モデルが使用されています。

  • Gemini 2.0 Flash / Gemini 2.0 Flash Lite
  • GPT-4o / GPT-4o-mini
  • Claude 3 Haiku / Claude 3.7 Sonnet
  • DeepSeek V3

2.2 非推論設定での改善:47/70で「有意に向上」。性能悪化は0。

論文では、ベンチマークとモデルの組み合わせを70通り用意して、推論を行わない条件でプロンプト反復による性能の変化を確認したとしています。
その結果として、47のケースで統計的に有意な改善が見られ、性能が悪化したケースは皆無だったというのです。

さらに、特定のカスタムタスクでは大幅な改善例も提示されています。
例えば、NameIndex(人物名・固有名詞の識別、関連付け、記憶保持能力を測るテスト)においてGemini 2.0 Flash-Liteの正答率が 21.33%→97.33% に上がった、と記載があります。

2.3 「推論あり」のケースでは効果は限定的

「think step by step」のように推論を促す条件では、効果は限定的で、28ケース中で改善が見られたのは僅か5ケースに留まったと報告されています。

これらの実験結果から、プロンプトの反復は「何にでも効く魔法のテクニック」とまでは言えませんが、非推論タスクに限れば手軽で有効な改善手段だと言えるでしょう。


3. 仕組みの理解:同じ文章を繰り返し読むことで理解が深まる

なぜ、全く同じプロンプトを繰り返しただけで性能が向上するのでしょうか。

論文では、言語モデルの性質によるものと考察されています。
言語モデルは基本的に左から右へと文章を読み込んで処理するため、同じ内容でも、単語や文章の順序によって、読み取り方や優先順位が変わってしまうことがあります。

例えば、多肢選択問題では、質問と選択肢の順序を変えただけで回答の精度が変わることがあります

  • question-first:質問→選択肢
    • 先に「何を答えるべきか」が決まるので、選択肢を目的意識を持って比較できる。
  • options-first:選択肢→質問
    • 先に選択肢を読むことになるが、この時点では質問を読んでいないので意図がくみ取れない。次に質問を読むことになるが、「意図が分からない選択肢」という印象に引きずられてうまく回答できない可能性が高まる。

プロンプトの反復は、「同じ文章をもう一度読ませることで、順序による混乱を防ぐ仕組み」ということができます。
二回目の読み込み時には同じ内容を一度読み込んでいるので、一回目を読み込んだ時より正確に理解できるということです。

人間で例えると、文章を読んで一度で理解しきれなかった時、確認のために同じ文章をもう一度読み直すことがあると思います。
生成AIは「左から右に順番に読む」という性質上、一度通り過ぎた文章を読み直すことが難しいので、同じプロンプトの中に「同じ文章を読み返して理解を深める」ポイントを設定してあげる必要があるのです。


4. 使い道:非推論のタスクで効果を発揮

論文の結論から考察すると、プロンプトの反復テクニックは、次のようなケースで効果が期待できます。

  • 非推論タスク:分類、抽出、照合、形式変換、短い説明生成など
  • 入力が長く、制約や条件が多い依頼(ただし長すぎる場合は遅延の原因にもなります)
  • 質問とコンテキスト(選択肢・条件)が離れている、または順序がバラバラになりやすいUI/フォーム設計

一方で、以下のようなケースでは効果を実感しにくいでしょう。

  • 推論モードを前提にする使い方(step-by-stepで考えさせる等)
  • 入力が非常に長いケース:全く同じプロンプトを2回繰り返すので、入力トークンが倍増します
  • 厳しいレイテンシ要件:多くのケースではレイテンシ増加はないものの、例外として、Anthropic系モデルで「非常に長い入力」や「×3反復」の場合に遅延が増える可能性が述べられています。

5. 実践:今使っているプロンプトで試してみよう

QQメソッドの強みは、同じプロンプトを2回貼り付けるだけなので、既存プロンプトを改修せずに導入できる点です。
ぜひ、気軽に試してみましょう。

ステップ1:対象タスクを選ぶ

「推論を要求しない」タスクがおすすめです。

例:

  • 問い合わせ文のカテゴリ分類
  • 文章からの項目抽出(期日、担当、要件、リスクなど)
  • 仕様・ログの照合(条件に合う/合わない判定)

ステップ2:効果の測定

必要に応じて次の3つの観点で評価しましょう。
QQメソッドは精度を重視するテクニックですが、API利用の場合はコスト増加も見逃せないポイントです。

  • 精度:正解率、再現率、ヒット率、人的レビューでの合否など
  • コスト:入力トークンが増える(原則2倍)前提での増分
  • レイテンシ:とくに長文入力・特定モデル利用時は実測(論文でも長文では例外あり)

6. まとめ:気軽に試せる精度向上テクニック

QQメソッドは、同じプロンプトを2回繰り返すだけという極めて簡単な工夫で、生成AIの精度を向上させることができるテクニックです。
一方で、推論を前提とした使い方では効果が限定的であり、長文入力ではコスト増と、一部モデルで遅延増の例外も指摘されています。

しかし、作りこみの必要なくすぐに試せる精度向上のテクニックとして覚えておくと、役に立つ場面は多いでしょう。


参考文献

  • Yaniv Leviathan, Matan Kalman, Yossi Matias, “Prompt Repetition Improves Non-Reasoning LLMs”, arXiv:2512.14982 (2025). arXiv
  • 解説(日本語):Ledge.ai「LLMは『同じ質問を2回』入力すると精度が上がる──Google研究者ら、プロンプト反復の効果を短報で報告」Ledge.ai