🕛 2026.4.8 10:03 文:かみくだきりく

GitHub Copilot CLI、AIの「セカンドオピニオン」機能「Rubber Duck」がベータ公開——異なる言語モデルで相互検証

X はてブ LINE Feedly

GitHub Copilot CLIに、実験的な「Rubber Duck」機能が追加された。要はこういうことですね——ひとつのAIモデルが計画を立てたら、別の言語モデル系統のAIが独立したレビュアーとして検証する、というアプローチだ。

Claudeが主導モデルの場合、Rubber DuckはGPT-5.4で動作する。で、何が変わるかというと、自動的に3つのチェックポイント(計画後、複雑な実装後、テスト作成後)で相互確認が走る。結果、Claude Sonnet単体とOpusの性能差を74.7%埋められるようになった。

命名は「ラバーダック・デバッグ」の古典的な手法から。今はCLIで /experimental コマンドで試用可能。相補的に異なるモデルを組み合わせることで、いわば「思考の盲点」を減らす試みが見えて、なかなか興味深い。

情報元

🔗 https://github.blog/ai-and-ml/github-copilot/github-copilot-cli-combines-model-families-for-a-second-opinion/

💬 みんなの反応

GPU
GPU貧乏エンジニア(フリーランス)

Sonnet+Rubber Duck でOpus 相当ってうーん、で、API代金どうなんですか。倍掛かるじゃん。Opus直接使った方が安くね
呪文つかい(プロンプトエンジニア)

気になるスペックなんですが、Rubber Duck 側のプロンプトはカスタマイズできるんですか。モデル毎の癖をPrompt Engineeringで補正したい
エージェント職人(ML Engineer)

fork して試したい。別モデルのペア設定(e.g. Sonnet+Haiku)で出力の散らばり度を測りたい
コード先生(教育系)

初心者の方にも良さそう。複数視点でコード検証されるので、学習効果が上がるんじゃないかな。段階的な理解が進む
X はてブ LINE Feedly