Q. なんでこんなことしたの? A. [Best Practices for Claude Code](https://code.claude.com/docs/en/best-practices) を翻訳したかったから ## 前提・設定など ### 課金状況 - ChatGPT Plus(20ドルプラン) - Claude Pro(20ドルプラン) - Gemini AI Pro(2900円のプラン) - nani!?(Pro プラン) ChatGPT Pro?そんなものは知らん。 ### 使用文章 [Best Practices for Claude Code](https://code.claude.com/docs/en/best-practices) のリード文を使用(引用)しています。 ```markdown Tips and patterns for getting the most out of Claude Code, from configuring your environment to scaling across parallel sessions. Claude Code is an agentic coding environment. Unlike a chatbot that answers questions and waits, Claude Code can read your files, run commands, make changes, and autonomously work through problems while you watch, redirect, or step away entirely.This changes how you work. Instead of writing code yourself and asking Claude to review it, you describe what you want and Claude figures out how to build it. Claude explores, plans, and implements.But this autonomy still comes with a learning curve. Claude works within certain constraints you need to understand.This guide covers patterns that have proven effective across Anthropic’s internal teams and for engineers using Claude Code across various codebases, languages, and environments. For how the agentic loop works under the hood, see [How Claude Code works](https://code.claude.com/docs/en/how-claude-code-works). --- Most best practices are based on one constraint: Claude’s context window fills up fast, and performance degrades as it fills.Claude’s context window holds your entire conversation, including every message, every file Claude reads, and every command output. However, this can fill up fast. A single debugging session or codebase exploration might generate and consume tens of thousands of tokens.This matters since LLM performance degrades as context fills. When the context window is getting full, Claude may start “forgetting” earlier instructions or making more mistakes. The context window is the most important resource to manage. For detailed strategies on reducing token usage, see [Reduce token usage](https://code.claude.com/docs/en/costs#reduce-token-usage). ``` ### 翻訳プロンプト ``` 次の技術Tip文章を日本語に翻訳して ``` nani!?以外ではこのプロンプトを使用。プロンプトをもうちょっと上手く改造したらいい感じになる可能性がありそう。 ## 翻訳結果 ### ChatGPT ```markdown Claude Code を最大限に活用するためのヒントとパターン。環境設定から、並列セッションでのスケーリングまでを扱います。 Claude Code は、エージェント型のコーディング環境です。質問に答えて待つだけのチャットボットとは異なり、Claude Code はあなたのファイルを読み取り、コマンドを実行し、変更を加え、あなたが見守ったり方向修正したり、完全に席を外したりする間も、自律的に問題を解決しながら作業を進められます。これは働き方を変えます。自分でコードを書いてから Claude にレビューを頼むのではなく、あなたが望むものを説明すれば、Claude がそれをどう作るかを考えて構築します。Claude は探索し、計画し、実装します。 ただし、この自律性には学習コストも伴います。Claude は、理解しておくべき一定の制約の中で動作します。 本ガイドでは、Anthropic の社内チーム全体、およびさまざまなコードベース・言語・環境で Claude Code を利用するエンジニアにとって効果が実証されているパターンを取り上げます。エージェント・ループが内部でどのように動作しているかについては、[How Claude Code works](https://code.claude.com/docs/en/how-claude-code-works) を参照してください。 --- ほとんどのベストプラクティスは、1つの制約に基づいています。つまり、Claude のコンテキストウィンドウはすぐに埋まり、埋まるにつれて性能が低下するということです。Claude のコンテキストウィンドウには、会話全体(すべてのメッセージ、Claude が読み取ったすべてのファイル、すべてのコマンド出力)が含まれます。しかし、これはすぐに埋まってしまいます。単一のデバッグセッションやコードベースの探索だけでも、数万トークン規模のトークンを生成・消費することがあります。 これは重要です。LLM の性能は、コンテキストが埋まるにつれて低下するからです。コンテキストウィンドウがいっぱいになりつつあると、Claude は以前の指示を「忘れ」始めたり、ミスが増えたりすることがあります。コンテキストウィンドウは、管理すべき最重要リソースです。トークン使用量を減らすための詳細な戦略については、[Reduce token usage](https://code.claude.com/docs/en/costs#reduce-token-usage) を参照してください。 ``` ChatGPT ThinkingにしたけどThinkingしてくれない件。(最近サボりがち) ### Claude #### Sonnet 4.5 ```markdown Claude Codeを最大限に活用するためのヒントとパターン。環境設定から並列セッションへのスケーリングまで。 Claude Codeはエージェント型のコーディング環境です。質問に答えて待機するチャットボットとは異なり、Claude Codeはファイルを読み取り、コマンドを実行し、変更を加え、あなたが見守る中で、あるいは方向転換したり、完全に離れている間も、自律的に問題に取り組むことができます。これにより作業の仕方が変わります。自分でコードを書いてClaudeにレビューを依頼する代わりに、何を望むかを説明すれば、Claudeがそれを構築する方法を見つけ出します。Claudeは探索し、計画し、実装します。しかし、この自律性には依然として学習曲線が伴います。Claudeは理解する必要がある特定の制約の中で動作します。このガイドでは、Anthropicの社内チームや、さまざまなコードベース、言語、環境でClaude Codeを使用するエンジニアの間で効果が実証されているパターンを取り上げます。エージェントループが内部でどのように機能するかについては、[Claude Codeの仕組み](https://code.claude.com/docs/en/how-claude-code-works)を参照してください。 --- ほとんどのベストプラクティスは1つの制約に基づいています:Claudeのコンテキストウィンドウはすぐに満杯になり、満杯になるにつれてパフォーマンスが低下します。Claudeのコンテキストウィンドウには、すべてのメッセージ、Claudeが読み取るすべてのファイル、すべてのコマンド出力を含む、会話全体が保持されます。しかし、これはすぐに満杯になる可能性があります。1回のデバッグセッションやコードベースの探索だけで、数万トークンが生成・消費されることがあります。コンテキストが満杯になるにつれてLLMのパフォーマンスが低下するため、これは重要です。コンテキストウィンドウが満杯に近づくと、Claudeは以前の指示を「忘れ」始めたり、より多くのミスを犯したりする可能性があります。コンテキストウィンドウは管理すべき最も重要なリソースです。トークン使用量を削減するための詳細な戦略については、[トークン使用量の削減](https://code.claude.com/docs/en/costs#reduce-token-usage)を参照してください。 ``` #### Opus 4.5 ``` markdown Claude Codeを最大限に活用するためのTipsとパターンを、環境設定から複数セッションの並列実行まで紹介します。 Claude Codeはエージェント型のコーディング環境です。質問に答えて待機する従来のチャットボットとは異なり、Claude Codeはファイルを読み込み、コマンドを実行し、変更を加え、あなたが見守る中で、あるいは別の作業に移ったり完全に席を外している間も、自律的に問題を解決していきます。 これによって作業の進め方が変わります。自分でコードを書いてClaudeにレビューを依頼するのではなく、やりたいことを説明すれば、Claudeがそれをどう構築するかを考えます。Claudeが探索し、計画を立て、実装します。 ただし、この自律性には学習曲線が伴います。Claudeは理解しておくべき一定の制約の中で動作します。 このガイドでは、Anthropicの社内チームや、様々なコードベース、言語、環境でClaude Codeを使用しているエンジニアの間で効果が実証されているパターンを紹介します。エージェントループの内部動作については、[Claude Codeの仕組み](https://code.claude.com/docs/en/how-claude-code-works)を参照してください。 --- ベストプラクティスのほとんどは、一つの制約に基づいています:Claudeのコンテキストウィンドウはすぐにいっぱいになり、埋まるにつれてパフォーマンスが低下します。 Claudeのコンテキストウィンドウには、すべてのメッセージ、Claudeが読み込んだすべてのファイル、すべてのコマンド出力を含む会話全体が保持されます。しかし、これはあっという間にいっぱいになります。1回のデバッグセッションやコードベースの探索だけで、数万トークンを生成・消費することがあります。 これが重要なのは、コンテキストが埋まるにつれてLLMのパフォーマンスが低下するためです。コンテキストウィンドウがいっぱいになると、Claudeは以前の指示を「忘れ」たり、ミスが増えたりする可能性があります。コンテキストウィンドウは管理すべき最も重要なリソースです。トークン使用量を削減するための詳しい戦略については、[トークン使用量の削減](https://code.claude.com/docs/en/costs#reduce-token-usage)を参照してください。 ``` Sonnetよりも読みやすいような?? ### Gemini #### 3.0 Flash ```markdown Claude Codeを最大限に活用するためのヒントとパターンを紹介します。環境設定から、並列セッションによるスケーリングまで幅広くカバーしています。 Claude Codeは「エージェント型」のコーディング環境です。質問に答えて待機するだけのチャットボットとは異なり、Claude Codeはファイルの読み取り、コマンドの実行、変更の適用を自律的に行います。あなたが作業を見守ったり、指示を出したり、あるいは席を外している間でも、問題解決に向けて自ら動いてくれるのです。 これにより、仕事の進め方が変わります。自分でコードを書いてClaudeにレビューを依頼するのではなく、**「何をしたいか」を伝え、Claudeが「どう構築するか」を考える**ようになります。Claudeが自ら探索し、計画を立て、実装まで行います。 ただし、この自律性を使いこなすには学習も必要です。Claudeがどのような制約の下で動いているのかを理解しなければなりません。このガイドでは、Anthropicの社内チームや、様々なコードベース・言語・環境でClaude Codeを使用しているエンジニアたちの間で効果的であることが証明されたパターンを紹介します。エージェントのループが内部でどのように機能しているかについては、[How Claude Code works](https://code.claude.com/docs/en/how-claude-code-works)(英語)をご覧ください。 --- ### 最も重要なリソース:コンテキストウィンドウの管理 ベストプラクティスの大半は、ある一つの制約に基づいています。それは**「Claudeのコンテキストウィンドウはすぐに埋まり、埋まるにつれてパフォーマンスが低下する」**という点です。 Claudeのコンテキストウィンドウには、すべてのメッセージ、読み取ったすべてのファイル、すべてのコマンド出力を含む、会話の全履歴が保持されます。しかし、これはあっという間に蓄積されます。一度のデバッグセッションやコードベースの探索だけで、数万トークンを生成・消費してしまうこともあります。 これが重要なのは、LLM(大規模言語モデル)の性能はコンテキストが一杯になるほど低下するためです。コンテキストウィンドウが満杯に近づくと、Claudeは初期の指示を「忘れ」始めたり、ミスが増えたりすることがあります。コンテキストウィンドウは、管理すべき最も重要なリソースです。トークン使用量を削減するための詳細な戦略については、[Reduce token usage](https://code.claude.com/docs/en/costs#reduce-token-usage)(英語)を参照してください。 ``` Claudeより読みやすいような。 #### 3.0 Pro ```markdown ### Claude Codeを最大限に活用するためのTipsとパターン:環境設定から並行セッションのスケーリングまで Claude Codeは、エージェンティック(自律型)なコーディング環境です。質問に答えて待機するだけのチャットボットとは異なり、Claude Codeはファイルの読み込み、コマンドの実行、変更の適用、そして問題解決への取り組みを自律的に行います。あなたがその様子を監視したり、指示を修正したり、あるいは完全に席を外している間にも、作業は進められます。 これにより、あなたの働き方は変わります。自分でコードを書いてClaudeにレビューを依頼するのではなく、**「何が欲しいか」を説明すれば、Claudeが「どう構築するか」を導き出します。** Claudeは探索し、計画し、実装します。 しかし、この自律性を使いこなすには多少の慣れが必要です。Claudeには、ユーザーが理解しておくべき特定の制約の中で動作するという特徴があります。 本ガイドでは、Anthropic社内のチームや、様々なコードベース、言語、環境でClaude Codeを使用しているエンジニアたちの間で実証された、効果的なパターンを紹介します。エージェンティック・ループの内部的な仕組みについては、[Claude Codeの仕組み](https://code.claude.com/docs/en/how-claude-code-works)をご覧ください。 --- ### コンテキストウィンドウの管理 多くのベストプラクティスは、ある一つの制約に基づいています。それは、**「Claudeのコンテキストウィンドウはすぐに埋まってしまい、それにつれてパフォーマンスが低下する」**という点です。 Claudeのコンテキストウィンドウは、すべてのメッセージ、Claudeが読み込んだすべてのファイル、すべてのコマンド出力を含む、会話全体を保持します。しかし、この容量はすぐに上限に達してしまう可能性があります。たった一度のデバッグセッションやコードベースの探索を行うだけで、数万トークンが生成・消費されることも珍しくありません。 コンテキストが埋まるとLLM(大規模言語モデル)のパフォーマンスが低下するため、これは重要な問題です。コンテキストウィンドウがいっぱいになり始めると、Claudeは以前の指示を「忘れ」始めたり、ミスが増えたりする可能性があります。**コンテキストウィンドウは、管理すべき最も重要なリソースです。** トークン使用量を削減するための詳細な戦略については、[トークン使用量の削減](https://code.claude.com/docs/en/costs#reduce-token-usage)をご覧ください。 ``` Markdownを入れたがる点を除けば、割と読みやすいほうだと思う。 ### nani!? ```markdown 環境設定から並行セッションによるスケーリングまで、Claude Codeを最大限に活用するためのヒントとパターンをご紹介します。 Claude Codeは「エージェント型」の開発環境です。質問に答えて待機するだけのチャットボットとは異なり、Claude Codeはファイルの読み込み、コマンドの実行、コードの変更などを自律的に行います。あなたが作業を見守ったり、指示を出したり、あるいは席を外している間でも、問題解決に向けて自ら動いてくれます。 これにより、開発の進め方が変わります。自分でコードを書いてClaudeにレビューを求めるのではなく、実現したい内容を伝え、Claudeに構築方法を考えさせるようになります。Claudeは自ら探索し、計画を立て、実装を行います。 ただし、この自律性を使いこなすにはコツが必要です。Claudeが持つ特定の制約を理解しておく必要があります。このガイドでは、Anthropicの社内チームや、様々なコードベース・言語・環境でClaude Codeを使用しているエンジニアの間で効果が証明されたパターンを解説します。エージェントのループが内部でどのように機能しているかについては、[Claude Codeの仕組み](https://code.claude.com/docs/en/how-claude-code-works)(英語)を参照してください。 --- ベストプラクティスの多くは、一つの大きな制約に基づいています。それは、「Claudeのコンテキストウィンドウはすぐに一杯になり、埋まれば埋まるほどパフォーマンスが低下する」という点です。 Claudeのコンテキストウィンドウには、すべてのメッセージ、読み込んだすべてのファイル、実行したすべてのコマンドの出力を含む、会話の全履歴が保持されます。しかし、デバッグセッションやコードベースの探索を一度行うだけで、数万トークンを消費してしまうことも珍しくありません。 これは非常に重要な問題です。なぜなら、コンテキストが埋まるにつれてLLMの性能は低下するからです。コンテキストウィンドウが一杯に近づくと、Claudeは初期の指示を「忘れ」始めたり、ミスが増えたりすることがあります。コンテキストウィンドウは、管理すべき最も重要なリソースです。トークン使用量を抑えるための詳細な戦略については、[トークン使用量の削減](https://code.claude.com/docs/en/costs#reduce-token-usage)(英語)をご覧ください。 ``` めちゃくちゃ読みやすい。一番自然な日本語&噛み砕いた文章になっている気がする。 ## 知人の感想 「自分の体感では 『ChatGPT<Claude<Gemini<nani!?』の順で読みやすい気がするけど、うまく言語化できないよ〜(アホ)」だったので、知人の感想を貼っておきます。 - ChatGPT→単純に下手、直訳でもない - Claude→割と直訳め - Gemini→文構造を保ちながらも結構上手く工夫して訳している - nani!?→文構造から意味を深く理解して日本語らしい文にしている nani!? の翻訳便利すぎない?課金し続けようか迷う……。 ## リンク - [Best Practices for Claude Code](https://code.claude.com/docs/en/best-practices)