Search Console のクロール頻度制限ツールのサポート終了予定
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
2023 年 11 月 24 日(金曜日)
Search Console のクロール頻度制限ツールは、2024 年 1 月 8 日をもってサポートを終了します。このツールは 10 年以上にわたって利用されてきましたが、Google のクロール ロジックや、パブリッシャーが利用できるその他のツールが改善されたため、サポートする意味が薄れてきました。
Googlebot は、サイト(具体的に言うとサイトを処理しているサーバー)が Googlebot の HTTP リクエストにどのように応答するかによってクロールの頻度を変えます。たとえば、サーバーがさまざまな URL に対して HTTP 500
ステータス コードを継続的に返す場合、Googlebot はほとんどすぐに自動でクロール頻度を下げます。同様に、リクエストに対する応答時間が大幅に長くなった場合も、自動的にクロール頻度を下げます。サイトが自ら管理できないような異常に大量のクロールが発生した場合は、こちらのヘルプ記事をご覧ください。
一方、クロール頻度制限ツールは効果が現れるまでかなり時間がかかっていました。実際、新しい制限がクロールに適用されるまで 1 日以上かかったケースもあります。しかし、幸いなことに、サイト所有者がこのツールを使用する必要に迫られたケースはほとんどなく、使用したことがあるサイト所有者は、多くの場合、クロール頻度を必要最低限なレベルに設定していました。また、Google では、クロール頻度制限ツールのサポート終了に伴い、最低クロール頻度を以前のクロール頻度制限と同等の低い頻度に設定します。つまり、検索インタレストが低く、クローラーがサイトの帯域幅を浪費しない場合、実質的には一部のサイト所有者が過去に行った設定を引き継ぐことになります。
クロール頻度の自動調整処理が進歩したため、ユーザーの操作をシンプルにするという理念に基づき、Google は Search Console のクロール頻度制限ツールのサポートを終了します。Googlebot レポート フォームは、Googlebot の異常なアクティビティの報告と緊急のケースに備えて今後も残しますが、ドキュメントで詳しく説明しているように、クロール頻度を下げるには、サーバー応答を通じて Googlebot に指示する方法が最も簡単であることを覚えておいてください。
ご質問やご意見がございましたら、Google 検索セントラル コミュニティに投稿してお知らせください。
Posted by Gary Illyes and Nir Kalush
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
[null,null,[],[[["\u003cp\u003eThe crawl rate limiter tool in Google Search Console will be deprecated on January 8, 2024, due to advancements in Google's crawling technology.\u003c/p\u003e\n"],["\u003cp\u003eGooglebot automatically adjusts its crawl rate based on website and server responses, like HTTP errors or slow response times.\u003c/p\u003e\n"],["\u003cp\u003eFor persistent crawling issues, refer to the provided help article for guidance on reducing Googlebot's crawl rate.\u003c/p\u003e\n"],["\u003cp\u003eSite owners experiencing unusually high crawl rates are encouraged to use the Googlebot report form for assistance.\u003c/p\u003e\n"],["\u003cp\u003eWhile the crawl rate limiter is being removed, Google will still honor previously set limits for sites with low search interest.\u003c/p\u003e\n"]]],["The Search Console's crawl rate limiter tool will be removed on January 8th, 2024. Googlebot now automatically adjusts crawling speed based on server responses, slowing down with HTTP `500` errors or increased response times. The tool's impact was slow, and it was rarely used. The minimum crawl speed will be reduced to match previous limits. While the tool is deprecated, reporting unusual Googlebot activity remains available via a report form, but the fastest way to adjust crawl rate is through server responses.\n"],null,["# Upcoming deprecation of Crawl Rate Limiter Tool in Search Console\n\nFriday, November 24, 2023\n\n\nThe crawl rate limiter tool in Search Console is being deprecated on Jan 8th, 2024. This tool has\nbeen\n[available for over a decade](/search/blog/2008/12/more-control-of-googlebots-crawl-rate),\nbut with the improvements we've made to our crawling logic and other tools available to\npublishers, its usefulness has dissipated.\n\n\nGooglebot reacts to how the site--or more specifically the server handling the site--\nresponds to Googlebot's HTTP requests. For example, if the server persistently returns HTTP\n`500` status codes for a range of URLs, Googlebot will automatically, and almost\nimmediately slow down crawling. Similarly, Googlebot slows down automatically if the response time\nfor requests gets significantly longer. If you do experience unusually heavy crawling that your\nsite can't manage on its own, refer to this\n[help article](/search/docs/crawling-indexing/reduce-crawl-rate).\n\n\nIn contrast, the rate limiter tool had a much slower effect; in fact it may have taken over a day\nfor the new limits to be applied on crawling. Fortunately though, site owners rarely had to resort\nto using the tool, and those who have, in many cases set the crawling speed to the bare minimum.\nWith the deprecation of the crawl limiter tool, we're also setting the minimum crawling speed to a\nlower rate, comparable to the old crawl rate limits. This means that we effectively continue\nhonoring the settings that some site owners have set in the past if the Search interest is low,\nand our crawlers don't waste the site's bandwidth.\n\n\nBecause of the advances in the automated crawl rate handling, and in the spirit of keeping things\nsimple for users, we'll be deprecating this tool in Search Console. We are keeping the Googlebot\n[report form](/search/docs/crawling-indexing/reduce-crawl-rate) for reporting unusual\nGooglebot activities and for emergency cases, but keep in mind that the fastest way to reduce\ncrawl rate is to instruct Googlebot through server responses as detailed in\n[our documentation](/search/docs/crawling-indexing/reduce-crawl-rate).\n\n\nIf you have questions or comments, write in our\n[Google Search Central Community](https://support.google.com/webmasters/community).\n\nPosted by [Gary Illyes](/search/blog/authors/gary-illyes) and [Nir Kalush](/search/blog/authors/nir-kalush)"]]