เราอยู่ใน LinkedIn แล้วตอนนี้: หากต้องการข่าวสารและแหล่งข้อมูลจาก Google Search เกี่ยวกับการทำให้เว็บไซต์ของคุณค้นพบได้ โปรด
ติดตามเราใน LinkedIn
การปรับปรุงข้อมูลการครอบคลุมของดัชนี
จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
วันจันทร์ที่ 11 มกราคม 2021
การช่วยให้ผู้ใช้เข้าใจวิธีที่ Google รวบรวมข้อมูลและจัดทำดัชนีเว็บไซต์ถือเป็นหนึ่งในเป้าหมายหลักของ Search Console มาตั้งแต่เริ่มต้น ตอนที่เปิดตัว Search Console ใหม่ เรายังได้เปิดตัวรายงานการครอบคลุมของดัชนี ซึ่งแสดงสถานะการจัดทําดัชนีของ URL ที่ Google ได้เข้าถึงหรือพยายามเข้าถึงในพร็อพเพอร์ตี้ของคุณ
เราได้รับความคิดเห็นมาจากชุมชนและในวันนี้จึงเปิดตัวการปรับปรุงครั้งสำคัญสำหรับรายงานนี้เพื่อให้คุณมีความเข้าใจที่ดีขึ้นเกี่ยวกับปัญหาที่อาจทำให้ Google รวบรวมข้อมูลและจัดทำดัชนีหน้าเว็บไม่ได้ การเปลี่ยนแปลงนี้มุ่งเน้นที่การระบุสถานะของปัญหาที่มีอยู่ให้แม่นยำมากขึ้น ซึ่งจะช่วยให้คุณแก้ปัญหาได้ง่ายขึ้น สิ่งที่เปลี่ยนแปลงมีดังนี้
- การลบประเภททั่วไปของปัญหา "ความผิดปกติในการรวบรวมข้อมูล" - ข้อผิดพลาดที่พบเมื่อเข้ารวบรวมข้อมูลทั้งหมดควรได้รับการแมปกับปัญหาที่มีวิธีแก้ไขที่ละเอียดขึ้น
- ตอนนี้หน้าที่ส่งแล้วแต่ถูกบล็อกโดย robots.txt และได้รับการจัดทำดัชนีจะได้รับรายงานว่าเป็น "จัดทำดัชนีแต่ถูกบล็อก" (คำเตือน) แทนที่จะเป็น "ส่งแต่ถูกบล็อก" (ข้อผิดพลาด)
- การเพิ่มปัญหาใหม่: "จัดทำดัชนีโดยไม่มีเนื้อหา" (คำเตือน)
- การรายงาน
Soft 404
ถูกต้องแม่นยํามากขึ้นแล้ว
การเปลี่ยนแปลงด้านบนจะปรากฏให้เห็นในรายงานการครอบคลุมของดัชนีแล้ว ดังนั้นคุณจึงอาจเห็นปัญหาประเภทใหม่หรือจำนวนปัญหาที่เปลี่ยนแปลงไป เราหวังว่าการเปลี่ยนแปลงนี้จะช่วยให้คุณเข้าใจมากขึ้นว่าเรารวบรวมข้อมูลและจัดทำดัชนีเว็บไซต์อย่างไร
หากมีความคิดเห็นเกี่ยวกับรายงาน โปรดแชร์ให้เราทราบในชุมชนความช่วยเหลือของ Search Central หรือทาง Twitter
โพสต์โดย Tal Yadid วิศวกรซอฟต์แวร์ของ Search Console
เนื้อหาของหน้าเว็บนี้ได้รับอนุญาตภายใต้ใบอนุญาตที่ต้องระบุที่มาของครีเอทีฟคอมมอนส์ 4.0 และตัวอย่างโค้ดได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 เว้นแต่จะระบุไว้เป็นอย่างอื่น โปรดดูรายละเอียดที่นโยบายเว็บไซต์ Google Developers Java เป็นเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
[null,null,[],[[["\u003cp\u003eGoogle Search Console's Index Coverage report has been significantly improved to provide website owners with more accurate and detailed information about indexing issues.\u003c/p\u003e\n"],["\u003cp\u003eThe update includes the removal of the generic "crawl anomaly" issue, refined categorization of indexing errors, and the addition of a new "indexed without content" warning.\u003c/p\u003e\n"],["\u003cp\u003eThese changes aim to make it easier for users to identify and resolve issues that prevent Google from crawling and indexing their web pages, ultimately improving their site's visibility in search results.\u003c/p\u003e\n"],["\u003cp\u003eGoogle encourages users to provide feedback on the updated report through the Search Central Help Community or Twitter.\u003c/p\u003e\n"]]],["The Index Coverage report in Google Search Console has been updated to provide more accurate information on website indexing. Changes include eliminating the \"crawl anomaly\" issue, replacing \"submitted but blocked\" with \"indexed but blocked\" for robots.txt conflicts, and adding a new \"indexed without content\" warning. Soft 404 reporting is now more precise, offering users a more detailed understanding of crawling and indexing issues. Feedback on these improvements is encouraged.\n"],null,["# Index Coverage Data Improvements\n\nMonday, January 11, 2021\n\n\nHelping people understand how Google crawls and indexes their sites has been one of the main objectives of Search Console since its\n[early days](/search/blog/2005/11/more-stats). When we launched the\n[new Search Console](/search/blog/2018/01/introducing-new-search-console), we also introduced the\n[Index Coverage report](https://support.google.com/webmasters/answer/7440203), which shows the indexing state of URLs\nthat Google has visited, or tried to visit, in your property.\n\n\nBased on the feedback we got from the community, today we are rolling out significant improvements to this report so you're better informed on issues\nthat might prevent Google from crawling and indexing your pages. The change is focused on providing a more accurate state to existing issues,\nwhich should help you solve them more easily. The list of changes include:\n\n- Removal of the generic \"crawl anomaly\" issue type - all crawls errors should now be mapped to an issue with a finer resolution.\n- Pages that were submitted but blocked by robots.txt and got indexed are now reported as \"indexed but blocked\" (warning) instead of \"submitted but blocked\" (error)\n- Addition of a new issue: \"[indexed without content](https://support.google.com/webmasters/answer/7440203#indexed_no_content)\" (warning)\n- `Soft 404` reporting is now more accurate\n\n\nThe changes above are now reflected in the index coverage report so you may see new types of issues or changes in counts of issues. We hope that\nthis change will help you better understand how [we crawl and index](https://www.google.com/search/howsearchworks/crawling-indexing/) your site.\n\n\nPlease share your feedback about the report through the [Search Central Help Community](https://support.google.com/webmasters/community)\nor via [Twitter](https://twitter.com/googlesearchc).\n\nPosted by Tal Yadid, Software Engineer, Search Console"]]