Senin, 12 Maret 2012
Error crawl adalah salah satu fitur yang paling populer di Alat WebMaster, dan hari ini kami meluncurkan beberapa peningkatan yang sangat signifikan yang akan membuatnya semakin bermanfaat.
Kini, kami mendeteksi dan melaporkan banyak jenis error baru. Untuk membantu memahami data baru, kami telah membagi error tersebut menjadi dua bagian: error situs dan error URL.
Error Situs
Error situs adalah error yang tidak spesifik untuk URL tertentu—error tersebut memengaruhi seluruh situs Anda. Ini termasuk kegagalan resolusi DNS, masalah konektivitas dengan server web Anda, dan masalah pengambilan file robots.txt. Sebelumnya, kami melaporkan error ini berdasarkan URL, tetapi hal ini bukan langkah yang tepat karena error tersebut tidak spesifik untuk tiap-tiap URL. Faktanya, error ini bahkan mencegah Googlebot meminta URL. Sebagai gantinya, kini kami terus memantau tingkat kegagalan untuk setiap jenis error di seluruh situs. Kami juga akan mencoba mengirimkan pemberitahuan kepada Anda jika error ini cukup sering terjadi sehingga perlu diperhatikan.
Selain itu, jika Anda tidak memiliki (dan belum pernah mengalami) masalah apa pun terkait hal ini, seperti yang terjadi di banyak situs, Anda dapat melewati bagian ini. Sebagai gantinya, kami hanya akan menampilkan beberapa tanda centang untuk memberi tahu Anda bahwa semuanya berjalan lancar.
Error URL
Error URL adalah error yang spesifik untuk halaman tertentu. Artinya, saat Googlebot mencoba meng-crawl URL, Googlebot dapat me-resolve DNS, terhubung ke server, mengambil dan membaca file robots.txt Anda, lalu meminta URL ini, tetapi kemudian terjadi error. Kami mengelompokkan error URL ke dalam berbagai kategori berdasarkan penyebab error tersebut. Jika situs Anda menayangkan data Google Berita atau seluler (CHTML/XHTML), kami akan menampilkan kategori terpisah untuk error tersebut.
Lebih sedikit lebih baik
Kami sebelumnya menampilkan maksimal 100.000 error dari setiap jenis. Mencoba memahami semua informasi ini akan membuat Anda kewalahan, dan Anda tidak dapat mengetahui error mana yang penting (halaman beranda Anda tidak aktif) atau kurang penting (terjadi kesalahan ketik pada link ke situs Anda di situs pribadi orang lain). Tidak ada cara yang realistis untuk melihat 100.000 error—Anda juga tidak akan dapat mengurutkan, menelusuri, atau menandai progres Anda. Pada versi baru fitur ini, kami berfokus untuk mencoba menampilkan error yang paling penting saja. Untuk setiap kategori, kami akan menampilkan 1.000 error yang kami anggap paling penting dan dapat ditindaklanjuti. Anda dapat mengurutkan dan memfilter 1.000 error teratas ini, memberi tahu kami jika Anda merasa telah memperbaikinya, serta melihat detailnya.
Beberapa situs memiliki lebih dari 1.000 error dari jenis tertentu. Jadi, Anda tetap dapat melihat jumlah total error dari setiap jenisnya, serta grafik yang menampilkan data historis dari 90 hari terakhir. Bagi mereka yang khawatir bahwa 1.000 detail error dan jumlah kumulatif total tidak akan cukup, kami sedang mempertimbangkan untuk menambahkan akses terprogram (API). Akses ini memungkinkan Anda mendownload semua error yang terjadi di situs Anda, jadi harap beri kami masukan jika Anda membutuhkan bantuan lebih lanjut.
Kami juga telah menghapus daftar halaman yang diblokir oleh robots.txt, karena meskipun terkadang daftar ini dapat digunakan untuk mendiagnosis masalah pada file robots.txt, daftar tersebut sering kali berisi halaman yang sengaja Anda blokir. Kami benar-benar ingin berfokus pada error. Oleh karena itu, informasi tentang URL yang diblokir robots.txt akan segera ditampilkan di fitur "Akses crawler" di bagian "Konfigurasi situs".
Pelajari detailnya
Mengklik tiap-tiap URL error dari daftar utama akan menampilkan panel detail dengan informasi tambahan, termasuk kapan terakhir kali kami mencoba meng-crawl URL, kapan pertama kali kami menemukan masalah, dan penjelasan singkat tentang error tersebut.
Dari panel detail, Anda dapat mengklik link untuk URL yang menyebabkan error guna melihat sendiri apa yang terjadi saat Anda mencoba mengunjunginya. Anda juga dapat menandai error sebagai "diperbaiki" (informasi selengkapnya akan dijelaskan nanti), melihat konten bantuan untuk jenis error, mencantumkan Peta Situs yang berisi URL, dan melihat halaman lain yang tertaut ke URL ini. Anda bahkan dapat meminta Googlebot mengambil URL sekarang juga, baik untuk melihat informasi lebih lanjut ataupun memeriksa kembali apakah perbaikan Anda sudah tepat.
Ambil tindakan
Satu hal yang sangat kami sukai dalam versi baru fitur Error crawl ini adalah Anda dapat benar-benar fokus
untuk memperbaiki error yang paling penting terlebih dahulu. Kami telah memberikan peringkat error sehingga error yang
berada di urutan teratas dari daftar prioritas adalah error yang dapat ditindaklanjuti. Misalnya,
memperbaiki link rusak di situs Anda sendiri, memperbaiki bug pada software server, memperbarui peta situs
untuk menghapus URL yang tidak aktif, atau menambahkan pengalihan 301
untuk mengarahkan pengguna ke halaman yang "sebenarnya". Kami menentukan hal ini
berdasarkan berbagai faktor, termasuk apakah Anda menyertakan URL dalam Peta Situs atau tidak, berapa banyak
situs yang ditautkan ke URL tersebut (dan apakah URL tersebut juga ditautkan ke situs Anda), serta apakah baru-baru ini URL
mendapatkan traffic dari penelusuran.
Jika Anda merasa telah memperbaiki masalah tersebut (Anda dapat mengujinya dengan mengambil URL seperti yang dilakukan Googlebot), Anda dapat memberi tahu kami dengan menandai error tersebut sebagai "diperbaiki" jika Anda adalah pengguna dengan izin akses penuh. Tindakan ini akan menghapus error dari daftar Anda. Pada masa mendatang, error yang Anda tandai sebagai diperbaiki tidak akan disertakan dalam daftar error teratas, kecuali jika kami mendapati error yang sama saat mencoba meng-crawl ulang URL.
Kami telah berupaya keras dalam mengembangkan fitur error Crawl baru, jadi kami harap fitur ini akan sangat bermanfaat bagi Anda. Beri tahu kami pendapat Anda dan jika ada saran, harap kunjungi forum kami.