Waktu konsultasi SEO Google edisi Mei 2023

Halaman ini adalah transkrip untuk Waktu Konsultasi SEO Google edisi Mei 2023. Jika butuh bantuan spesifik per situs, sebaiknya posting pertanyaan Anda di Komunitas Bantuan Pusat Google Penelusuran.

Duy: Kholizio bertanya: jika domain diberi sanksi, apakah link yang keluar dari domain tersebut akan terpengaruh?

Saya rasa yang Anda maksud 'diberi sanksi' di sini adalah didemosikannya domain tersebut oleh algoritma spam atau tindakan manual kami. Secara umum, ya, kami tidak memercayai link dari situs yang terdeteksi sebagai spam. Hal ini membantu kami menjaga kualitas sinyal anchor.

Apakah hasil dibuat berbeda di berbagai alat pengujian URL?

Martin: Ellen Edmands bertanya: Apakah tab html yang dirender Alat Inspeksi URL dan tab html yang dirender Alat Pengujian Hasil Kaya memiliki hasil yang berbeda?

Secara umum, keduanya dibuat dengan cara yang sama. Namun, ada dua cara untuk membuatnya: Dengan pipeline pengindeksan saat menggunakan tab "Lihat halaman yang di-crawl" di Google Search Console, atau dengan pengujian langsung di Google Search Console atau pengujian langsung di alat pengujian Hasil Kaya. Pada pengujian langsung, langkah caching akan dilewati untuk memberikan gambaran sekilas tentang cara versi halaman saat ini akan dirender. Jadi, caching akan diabaikan sehingga dapat menyebabkan waktu tunggu habis yang akan memengaruhi output yang dirender. Anda mungkin mendapatkan hasil render HTML yang berbeda, bergantung pada tempat terjadinya waktu tunggu habis, atau apakah hal tersebut terjadi atau tidak. Namun, cara pembuatannya menggunakan jalur yang sama persis melalui infrastruktur kami.

Apakah pengiriman SEO di luar halaman ke direktori & situs bookmark sosial ada manfaatnya?

Gary: Shantanu bertanya: Apakah pengiriman SEO di luar halaman ke direktori dan situs bookmark sosial ada manfaatnya?

Saya suka pertanyaan ini karena saya jadi teringat ketika 15 tahun lalu saya masih melakukan SEO. Singkatnya, sebaiknya jangan lakukan pengiriman ke direktori dan situs bookmark sosial. Anda hanya akan membuang waktu untuk hal-hal yang tidak akan membantu sama sekali.

Mengapa halaman koleksi dikecualikan sebagai noindex di situs saya?

John: Mengapa halaman koleksi dikecualikan sebagai noindex di situs saya?

Saya telah melihat situs yang Anda sebutkan untuk melakukan pemeriksaan ulang. Singkatnya, masalah utamanya adalah halaman kategori dengan penomoran halaman di situs Anda yang memiliki tag <meta> robots noindex. Untuk hal seperti ini, sebaiknya periksa URL spesifik yang dicantumkan di Search Console. Cara cepat untuk memeriksanya adalah dengan membuka halaman di browser dan menggunakan lihat sumber, lalu telusuri "robots" untuk menemukan tag <meta> robots, dan telusuri 'googlebot' untuk menemukan tag <meta> Googlebot. Beberapa halaman mungkin memiliki beberapa tag ini. Dalam kasus Anda, saya lihat Anda memiliki dua tag <meta> robots yang berbeda, dan yang kedua memiliki noindex. Dalam kasus tingkat lanjut, sebaiknya gunakan emulasi seluler di Chrome dan gunakan fitur Periksa Elemen di alat developer untuk melihat DOM yang dimuat, atau gunakan fitur Inspeksi URL di Search Console. Dalam kasus ini, saya rasa penyebabnya adalah plugin atau setelan di platform e-commerce situs Anda, dan mungkin hal seperti ini tidak masalah bagi Anda.

Duy: Seseorang bertanya: Link ke situs saya sepertinya berasal dari situs Rusia - bagaimana cara memblokir link ini? Saya yakin link tersebut ingin membahayakan situs saya dengan cara menurunkan peringkat situs di penelusuran.

Algoritma kami umumnya bisa mengenali dan mengabaikan link sampah atau yang berisi spam di internet. Dalam kasus tertentu, jumlahnya bisa sangat banyak. Anda tidak perlu mengkhawatirkan hal tersebut dan biarkan sistem kami yang menanganinya. Fokus saja pada peningkatan kualitas situs Anda.

Apakah backend situs berpengaruh terhadap peringkat?

Martin: Eshragh bertanya: Apakah backend situs berpengaruh terhadap peringkat? Misalnya, apakah ada pengaruhnya jika kita menggunakan WordPress atau CMS yang dibuat khusus atau bahasa pemrograman tertentu untuk merender HTML?

Tidak, umumnya itu tidak berpengaruh. Namun, performa dan perilakunya tetap berpengaruh. Misalnya, jika server Anda sangat lambat, hal tersebut dapat berdampak pada peringkat.

Apakah ada rencana untuk mengizinkan lebih dari satu nama situs untuk cuplikan?

John: Madeleine bertanya: Apakah ada rencana untuk mengizinkan lebih dari satu Nama Situs untuk cuplikan (misalnya untuk domain root DAN subdomain)?

Dalam dokumentasi kami tentang nama situs, kami menyebutkan bahwa untuk sekarang, ini hanya berlaku untuk nama domain, bukan subdomain. Saya tidak bisa menjanjikan perubahan pada masa mendatang. Untuk perubahan tertentu, tim yang terlibat biasanya memulai pada satu bagian masalah, mengevaluasi tingkat keberhasilannya, lalu melakukan perluasan dari sana. Namun, kami tidak bisa menjanjikan apa pun untuk masa mendatang.

Apakah perlu waktu lebih dari enam bulan untuk mengindeks 16.000 halaman saya?

Gary: Tom Baker bertanya: apakah perlu waktu lebih dari enam bulan untuk mengindeks 16.000 halaman saya? Saya melihat peningkatan sekitar 5 hingga 15 per minggu dan saya rasa ini lambat.

Ada banyak faktor yang menentukan seberapa cepat situs diindeks, tetapi faktor yang terpenting adalah kualitas situs, lalu popularitasnya di internet. Setelah memastikan bahwa konten Anda memiliki kualitas terbaik, mungkin Anda bisa mencoba membuat dan menjalankan beberapa promosi media sosial agar situs Anda mulai dikenal banyak orang. Hal ini mungkin akan membantu.

Untuk permalink, manakah yang sebaiknya digunakan di URL, "-will-not-" atau bentuk kontraksi "-wont-"?

John: Michael bertanya: Untuk permalink, manakah yang sebaiknya digunakan di URL, "-will-not-" atau bentuk kontraksi "-wont-"? "Wont" sebenarnya punya arti lain, tapi secara umum, apakah ada praktik terbaik untuk penggunaan don't versi "-do-not-" vs. "-dont-"?

Keduanya sama saja. Secara umum, kata-kata dalam URL tidak terlalu berdampak pada Penelusuran. Satu-satunya rekomendasi saya adalah konsistensi, sehingga Anda tidak menautkan ke halaman yang sama dengan cara yang berbeda secara tidak sengaja. Selain itu, karena dampaknya minim, dan mengubah URL di situs adalah perubahan yang cukup besar, sebaiknya jangan ubah URL situs hanya untuk prospek SEO yang tidak jelas yang mungkin pernah Anda baca.

Apakah Googlebot akan kesulitan melakukan crawl dan pengindeksan jika gambar memiliki banyak tingkat di URL gambar?

Martin: Aman bertanya: Apakah Googlebot akan kesulitan melakukan crawl dan pengindeksan jika gambar memiliki banyak tingkat di URL gambar? Misalnya https://www.abc.com/ab/cd/content/category/image/hires/imagefilename.jpg.

Kabar baik, jawabannya adalah tidak.

Gary: Anonim bertanya: Banyak backlink spam mengarah ke situs saya, bagaimana cara menghentikannya?

Mudah: abaikan saja. Internet sangatlah luas dan Anda mungkin mendapatkan link yang asalnya tidak jelas. Kami sudah berurusan dengan link seperti ini selama 25 tahun dan kami sudah biasa mengabaikannya. Jadi, sebaiknya abaikan saja. Jika backlink tersebut benar-benar mengganggu Anda, gunakan alat penolakan di Search Console.

Mungkinkah Google Search Console menampilkan kueri yang salah?

John: Alexis bertanya: Mungkinkah Google Search Console menampilkan kueri yang salah?

Data Performa di Search Console dikumpulkan saat situs Anda ditampilkan untuk kueri tertentu. Data tersebut bukan hanya teori saja, tetapi didasarkan pada hasil yang ditampilkan kepada pengguna saat mereka melakukan penelusuran. Saat melihat data yang tidak dipahami, cobalah untuk mempersempit setelan laporan untuk menemukan informasi tertentu. Apakah hanya di negara tertentu? Atau mungkin jenis penelusuran tertentu? Apakah hanya terjadi dalam waktu singkat? Terkadang sangat mungkin untuk membuat ulang hasil penelusuran yang ditampilkan berdasarkan informasi spesifik ini, tetapi hasilnya juga bisa berupa sesuatu yang tidak ditampilkan lagi, atau yang hanya muncul dari waktu ke waktu. Terkadang ini adalah teka-teki yang seru, dan terkadang Anda harus menerima bahwa saat ini Anda tidak bisa membuatnya kembali.

Halaman HTML lengkap melalui rendering sisi server untuk mesin telusur & melalui rendering sisi klien untuk pengguna. Apakah hal ini diperbolehkan?

Martin: Madeleine bertanya: Kami mengirimkan halaman HTML lengkap melalui rendering sisi server (SSR) untuk semua bot mesin telusur dan menggunakan rendering sisi klien untuk pengguna. Dari sudut pandang SEO JavaScript, apakah solusi ini sesuai?

Itulah pendekatan yang kami sebut rendering dinamis. Cara ini memperumit upaya penyiapan dan pemeliharaan, tetapi jika dirasa sesuai untuk Anda, tidak masalah untuk melakukannya. Sebaiknya jangan gunakan cara ini untuk project baru, karena kompleksitasnya juga akan menambah biaya untuk pemilik situs. Solusi ini tidak optimal, tetapi jika berhasil, saya rasa tidak perlu diubah.

Seberapa penting nama file deskriptif untuk gambar?

Gary: Al G. bertanya: Seberapa penting nama file deskriptif untuk gambar?

Pertanyaan bagus! Hal ini umumnya sedikit membantu, tetapi jika Anda punya banyak gambar, misalnya jutaan, sebaiknya pertimbangkan apakah manfaat tersebut sepadan atau tidak. Jika Anda hanya punya beberapa gambar, silakan gunakan nama file yang baik, tetapi Anda tidak perlu melakukannya jika punya gambar yang sangat banyak. Lihat juga praktik terbaik SEO gambar kami.

Apa cara terbaik untuk meningkatkan traffic setelah melakukan desain ulang?

John: Pertanyaan selanjutnya: Apa cara terbaik untuk meningkatkan traffic setelah melakukan desain ulang?

Ada banyak cara berbeda untuk melakukan desain ulang. Beberapa situs bisa dibilang berubah menjadi situs baru setelah desain ulang, dengan URL baru dan struktur halaman yang juga sepenuhnya baru. Dalam kasus seperti itu, Anda harus memperlakukannya lebih seperti pemindahan situs dan menyertakan pengalihan. Jika tidak, Anda mungkin akan langsung melihat penurunan traffic setelah peluncuran kembali. Dalam kasus Anda, sepertinya penurunannya berlangsung lebih lambat seiring waktu. Bagi saya, hal ini menunjukkan bahwa masalah utamanya bukanlah desain ulang, melainkan penelusuran, web, atau pengguna yang perilaku atau ekspektasinya berubah seiring waktu. Hal ini biasanya bukan masalah teknis, melainkan lebih ke bagaimana Anda harus memahami topik di situs dan berupaya meningkatkan kualitas situs agar cocok dengan kueri pengguna. Hal ini memang tidak selalu mudah.

Apakah Googlebot untuk crawling penelusuran organik merender setiap halaman yang di-crawl? Jika tidak, seberapa sering hal ini terjadi?

Martin: Jason bertanya: Apakah Googlebot untuk crawling penelusuran organik merender setiap halaman yang di-crawl? Jika tidak, seberapa sering hal ini terjadi?

Bisa ya dan tidak. Tidak semua halaman yang kami crawl akan dirender. Misalnya, crawl yang mengarah ke halaman error 404 tidak akan dirender. Setiap halaman yang tidak mengalami error saat kami crawl akan dirender.

Apakah boleh menggunakan markup skema di halaman yang tidak valid?

Gary: Matthias bertanya: Apakah boleh menggunakan markup skema di halaman yang tidak valid? (mis. markup product tanpa offer/review/aggregateRating)

Jawabannya tidak, karena jika kami tidak bisa mengurainya, kami tidak akan menggunakannya. Mungkin Anda tidak akan dapat menggunakan beberapa fitur penelusuran seperti atribut kaya pada cuplikan Anda.

Bagaimana cara mengubah pengalihan 302 menjadi pengalihan 301?

John: Hazim bertanya: Bagaimana cara mengubah pengalihan 302 menjadi pengalihan 301?

Anda perlu mendiskusikan hal ini dengan penghosting situs atau registrar domain Anda. Namun, kabar baiknya adalah Google Penelusuran akan mengenali pengalihan sementara yang sudah lama ada sebagai pengalihan permanen, jadi saat ini hal tersebut tidak terlalu penting bagi situs Anda. Sebaiknya gunakan pengalihan sesuai dengan teori yang ada, tetapi Penelusuran juga akan mencoba menggunakan apa pun yang Anda punya, selama itu adalah pengalihan.

Apakah konten boilerplate yang ekstensif dapat membahayakan situs?

Gary: Anan bertanya: Hai, apakah konten boilerplate yang ekstensif dapat membahayakan situs? Yang saya maksud di sini bukan info kontak, kebijakan privasi, dll. Terima kasih.

Umumnya tidak, boilerplate yang ekstensif tidak akan berpengaruh banyak terhadap kehadiran situs Anda di Penelusuran. Meski begitu, sebaiknya pertimbangkan perspektif pengguna terhadap boilerplate yang ekstensif tersebut; ada kemungkinan mereka tidak akan menyukainya sama sekali.

Bagaimana cara mencegah Googlebot memanggil API eksternal yang mahal saat merender JavaScript di suatu halaman?

Martin: Matthew bertanya: Bagaimana cara mencegah Googlebot memanggil API eksternal yang mahal saat merender JavaScript di suatu halaman?

Anda dapat melarang API melalui robots.txt - tetapi hati-hati: Jika Anda menggunakan rendering sisi klien dan konten halaman bergantung pada API ini, artinya Googlebot perlu mengakses API untuk melihat konten tersebut. Jika tidak, halaman Anda tidak akan memiliki konten tersebut saat Googlebot melihatnya. Untuk URL pihak ketiga eksternal yang tidak memungkinkan penggunaan robots.txt untuk melarang akses, Anda dapat memuat API ini secara bersyarat di JavaScript dan melewatinya saat Googlebot meminta halaman.

Adakah metode tertentu untuk mengubah nama domain tanpa kehilangan peringkat SEO?

Gary: D.ray dari mu.se bertanya: Adakah metode tertentu untuk mengubah nama domain tanpa kehilangan peringkat SEO?

Pemindahan situs yang dijalankan dengan baik, yang mencakup perubahan domain, tidak akan mengakibatkan kehilangan traffic yang berkelanjutan, jadi ya: ada metode untuk mengubah nama domain tanpa kehilangan peringkat. Lihat dokumentasi kami tentang pemindahan situs; kami juga menyertakan link ke beberapa panduan dari pakar lainnya.

Favicon brand saya diupload lebih dari sebulan yang lalu. Namun, favicon alur web saya masih ada di Google.

John: Josh bertanya: Favicon brand saya diupload lebih dari sebulan yang lalu. Namun, favicon alur web saya masih ada di Google. Apakah Anda tahu cara menyelesaikan masalah ini agar yang diupload sebelumnya adalah brand saya?

Kami memiliki dokumen bantuan tentang favicon. Sebaiknya baca dan periksa detailnya di sana. Sebaiknya pastikan juga bahwa favicon yang lama sudah tidak aktif atau ditautkan dari situs Anda, dan idealnya, pastikan juga Anda mengalihkan file lama ke yang baru. Singkatnya, pastikan semuanya konsisten, dan tidak ada kemungkinan kesalahan penafsiran oleh mesin telusur. Di luar itu, terkadang memang perlu waktu sebelum perubahan ini muncul, dan sebulan seharusnya sudah cukup, tetapi jika Anda menemukan hal lain yang perlu diperbaiki, sebaiknya tunggu beberapa waktu lagi sebelum perubahannya muncul. Terakhir, di luar Google, Glenn Gabe telah menyusun panduan pemecahan masalah favicon yang luar biasa, Anda mungkin bisa menemukan tips lainnya di sana.

Bagaimana jika suatu situs menulis postingan dalam beberapa bahasa (diterjemahkan secara manual), apa praktik terbaik untuk membagi konten tersebut?

Gary: V bertanya: Bagaimana jika suatu situs menulis postingan dalam beberapa bahasa (diterjemahkan secara manual), apa praktik terbaik untuk membagi konten tersebut?

Keputusannya ada di tangan Anda. Baik Anda menggunakan parameter URL seperti pusat bantuan kami, misalnya ?hl=ja, atau menempatkan kode bahasa di jalur URL, hal ini tidak berpengaruh dari perspektif penelusuran. Pastikan saja Anda memiliki URL unik untuk setiap versi bahasa.

John: Michał bertanya: Apakah Google menerima link seperti <select><option value="https://www.examplepage.com">Page</option>? Apakah hal ini bisa berfungsi?

Kami tidak akan memperlakukan ini sebagai link, tetapi kami mungkin mengenali URL tersebut dan meng-crawl-nya secara terpisah. Jika Anda ingin sesuatu diperlakukan sebagai link, pastikan bahwa formatnya adalah link biasa. Baru-baru ini kami memublikasikan panduan tentang pembuatan link. Jadi, jika developer web Anda memiliki pertanyaan tentang format yang didukung, sebaiknya kirimkan di sana. Sebagai tambahan, kombinasi HTML ini belum tentu juga dapat berfungsi sebagai link di browser, tetapi dapat digunakan di dropdown untuk formulir.

Robots.txt tidak dapat dijangkau di Google Search Console. Mengapa demikian?

Gary: Aslam Khan bertanya, sebenarnya, menyatakan: Robots.txt tidak dapat dijangkau di Google Search Console.

Jika Search Console melaporkan masalah robots.txt yang tidak dapat dijangkau di properti Anda, ini berarti situs atau server Anda mengalami masalah dan Anda harus memperbaikinya jika ingin melihat situs tersebut di Google Penelusuran. Kami tidak dapat berbuat apa-apa mengenai hal ini. Hal pertama yang sebaiknya diperiksa adalah aturan firewall untuk server Anda. Lihat apakah ada sesuatu yang salah dalam aturan pemblokiran, lalu periksa file konfigurasi server. Jika tidak tahu cara melakukannya sendiri, kirim tiket dukungan ke penyedia hosting Anda dan mereka kemungkinan besar dapat membantu Anda.

Jika URL hreflang dicantumkan di peta situs, bagaimana pengaruh properti seperti <lastmod> atau <priority> terhadap hal tersebut?

John: Carlos bertanya: Jika URL hreflang dicantumkan di peta situs, bagaimana pengaruh properti seperti <lastmod> atau <priority> terhadap hal tersebut?

Saat anotasi hreflang dicantumkan dalam file peta situs, pada dasarnya Anda merujuk ke URL lain. Hal ini harus dikonfirmasi di semua URL kumpulan hreflang. Namun, memahami waktu untuk meng-crawl URL adalah masalah lain. Untuk crawling, kami antara lain akan melihat atribut untuk URL spesifik tersebut, misalnya tanggal perubahan terakhirnya. Bisa saja misalnya, satu versi bahasa berubah secara independen, mungkin karena perbaikan terjemahan. Artinya, tanggal perubahan terakhir pun bukanlah sinyal akurat di antara sinyal lainnya, data ini saja tidak menjamin halaman akan segera di-crawl ulang. Perlu diperhatikan juga bahwa halaman yang lebih sering di-crawl tidak lantas akan mendapat peringkat yang lebih baik. Jadi, Anda tidak perlu mencoba memaksakan frekuensi crawling yang lebih tinggi.

Gary: Nick van Schaik bertanya: Apakah sebaiknya saya memblokir link afiliasi di robots.txt (untuk mengelola anggaran crawling) atau mencabut larangan dan mencegah pengindeksan link afiliasi (menggunakan tag noindex)?

Memblokir link afiliasi di robots.txt sepertinya masuk akal. Meskipun kami juga dapat mengenali dan mengabaikannya sendiri. Dengan larangan robots.txt, Anda akan memegang kontrol dan dapat menghemat anggaran crawling secara lebih mudah.