Konsultacje Google dotyczące SEO – wrzesień 2023 r.

To jest transkrypcja konsultacji Google dotyczących SEO z września 2023 r. Jeśli potrzebujesz pomocy związanej z daną witryną, zadaj pytanie na Forum pomocy Centrum wyszukiwarki Google.

Czy Google błędnie indeksuje wersję www mojej witryny?

John: Wan pyta: Google nieprawidłowo indeksuje wersję www mojej witryny. Prawidłowa strona powinna mieć protokół HTTP, a zatem nazwa domeny to .my bez www.

Cześć Wan, sprawdziliśmy Twoje strony i wygląda na to, że Twój serwer automatycznie przekierowuje z wersji innej niż www na wersję www i odpowiednio ustawia element link rel canonical. Jeśli używasz Chrome, na pierwszy rzut oka może się wydawać, że na początku nie ma przedrostka www, ale jeśli klikniesz dwukrotnie adres URL u góry przeglądarki, otworzy się pełny adres URL razem z przedrostkiem www. W praktyce jest to normalne – wyszukiwarka Google obsługuje zarówno wersję witryny z przedrostkiem www, jak i bez niego. Ale dużo jest ston www!

Dlaczego odfiltrowane dane mają większy rozmiar niż ogólne dane w Search Console?

Gary: Ornella zastanawia się, dlaczego filtrowane dane są większe niż ogólne dane w Search Console. To bez sensu.

Przede wszystkim podoba mi się to pytanie, ale prawdopodobnie z niewłaściwego powodu. Krótko mówiąc, bardzo często wykorzystujemy filtry Bloom, ponieważ musimy przetwarzać dużo danych, a filtry Bloom pozwalają zaoszczędzić dużo czasu i miejsca. Dłuższa odpowiedź jest taka sama: bardzo często korzystamy z filtrów Bloom, ponieważ musimy przetwarzać bardzo dużo danych. Dodam tylko, że przy przetwarzaniu dużej liczby elementów w zbiorze (miliardów, a nawet bilionów) szybkie wyszukiwanie rzeczy staje się bardzo trudne. Przydatne są tu filtry Bloom, które pozwalają przejrzeć inny zbiór, który zawiera zahaszowanie możliwych elementów z głównego zbioru, i wyszukać w nim dane. Gdy najpierw przeszukujesz hasze, działa to dość szybko, ale czasami wiąże się to z utratą danych (celową lub nie). Te brakujące dane powodują sytuację, o którą pytasz: mniej danych do przejrzenia pozwala trafniej przewidywać, czy coś istnieje w zbiorze głównym. Zasadniczo filtry Bloom przyspieszają wyszukiwanie przez przewidywanie, czy coś istnieje w zbiorze danych. Jednak dzieje się to kosztem dokładności, a im mniejszy zbiór danych, tym dokładniejsze są prognozy.

Dlaczego strony mojej witryny w Witrynach Google nie są poprawnie indeksowane?

John: przesłano pytanie w języku francuskim, dlaczego strony z witryny w Witrynach Google nie są prawidłowo indeksowane.

Cieszę się, że są pytania w innych językach. Witryny utworzone w Witrynach Google mogą zostać zindeksowane w wyszukiwarce Google i tak się dzieje. Jednak adresy URL używane w Witrynach Google są trudniejsze do śledzenia, ponieważ ich wersja publiczna może różnić się od adresu URL wyświetlanego po zalogowaniu. Chociaż jest technicznie możliwa do zindeksowania, nie jest idealna do celów SEO, a jej śledzenie w Search Console może być skomplikowane. Jeśli SEO jest dla Ciebie najważniejszą kwestią, przed podjęciem decyzji warto przyjrzeć się innym możliwościom i poznać wady i zalety poszczególnych rozwiązań. Aby śledzić wydajność w Search Console, na potrzeby treści w Witrynach Google możesz też użyć własnej nazwy domeny. Użycie własnej nazwy domeny ułatwia migrację (jeśli zdecydujesz się to zrobić) i pozwala potwierdzić własność całej domeny w Search Console.

Gary: Sarabjit pyta: na naszej stronie jest wiele przycisków, a ich kliknięcie powoduje pobranie linków do innych stron. Czy Google będzie w stanie zindeksować te linki?

Mówiąc ogólnie, Googlebot nie klika przycisków.

Czy „post gościa” (za pomocą którego chcę uzyskać link przychodzący) jest niezgodny z wytycznymi Google, jeśli piszę wartościowe treści?

John: Brooke pyta: obecnie większość witryn oferuje tylko możliwość wykupienia „postów gości” (w celu uzyskania linku przychodzącego). Czy jest to sprzeczne z wytycznymi Google, jeśli piszę wartościowe treści?

Cześć Brooke. Dziękuję za opublikowanie pytania. Jest tak, jak myślisz. Tak. Wykorzystywanie postów gości w celu uzyskiwania linków jest niezgodne z naszymi zasadami dotyczącymi spamu. Ważne jest w szczególności, że te linki muszą być zakwalifikowane w sposób pokazujący, że nie mają wpływu na wyniki wyszukiwania. Możesz to zrobić za pomocą atrybutów rel=nofollow lub rel=sponsored w linkach. Możesz promować swoją witrynę za pomocą reklam, ale linki powinny być zablokowane, jak już wspomniano.

Czy zawartość strony z kategorii e-commerce jest wartościowa dla poprawy ogólnych rankingów?

Gary: Brooke pyta, czy zawartość strony z kategorii e-commerce jest wartościowa dla poprawy ogólnych rankingów.

Możesz dodawać do stron dowolną treść – w końcu są to Twoje strony. Nie umieszczaj jednak automatycznie generowanych, powtarzających się ciągów tekstu niskiej jakości na wszystkich stronach kategorii. To wygląda po prostu głupio, nawet dla przeciętnego użytkownika. Jeśli potrzebujesz mieć treści na stronach, dodaj treści, które będą przydatne dla użytkowników, nie dodawaj ich tylko dlatego, że może ich wymagać wyszukiwarka lub że tak Ci się wydaje. Zapoznaj się też z naszymi zaleceniami dotyczącymi handlu elektronicznego.

Czy nieprawidłowe tagi semantyczne mogą sprawić, że Google będzie gorzej rozumieć zawartość witryny?

John: czy nieprawidłowe tagi semantyczne mogą sprawiać, że Google będzie gorzej rozumieć zawartość witryny, a więc mniej trafnie przypisywać ją do branży? W szczególności tagi <hr> sygnalizują zmianę tematu, ale mogę ich używać tylko do celów projektowych.

To ciekawe pytanie. Ogólnie rzecz biorąc, prawidłowe użycie semantycznego języka HTML może ułatwić wyszukiwarkom zrozumienie zawartości strony i jej kontekstu. Jeśli na przykład oznaczysz nagłówki na stronie, jest to wyraźny znak, że Twoim zdaniem treść danej strony mieści się w danym nagłówku. Nie jest to tajna ścieżka do miejsca nr 1 w rankingu, ale jeśli mamy problem ze zrozumieniem, o co chodzi w tekście, pomocne może być zamieszczenie jasnego podsumowania w formie nagłówków. Ponieważ jest to drobna sprawa, która zależy od tego, jak dobrze zrozumiemy treść strony, warto upewnić się, że wszystko zostało uwzględnione. Zmiana z kodu HTML poprawnego semantycznie na niepoprawny semantycznie jest też subtelna. Czy wyszukiwarki rozumieją treść Twojej strony? Gdyby tak było, prawdopodobnie nie byłoby widać żadnej różnicy w tym, jak strona jest interpretowana. Czy znaczenie nagle stało się niejasne? W takim razie postaraj się, aby było mniej rozmyte, na przykład używając jakiejś struktury semantycznej. Jeśli chodzi o Twój przykład z tagami <hr>, nie jesteśmy w stanie wyobrazić sobie sytuacji, w której występowałaby różnica w zrozumieniu strony z powodu nieprawidłowego użycia tych tagów. Istnieje nieskończona liczba nieprawidłowych sposobów korzystania z elementów, ale te sposoby, które mógłby przypadkowo wprowadzić w życie programista stron internetowych z tagami <hr>, wyglądają na całkiem bezpieczne. To przydługie wyjaśnienie można podsumować krótko: „to zależy”.

W Google Search Console raport dotyczący stron 404 zawiera wiele adresów URL, które wyglądają na adresy JSON lub JavaScript. Czy mamy je zignorować?

Gary: Reza pyta: w Google Search Console raport o stronach 404 zawiera adresy URL, które jakby zostały wybrane przez pomyłkę z jakiegoś kodu JSON lub JavaScriptu. Czy mamy to zignorować?

Możecie je zignorować lub dodać do nich nagłówek HTTP noindex.

John: Dhruv pyta: czy plik indeksu map witryny może zawierać linki do plików mapy witryny w innych domenach?

Cześć Dhruv, to interesujące pytanie. Odpowiedź od Google jest oczywista. Dlatego radzimy nie używać takich konfiguracji. Możesz przesyłać mapy witryn dla adresów URL, które nie znajdują się w tej samej domenie, w 2 sytuacjach: przesyłasz mapę witryny za pomocą pliku robots.txt lub jesteś zweryfikowanym właścicielem wszystkich domen w Search Console. Szczególnie informacje o własności w Search Console bywają niewyraźne i nie są od razu widoczne podczas analizy witryny, więc łatwo zapomnieć o tym połączeniu. Jeśli pracujesz nad plikami mapy witryny i decydujesz się zastosować taką konfigurację, dodaj do pliku mapy witryny komentarz XML, aby zapamiętać te wymagania i przypadkowo nie zaniedbać ich w przyszłości. Search Console jest usługą dla wyszukiwarki Google, dlatego warto sprawdzić wymagania w tym zakresie powiązane z innymi wyszukiwarkami.

Jak można zmniejszyć prawdopodobieństwo, że Google wybierze własne metaopisy dla witryn?

Gary: Sam Bowers zadaje pytanie: w jaki sposób zmniejszyć prawdopodobieństwo, że Google wybierze własne metaopisy dla stron?

Dobre pytanie: nie zawsze, ale zazwyczaj nasze algorytmy używają metaopisu, gdy na stronie jest mało treści lub gdy jest on bardziej powiązany z zapytaniem użytkownika niż rzeczywista zawartość strony. Dowiedz się więcej o opisach i fragmentach.

Czy można w jakiś sposób nakazać robotom wyszukiwarek, żeby nie indeksowały określonych sekcji strony?

John: czy można w jakiś sposób wskazać, że roboty wyszukiwarek nie mają indeksować określonych sekcji strony (strona zezwala na skanowanie i indeksowanie pozostałej zawartości) Pytający dodaje, że ma wiele powielonych obszernych menu i chce je zablokować.

Tak. Możesz uniemożliwić indeksowanie określonych części strony, ale nie trzeba blokować indeksowania typowych elementów strony, takich jak nagłówki, menu, paski boczne czy stopki. Wyszukiwarki radzą sobie z internetem takim jaki jest. Zdarzające się niekiedy gigantyczne menu lub nadmiarowe stopki nie są problemem. W przypadku innych elementów treści na stronie możesz użyć elementu iframe ze źródłem niedozwolonym przez plik robots.txt lub wybrać treść z kodem JavaScript, która jest podobnie blokowana przez plik robots.txt. Jeśli nie chcesz, aby jakiś fragment był wyświetlany w krótkim opisie, skorzystaj z atrybutu data-nosnippet. Nie ma jednak potrzeby komplikowania kodu po to, aby ukryć jakieś menu. Nadmierna złożoność może spowodować, że coś niespodziewanie przestanie działać, dlatego warto ograniczyć ją do przypadków, w których jest naprawdę potrzebna.

Czy zalecacie przewijanie nieskończone stron internetowych? Czy ma to jakiś wpływ na ruch bezpłatny lub działanie Googlebota?

Gary: Jeethu pyta: czy polecacie nieskończone przewijanie stron internetowych? Czy dodanie tej funkcji będzie miało wpływ na ruch bezpłatny lub działanie Googlebota?

To zależy od sposobu wdrożenia przewijania nieskończonego. Jeśli wszystkie elementy i strony wirtualne są dostępne i da się je znaleźć za pomocą unikalnego adresu URL, zazwyczaj można korzystać z przewijania nieskończonego.

John: Ryan pyta: jeśli strona główna zawiera linki, które są widoczne w przeglądarce mobilnej, ale są ukryte za pomocą przełącznika JavaScriptu na komputerach i nie są umieszczone w kodzie HTML, to czy Google obniży ich wartość?

Cześć Ryanie. W przypadku indeksowania zoptymalizowanego pod kątem urządzeń mobilnych używamy mobilnej wersji strony jako podstawy indeksowania i odkrywania linków. Jeśli wersja mobilna ma pełną zawartość, nie musisz nic więcej robić. To zaskakujące, że masz mniej treści w wersji na komputery, ale chyba masz powody.

Czy Google indeksuje zapisane na Dysku Google pliki PDF, które nie są hostowane w witrynie?

Gary: anonim zadaje pytanie: czy Google indeksuje pliki PDF zapisane na Dysku Google, które nie są hostowane w witrynie? Jeśli tak, jak długo to trwa?

Tak, Google może indeksować publiczne pliki PDF przechowywane na Dysku Google. To po prostu kolejny adres URL w witrynie. Podobnie jak w przypadku każdego adresu URL zindeksowanie plików PDF, o ile zostanie wykonane, może potrwać kilka sekund lub bardzo długo.

W jaki sposób Google indeksuje treści, w których zastosowano Scrolljacking, i czy takie podejście do UX wpływa na rankingi?

John: Matt zauważył, że popularność w internecie zyskuje „Scrolljacking” – przejmowanie kontroli nad sposobem przewijania treści w witrynie. Ogólnie rzecz biorąc, postrzega się to jako złe wrażenia użytkownika. W jaki sposób Google indeksuje te treści i czy takie podejście do wygody użytkownika wpłynie na rankingi? Umieścił też link do artykułu na temat scrolljackingu. Znajdzie się on też w transkrypcji.

Cześć Matt, to ciekawe pytanie. Pojęcie „scrolljacking” jest dla mnie nowe. Dziękuję za link. Nie uważam, żebyśmy potraktowali to jako nadużycie, więc nie będzie to miało bezpośrednich skutków. Mogą jednak wystąpić drugorzędne problemy techniczne. Na przykład Google renderuje strony, wczytując je na teoretycznie bardzo dużym urządzeniu mobilnym. Jeśli treści na stronie nie wyświetlają się ze względu na manipulowanie przy zdarzeniach przewijania, nasze systemy mogą założyć, że treść nie jest prawidłowo widoczna. Krótko mówiąc, raczej jest to problem z renderowaniem, a nie z jakością.

Dlaczego adres URL jest zindeksowany, ale jest blokowany przez plik robots.txt w Google Search Console?

Gary: Deniz Can Aral pyta: dlaczego indeksowanie jest zablokowane przez plik robots.txt w Google Search Console?

Jest to stosunkowo częste pytanie: Google może zindeksować tylko adres URL, ale nie treść, nawet jeśli indeksowanie tego adresu jest zablokowane w pliku robots.txt. Liczba takich adresów URL w naszym indeksie jest jednak niewielka, ponieważ dzieje się tak tylko wtedy, gdy zablokowany adres jest bardzo poszukiwany w internecie. Jeśli sprawia Ci to problem, zezwól na indeksowanie adresu URL i użyj reguły noindex w nagłówkach HTTP lub tagu <meta>.

Mamy niechciane treści AI. Jak mogę je poprawić lub usunąć z mojej witryny?

John: Sonia pyta: zatrudniliśmy kilku twórców treści, ale otrzymaliśmy od nich treści z AI. Jak mogę to naprawić? Czy usunąć tylko treści AI? Zastąpić nową treścią? Usunąć witrynę i utworzyć nową z nowym adresem URL? Prosimy o radę.

Nie wiem, co powiedzieć, Soniu. Wygląda na to, że opublikowaliście bez weryfikacji treści autorów zewnętrznych. Wydaje się to złym pomysłem, nawet bez aspektu dotyczącego treści AI. Cóż, jeśli opublikujesz w swojej witrynie treści niskiej jakości i nie chcesz, aby witryna była z nimi kojarzona, niezależnie od przyczyny oraz źródła, możesz je usunąć lub poprawić. Sugerujemy szersze spojrzenie na problem: czy w internecie brakuje treści tego typu, a witryna może być wartościowa dla użytkowników? A może są to tylko przeredagowane treści już dostępne w internecie? Albo pomyśl o tym w ten sposób: skoro Twoja treść zasadniczo nie różni się od tych dostępnych już u innych osób, po co wyszukiwarki miały ją w ogóle indeksować, a tym bardziej pokazywać na wysokim miejscu w wynikach wyszukiwania? Aby stworzyć świetną stronę internetową, potrzeba nie tylko dobrych artykułów, ale także jasnej strategii i procedur, dzięki którym każdy z nas zrealizuje Twoje cele.

Zauważyliśmy, że liczba zindeksowanych adresów URL gwałtownie wzrosła z dnia na dzień. Jakie są przyczyny?

Gary: Lorenzo pyta: odnotowaliśmy gwałtowny wzrost liczby zindeksowanych adresów URL z dnia na dzień. Jakie są przyczyny?

Może mamy więcej dysków twardych, może zwolniliśmy trochę miejsca albo odkryliśmy nowe adresy URL. Trudno to stwierdzić. Tak czy siak, warto otworzyć szampana! Cieszcie się!

Czy Google może użyć kilku rozmiarów pliku w jednym pliku favikony?

John: Dave pyta: czy Google może użyć kilku rozmiarów pliku w jednym pliku favikony? Czy rozumie kilka ikon oznaczonych atrybutem rozmiaru i wybiera odpowiednią z nich?

Cześć Dave. Technicznie rzecz biorąc, format pliku.ico umożliwia udostępnianie plików w kilku rozdzielczościach. Jednak w związku z rosnącą liczbą rozmiarów używanych do różnych celów uważam, że lepiej jest określić rozmiary i pliki pojedynczo. Google obsługuje wiele rozmiarów favikony w kodzie HTML, więc jeśli chcesz podać konkretne rozmiary, skorzystaj z tego rozwiązania.

Czy Google inaczej ocenia niektóre części witryny, jeśli utworzono je za pomocą innego systemu CMS?

Gary: Zastanawia się, czy Google inaczej ocenia niektóre części witryny, jeśli utworzono je za pomocą innego systemu CMS?

Nie.

W wyszukiwarce Google jako strona główna naszej witryny wyświetla się plik PDF do pobrania. Czy można zmienić wynik wyszukiwania?

John: Anna pyta: wynik wyszukiwania Google dotyczący naszej fundacji wymaga ponownego zindeksowania. Na stronie głównej wyświetla się plik PDF do pobrania. Nasza strona internetowa to holenderska fundacja zajmująca się prawami człowieka. Czy można zmienić wynik wyszukiwania?

Cześć Anno, przyjrzeliśmy się Twojej witrynie. Przyczyną, dla której zamiast strony głównej wyświetlają się inne strony, jest to, że na stronie głównej znajduje się tag robots noindex <meta>. Ten tag <meta> uniemożliwia indeksowanie danej strony. Gdy go usuniesz, wszystko powinno szybko się ustabilizować.

Gdy szukam swojej witryny w wyszukiwarce Google, pierwszym wynikiem jest strona produktu, a nie strona powitalna. Dlaczego?

John: Julian pyta: gdy szukam w wyszukiwarce Google mojej witryny, pierwszym wynikiem jest strona produktu, a nie strona powitalna. Dlaczego? Strona produktu nie jest przygotowana przez SEO, ale moja strona powitalna już tak.

Cześć Julien. Google sprawdza, które strony mogą być najtrafniejsze dla użytkowników w przypadku konkretnych zapytań, biorąc pod uwagę wiele czynników. W kontekście pobierania informacji jedna z koncepcji jest oparta na postrzeganej intencji użytkownika. W skrócie: co użytkownik chciał osiągnąć, szukając danych informacji? Czy szukał dodatkowych informacji o produkcie lub firmie? A może planuje kupić właśnie dany produkt? Z czasem może się to zmieniać w przypadku tego samego zapytania. Krótko mówiąc, oznacza to, że nawet jeśli strona nie jest przygotowana pod kątem SEO, może się pojawić w wyszukiwarce, jeśli systemy uznają, że w danym momencie jest odpowiednia. W praktyce zalecam zapoznanie się z różnymi sposobami odwiedzania Twojej witryny przez użytkowników i skupienie się na ich potrzebach w taki sposób, aby niezależnie od miejsca, do którego trafiają, zapewnić im satysfakcjonujące wrażenia.

W Search Console pojawił się alert dotyczący naprawienia problemów z INP. Jak to obliczyć i najłatwiej naprawić?

John: Alejandro pyta: cześć Johnie i zespole Google, dotarł do mnie alert z Search Console dotyczący rozwiązania problemów z INP. Jak oblicza się te dane i jak najprościej je poprawić?

Nie mogę udzielić pełnej odpowiedzi, ale na stronie web.dev znajdziesz dokumentację na temat interakcji do kolejnego wyrenderowania (w skrócie INP). Polecam zapoznanie się z tymi informacjami, jeśli interesuje Cię poprawa wyników witryny. Pamiętaj, że INP nie jest jeszcze jednym z podstawowych wskaźników internetowych, a podstawowe wskaźniki internetowe to tylko jeden z wielu czynników, które mają wpływ na jakość stron oraz systemy przydatnych treści. Choć poprawa wartości INP może oczywiście zwiększyć wygodę użytkowników, nie spodziewam się, że zmieni to wyraźnie pozycję w rankingu wyników wyszukiwania.

Jak usunąć z Google Search Console 30 tys. adresów URL, będących skutkiem ataku hakerów za pomocą japońskich słów kluczowych?

John: Heather pyta: jak usunąć 30 tys. adresów URL z Google Search Console będących skutkiem ataku za pomocą japońskich słów kluczowych?

Cześć Heather. Przykro mi, że ktoś włamał się na Twoje konto. Mam nadzieję, że już udało Ci się rozwiązać problem, ale mamy też treści na web.dev na temat tego typu ataków hakerskich. Podam do niego link ze strony transkrypcja. Pamiętaj, że w wyniku tego ataku haker zwykle maskuje zmodyfikowane treści przed Google, więc sprawdzenie, czy zostały w pełni usunięte, może wymagać pewnej pomocy. Jeśli chodzi o wyniki wyszukiwania, biorąc pod uwagę liczbę stron, radzimy skupić się na bardziej widocznych stronach i ręcznie rozwiązać problem przez ich usunięcie lub ponowne zindeksowanie, a reszta zniknie sama. Jeśli szukasz bezpośrednio treści zmodyfikowanych przez hakerów, przez dłuższy czas będziesz mogła ją znaleźć, ale przeciętny użytkownik będzie szukał Twojej witryny, więc Twoim celem powinno być zapewnienie dobrych wyników dla wyszukiwań witryny.

Dlaczego moje strony są usuwane z indeksu po przesłaniu ich do zindeksowania w Search Console? Robiłam to już wiele razy.

John: Grace pyta: dlaczego strony są usuwane z indeksu po przesłaniu ich do zindeksowania w Search Console? Robiłam to już wiele razy.

Cześć Grace. Nie mogę tego stwierdzić, nie znając tych stron. Wygląda jednak na to, że nasze systemy nie są przekonane co do wartości Twojej witryny i jej treści. Prawie nigdy nie indeksujemy wszystkich stron witryny, więc do pewnego stopnia jest to normalne. Możesz poprosić o zindeksowanie, ale nasze systemy będą z czasem ponownie oceniać treści i witrynę, więc mogą znowu usunąć te strony. Najlepiej nie dodawać takich stron na siłę do witryny, ale przekonać nasze systemy o ogólnej jakości Twojej witryny, o niepowtarzalnej wartości, jaką wnosi ona do internetu i o dopasowaniu do tego, czego szukają użytkownicy. Następnie indeksujemy ją samodzielnie.