LinkedIn에서 Google 검색 확인하기:
LinkedIn에서 팔로우하고 검색 가능한 사이트를 만드는 방법에 관한 Google 검색 뉴스와 리소스를 확인하세요.
크롤링 및 색인 생성 관련 주제 개요
이 섹션에 포함된 주제에서는 Google 검색 및 기타 Google 서비스에 콘텐츠를 표시하기 위해
콘텐츠를 찾고 파싱하는 Google의 기능을 제어하는 방법과 Google이 사이트의 특정 콘텐츠를 크롤링하지 못하게 하는 방법을
설명합니다.
다음은 각 페이지의 간략한 설명입니다. 크롤링 및 색인 생성에 관한 개요를 보려면
Google 검색 작동 방식 가이드를 참고하세요.
주제 |
Google에서 색인을 생성할 수 있는 파일 형식 |
Google은 대부분의 페이지 및 파일 형식의 콘텐츠를 색인 생성할 수 있습니다. Google 검색에서
색인을 생성할 수 있는 가장 일반적인 파일 형식 목록을 살펴보세요. |
URL 구조 |
콘텐츠를 정리하여 URL을 논리적이고 가장 이해하기 쉬운 방식으로 구성하는 것이 좋습니다. |
사이트맵 |
사이트의 새 페이지 또는 업데이트된 페이지에 관해 Google에 알립니다. |
크롤러 관리 |
|
robots.txt |
robots.txt 파일은 검색엔진 크롤러에 크롤러가 사이트에 요청할 수 있거나 요청할 수 없는 페이지 또는 파일을 알려 줍니다. |
표준화
|
URL 정규화의 정의, 그리고 과도한 크롤링을 방지하기 위해 사이트의 중복 페이지에 관해 Google에 알리는 방법을 알아보세요. Google에서 중복 콘텐츠를 자동으로 감지하는 방법, 중복 콘텐츠를 처리하는 방법, 발견된 중복 페이지 그룹에 표준 페이지를 할당하는 방법을 알아보세요.
|
모바일 사이트 |
모바일 기기에 맞게 사이트를 최적화하고 적절하게 크롤링하고 색인을 생성하는 방법을 알아보세요. |
AMP |
AMP 페이지가 있다면 Google 검색에서 AMP가 어떻게 작동하는지 알아보세요. |
JavaScript |
크롤러가 콘텐츠에 액세스하고 렌더링하는 방법을 반영하려면 페이지와 애플리케이션을 설계할 때
몇 가지 차이점과 제한사항을 고려해야 합니다.
|
페이지 및 콘텐츠 메타데이터 |
|
삭제 |
|
사이트 이전 및 변경 |
|
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2025-02-17(UTC)
[null,null,["최종 업데이트: 2025-02-17(UTC)"],[[["This section explains how to control which content Google can find, parse, and show in search results."],["Learn how to submit new or updated pages, manage crawl rate, and block specific content from Google."],["Discover best practices for URL structure, sitemaps, canonicalization, and mobile optimization."],["Understand how Google handles various file types, JavaScript, and metadata for indexing."],["Explore tools for removing content, managing site moves, and optimizing for AMP."]]],["This content details how to manage Google's crawling and indexing of website content. Key actions include: using sitemaps to inform Google of new/updated pages, structuring URLs logically, and utilizing `robots.txt` to specify crawlable content. You can ask Google to recrawl URLs, manage faceted navigation, and handle duplicate content via canonicalization. The content also covers optimizing for mobile, AMP, JavaScript, metadata, removals, and site changes, including redirects and temporary site pauses. It also lists the indexable file types.\n"]]