LinkedIn에서 Google 검색 확인하기:
LinkedIn에서 팔로우하고 검색 가능한 사이트를 만드는 방법에 관한 Google 검색 뉴스와 리소스를 확인하세요.
대량 데이터 내보내기: Search Console 데이터애 액세스하는 새롭고 효과적인 방법
컬렉션을 사용해 정리하기
내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
2023년 2월 21일 화요일
오늘 Google은 Search Console에서 Google BigQuery로 데이터를 지속적으로 내보낼 수 있는 새로운 기능인 대량 데이터 내보내기를 발표합니다.
배포에는 1주일 정도 소요되므로 바로 이 기능을 사용하지 못할 수도 있습니다.
Search Console에서 내보내기를 구성하여 매일 BigQuery 프로젝트로 데이터 덤프를 가져올 수 있습니다.
이러한 데이터에는 개인 정보 보호를 위해 필터링으로 제외된 익명처리된 쿼리 이외의 모든 성능 데이터가 포함됩니다. 다시 말해 일괄 데이터 내보내기는 일일 데이터 행 한도의 영향을 받지 않습니다.
즉, 데이터를 최대한 활용하여 다른 데이터 소스와 결합하고 고급 분석 및 시각화 기법을 사용하는 것이 가능합니다.
이 데이터 내보내기는 페이지가 수만 개에 달하는 대규모 웹사이트나 하루에 수만 개의 쿼리에 대한 트래픽을 수신하는 웹사이트(또는 둘 다)에 특히 유용합니다. 중소 규모의 사이트에서는 사용자 인터페이스, Looker Studio 커넥터(이전 명칭: 데이터 스튜디오), Search Analytics API를 통해 전체 데이터에 액세스할 수 있습니다.
새로운 대량 데이터 내보내기 설정
새 보고서를 구성하려면 데이터를 수신할 BigQuery 계정을 준비한 다음 Search Console 설정에서 세부정보를 설정해야 합니다. 고객센터에서 단계별 안내를 확인하세요. 일반적으로 이 프로세스는 두 단계로 나뉩니다.
- Cloud 프로젝트 준비(Google Cloud Console 내): 프로젝트에 BigQuery API를 사용 설정하고 Search Console 서비스 계정에 권한을 부여하는 작업이 포함됩니다.
- 내보내기 대상 설정(Search Console 내): Google Cloud 프로젝트 ID를 제공하고 데이터 세트 위치를 선택하는 작업이 포함됩니다. 속성의 소유자만 대량 데이터 내보내기를 설정할 수 있습니다.
정보를 Search Console에 제출하면 내보내기가 시뮬레이션됩니다. 내보내기에 성공하면 모든 속성 소유자에게 이메일이 전송되며, 내보내기는 48시간 이내에 시작됩니다. 내보내기 시뮬레이션에 실패하면 문제가 감지된 즉시 알림을 받게 됩니다. 발생 가능한 내보내기 오류 목록을 참고하세요.
일괄 데이터 내보내기에서 사용 가능한 데이터
일괄 데이터 내보내기가 성공적으로 설정되면 BigQuery 계정에 로그인하여 데이터 쿼리를 시작할 수 있습니다.
고객센터에서 자세한 표 가이드라인 및 참조를 확인할 수 있습니다. 속성별 및 페이지별 데이터 집계의 차이점에 대한 설명도 확인하세요. 데이터를 이해하는 데 도움이 됩니다 이때 제공되는 표 3개에 대한 간략한 설명은 다음과 같습니다.
searchdata_site_impression
: 이 표에는 검색어, 국가, 유형, 기기 등 속성별로 집계된 데이터가 포함됩니다.
searchdata_url_impression
: 이 표에는 URL별로 집계된 데이터가 포함되어 있어 검색어 및 리치 결과를 더 자세히 확인할 수 있습니다.
ExportLog
: 이 테이블에는 특정 날짜에 저장된 데이터에 관한 기록이 표시됩니다. 실패한 내보내기는 여기에 기록되지 않습니다.
데이터 쿼리를 시작하는 데 도움이 필요한 경우 고객센터에 게시된 샘플 쿼리를 확인하면 쿼리를 준비하고 실행하는 데 도움이 됩니다. 다음 예에서는 지난 2주간 FAQ 리치 결과 노출수가 100회 이상인 페이지의 URL 조합별로 총 쿼리를 가져왔습니다.
SELECT
url,
query,
sum(impressions) AS impressions,
sum(clicks) AS clicks,
sum(clicks) / sum(impressions) AS ctr,
/* Added one below, because position is zero-based */
((sum(sum_position) / sum(impressions)) + 1.0) AS avg_position
/* Remember to update the table name to your table */
FROM searchconsole.searchdata_url_impression
WHERE search_type = 'WEB'
AND is_tpf_faq = true
AND data_date BETWEEN DATE_SUB(CURRENT_DATE(), INTERVAL 14 day) AND CURRENT_DATE()
AND clicks > 100
GROUP BY 1,2
ORDER BY clicks
LIMIT 1000
Google은 더 많은 Google 검색 데이터를 제공함으로써 웹사이트 소유자와 검색엔진 최적화 담당자가 롱테일 검색어를 분석하여 더 많은 콘텐츠 기회를 찾을 수 있기를 바랍니다.
더 많은 Google 검색 데이터를 제공하면 내부 시스템의 페이지 수준 정보를 Google 검색결과에 더 쉽고 포괄적으로 통합할 수도 있게 됩니다.
질문이나 의견이 있다면 Google 검색 센터 커뮤니티나 Twitter를 통해 문의하세요.
게시자: 다니엘 웨이스버그, 가알 야하스, 하임 대니얼, Search Console팀
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
[null,null,[],[[["\u003cp\u003eGoogle Search Console introduces a new bulk data export feature, enabling ongoing data transfer to Google BigQuery.\u003c/p\u003e\n"],["\u003cp\u003eThe export encompasses all performance data, excluding anonymized queries for privacy, and is ideal for large websites with significant traffic.\u003c/p\u003e\n"],["\u003cp\u003eSetting up the export involves preparing your BigQuery account and configuring the export destination within Search Console.\u003c/p\u003e\n"],["\u003cp\u003eThree BigQuery tables will be available: \u003ccode\u003esearchdata_site_impression\u003c/code\u003e, \u003ccode\u003esearchdata_url_impression\u003c/code\u003e, and \u003ccode\u003eExportLog\u003c/code\u003e, providing comprehensive data for analysis.\u003c/p\u003e\n"],["\u003cp\u003eThis feature empowers website owners and SEOs to discover content opportunities, analyze long-tail queries, and integrate internal data for enhanced insights.\u003c/p\u003e\n"]]],["Search Console now allows users to export data to Google BigQuery daily. This includes performance data, excluding anonymized queries. To set up, users need to prepare their Google Cloud project by enabling the BigQuery API and granting permissions. Then in Search Console, they provide their project ID and choose a dataset location. Once set up, data is accessible via three tables: `searchdata_site_impression`, `searchdata_url_impression`, and `ExportLog`. This feature suits large sites, enabling advanced data analysis.\n"],null,["# Bulk data export: a new and powerful way to access your Search Console data\n\nTuesday, February 21, 2023\n\n\nToday, we're announcing [bulk\ndata export](https://support.google.com/webmasters/answer/12918484), a new feature that allows you to export data from Search Console to\n[Google BigQuery](https://cloud.google.com/bigquery) on an ongoing basis.\n(*Note that the rollout will take approximately one week, so you may not have access right away.*)\n\n\nYou can configure an export in Search Console to get a daily data dump into your BigQuery project.\nThe data includes all your performance data, apart from anonymized queries, which are filtered out\nfor privacy reasons; in other words, the bulk data export is not affected by the\n[daily data row limit](/search/blog/2022/10/performance-data-deep-dive#daily-data-row-limit).\nThis means you can explore your data to its maximum potential, joining it with other sources of data\nand using advanced analysis and visualization techniques.\n\n\nThis data export could be particularly helpful for large websites with tens of thousands of pages, or those receiving\ntraffic from tens of thousands of queries a day (or both!). Small and medium sites already have access to all their\ndata through the user interface, the [Looker Studio connector](/search/blog/2022/03/monitoring-dashboard)\n(formerly known as Data Studio) or the [Search Analytics API](https://developers.google.com/webmaster-tools/v1/searchanalytics/query).\n\nSetting up a new bulk data export\n---------------------------------\n\n\nTo configure a new report, you'll need to prepare your BigQuery account to receive the data and set up\nyour details in the Search Console settings. Check the Help Center for a\n[step-by-step guide](https://support.google.com/webmasters/answer/12917675),\nbut in general, the process is divided into two stages:\n\n1. **Prepare your Cloud project** ([inside Google Cloud Console](https://console.cloud.google.com/)): this includes enabling the BigQuery API for your project and giving permission to your Search Console service account.\n2. **Set export destination** ([inside Search Console](https://search.google.com/search-console/settings/bulk-data-export)): this includes providing your Google Cloud project ID, and choosing a dataset location. Note that only property owners can set up a bulk data export.\n\n\nOnce you submit the information to Search Console, it'll simulate an export. If the export succeeds, we'll inform all property owners via email and your\nongoing exports will start within 48 hours. If the export simulation fails, you'll receive an immediate alert on the issue detected; here's a list of\n[possible export errors](https://support.google.com/webmasters/answer/12919198).\n\nData available on bulk data exports\n-----------------------------------\n\n\nOnce the bulk data export is set up successfully, you can log in to your BigQuery account and start querying the data.\n\n\nYou can find detailed [table guidelines and references](https://support.google.com/webmasters/answer/12917991) in the help center;\nalso check the explanation on the difference between [aggregating\ndata by property vs by page](https://support.google.com/webmasters/answer/7576553#urlorsite), as it'll help you understand the data better. Here is a quick description of the three tables that will be available to you:\n\n- `searchdata_site_impression`: This table contains data aggregated by property, including query, country, type, and device.\n- `searchdata_url_impression`: This table contains data aggregated by URL, which enables a more detailed view of queries and rich results.\n- `ExportLog`: This table is a record of what data was saved for that day. Failed exports are not recorded here.\n\n\nIf you need a little help to start querying the data, check the [sample queries](https://support.google.com/webmasters/answer/12917174)\npublished in the help center, they can be handy to get up and running. Here's one example, where we pull the total query by URL combinations for pages with at least\n100 FAQ rich result impressions over the last two weeks. \n\n```carbon\nSELECT\n url,\n query,\n sum(impressions) AS impressions,\n sum(clicks) AS clicks,\n sum(clicks) / sum(impressions) AS ctr,\n /* Added one below, because position is zero-based */\n ((sum(sum_position) / sum(impressions)) + 1.0) AS avg_position\n/* Remember to update the table name to your table */\nFROM searchconsole.searchdata_url_impression\nWHERE search_type = 'WEB'\n AND is_tpf_faq = true\n AND data_date BETWEEN DATE_SUB(CURRENT_DATE(), INTERVAL 14 day) AND CURRENT_DATE()\n AND clicks \u003e 100\nGROUP BY 1,2\nORDER BY clicks\nLIMIT 1000\n```\n\n\nWe hope that by making more Google Search data available, website owners and SEOs will be able to find more content opportunities by analyzing long tail queries.\nIt'll also make it easier to join page-level information from internal systems to Search results in a more effective and comprehensive way.\n\n\nAnd as always, if you have any questions or concerns, please reach out to us via the [Google\nSearch Central Community](https://support.google.com/webmasters/threads?thread_filter=(category:search_console)) or on [Twitter](https://twitter.com/googlesearchc).\n\nPosted by [Daniel Waisberg](https://www.danielwaisberg.com), Gaal Yahas, and Haim Daniel, Search Console team"]]