[추천]구글 검색서비스의 목표와 구글의 웹마스터 가이드라인(검색엔진 최적화 가이드라인)

아래의 글은 기본적으로 구글에서 제공하는 것을 주제에 맞게 편집한 것입니다 . 제 개인의 글은 적지만 큰그림을 이해할 수 있도록 구조화하여 정리하였습니다.

검색엔진최적화를 위해 가장 기본이 되는 가이드라인이므로 꼭 참조하시기 바랍니다. Back to the basic!!

구글 검색서비스의 목표

구글 검색서비스의 목표는 사용자의 질의(query)에 가장 적절하고 쓸모있는 결과를 제시하는 것입니다.

 

구글의 검색 품질 향상을 위한 두가지 제안

구글은 검색의 품질 향상을 위하여 우수사례 및 스팸성 행동에 대한 명확한 웹 마스터 가이드라인을 명확하게 제공하고 있으며, 이를 준수하지 않는 악의적인 행위가 발견되면 사이트의 유명도에 관계없이 구글의 검색 결과에서 삭제 또는 강등 등의 조치를 가합니다. 스팸팀이 사이트에 수동 조치를 취하면 해당 사이트의 순위에 직접 영향을 미칠 수 있습니다. 구글은 이러한 작업을 투명하게 관리하며 웹마스터에게 알리기 위해 최선을 다합니다. 구글에서 직접 조치한 경우 웹마스터는 문제를 해결한 다음 재검토 요청을 제출할 수 있는데요, 구글은 표준에 기반한 웹마스터 피드백과 로봇배제표준(robots.txt), noindex 메타태그 등을 준수하여 웹마스터가 크롤을 하지 않도록 설정한 것은 검색결과에 보여주지 않습니다.

1. Google에서 사이트를 찾고 크롤링하고 색인을 생성하는 데 도움을 주는 우수사례

링크로 연결되어 있어 상당한 양의 내용이니 살펴보세요. 검색엔진최적화의 교과서에 해당하는 내용입니다. 교과서를 잘 이해해야 문제를 풀수 있으니까요 ?

참조 : 아래의 동영상은 한글자막을 지원합니다.

 

2. 웹마스터 가이드라인( https://support.google.com/webmasters/answer/35769?hl=ko )

        가.  일반 가이드라인

                     1) Google이 찾을 수 있는 페이지 만들기

  • 검색할 수 있는 다른 페이지의 링크에서 사이트의 모든 페이지가 연결될 수 있는지 확인합니다. 추천 링크에는 대상 페이지와 관련된 텍스트 또는 Alt 속성(이미지의 경우)이 포함되어야 합니다.
  • 사이트의 중요 페이지로 연결되는 링크가 포함된 사이트맵 파일을 제공합니다. 또한 중요 페이지에 대한 링크가 읽을 수 있는 목록으로 포함된 페이지를 제공합니다(사이트 색인 또는 사이트맵 페이지라고도 함).
  • 페이지에 있는 링크 개수를 적절한 수준(최대 몇천 개)으로 제한합니다.
  • 웹 서버가 If-Modified-Since HTTP 헤더를 제대로 지원하는지 확인합니다. 이 기능을 사용하면 웹 서버가 Google의 마지막 사이트 크롤링 작업 이후 콘텐츠가 변경되었는지를 Google에 알립니다. 이 기능을 지원하면 대역폭과 오버헤드를 줄일 수 있습니다.
  • 웹 서버에서 robots.txt 파일을 사용하여 검색결과 페이지와 같은 무한 공간에 대한 크롤링을 방지함으로써 크롤링 예산을 관리합니다. robots.txt 파일을 최신 상태로 유지합니다. robots.txt 파일을 사용하여 크롤링 관리하는 방법에 대해 자세히 알아보세요robots.txt 테스트 도구를 사용하여 robots.txt 파일의 크롤링 범위 및 구문을 테스트하세요.

Google이 내 사이트를 찾을 수 있게 하는 방법:

사이트맵을 제출하는 도구에 관해서는 아래의 저의 다른 게시글들을 참조하세요.

워드프레스로 만들지 않은 웹사이트는 아래의 게시글을 참조하세요.

Self 검색엔진최적화 도구 #6.Robots.txt를 위한 tool(도구)/#7.Sitemap.xml을 위한 tool(도구)

워드프레스로 만든 웹사이트는 아래의 게시글을 참조하세요.

워드프레스 사이트맵 제출 플러그인(Google XML Sitemaps 설치, 활성화하기, 웹마스터 도구를 이용하여 구글 검색에 노출되게 하기)

  • 해당되는 모든 사이트(=다른 검색엔진(네이버, 다음, 얀덱스, Bing 등에도) 에 본인의 사이트가 완성되었고 웹에 올라왔음을 알립니다.
  • 얀덱스 검색엔진최적화의 필요성과 방법에 관해서는 아래의 저희의 다른 게시글을 참조하세요.

https://www.seenbuy.kr/yandex-seo-or-optimization-beyond-google/

 

                     2) Google이 이해할 수 있는 페이지 만들기

  • 유용하고 정보가 풍부한 사이트를 만들고, 페이지에서는 분명하고 정확하게 사이트 콘텐츠를 설명합니다.
  • 내 페이지를 찾기 위해 사용자들이 어떤 단어를 입력할지 생각해 보고 그 검색어가 실제로 사이트에 사용되도록 합니다.
  • <title> 요소 및 Alt 속성이 구체적이고 정확한지 확인합니다.
  • 사이트에 명확한 개념의 페이지 계층구조가 있도록 디자인합니다.
  • 이미지동영상구조화된 데이터에 대한 Google의 권장사항을 준수합니다.
  • 콘텐츠 관리 시스템(예: Wix, WordPress)을 사용하는 경우, 해당 시스템에서 검색 엔진이 크롤링할 수 있는 페이지와 링크를 생성하는지 확인합니다.
  • Google이 사이트의 콘텐츠를 완전히 이해할 수 있도록 페이지 렌더링에 중대한 영향을 미치는 모든 사이트 애셋(예: 페이지 이해에 영향을 미치는 CSS와 자바스크립트 파일)에 대한 크롤링을 허용합니다. Google 색인 시스템은 이미지, CSS, 자바스크립트 파일을 포함하는 웹페이지를 사용자에게 표시되는 대로 렌더링합니다. Googlebot이 크롤링할 수 없는 페이지의 에셋을 확인하고 robots.txt 파일에 포함된 명령어를 디버깅하려면 Search Console의 차단된 리소스 보고서와 Fetch as Google 및 robots.txt 테스터 도구를 사용하세요.
  • 검색 크롤러가 사이트를 통해 경로를 추적하는 세션 ID 또는 URL 매개변수 없이도 사이트를 크롤링할 수 있도록 허용합니다. 세션 ID나 경로 추적 인수를 사용하는 기술은 개별적인 사용자 동작을 추적할 때는 유용하지만, 봇의 액세스 패턴 면에서는 전혀 그렇지 않습니다. 이러한 기술을 사용할 경우 크롤러가 모양은 다르지만 실제로 같은 페이지로 연결되는 URL을 삭제하지 못하므로 사이트에서 색인 생성을 온전히 마무리하지 못할 수도 있습니다.
  • 사이트의 중요 콘텐츠가 기본적으로 표시될 수 있도록 합니다. Google은 탭이나 확장 섹션과 같은 탐색 요소 내부에 숨겨진 HTML 콘텐츠를 크롤링할 수 있습니다. 하지만 이러한 콘텐츠는 사용자가 액세스할 가능성이 적으므로 가장 중요한 정보는 기본 페이지 보기에 표시해야 합니다.
  • 페이지에 있는 광고 링크가 검색 엔진 순위에 영향을 미치지 않도록 적절한 조치를 취해야 합니다. 예를 들어 robots.txt 또는 rel="nofollow"를 사용하여 크롤러가 광고 링크를 추적하지 않도록 하세요.

                     3)  방문자가 사용하는 페이지 만들기

  • 이미지가 아닌 텍스트를 사용하여 중요한 이름이나 콘텐츠, 링크를 표시합니다. 텍스트 콘텐츠 대신 이미지를 사용해야 하는 경우 Alt 속성을 사용하여 몇 개의 단어로 된 설명 텍스트를 포함하시기 바랍니다.
  • 모든 링크가 라이브 웹페이지로 연결되는지 확인합니다. 유효한 HTML을 사용하세요.
  • 페이지 로드 시간을 최적화합니다. 특히 인터넷 연결 속도가 느린 사용자의 경우, 사이트 속도가 빠르면 사용자의 만족도가 높아지고 전체적인 웹 품질이 향상됩니다. Google에서는 PageSpeed Insights나 Webpagetest.org와 같은 도구를 사용하여 페이지의 성능을 테스트해 볼 것을 권장합니다.
  • 데스크톱, 태블릿, 스마트폰 등 모든 기기 유형과 크기에 맞게 사이트를 디자인합니다. 휴대기기 친화성 테스트 도구를 사용하여 페이지가 휴대기기에서 제대로 작동하는지 테스트하고 수정이 필요한 부분에 대한 피드백을 받습니다.
  • 사이트가 여러 브라우저에서 제대로 표시되는지 확인합니다.
  • 가능한 경우 HTTPS로 사이트를 안전하게 연결합니다. 웹에서 통신할 때 사용자와 웹사이트 간의 상호작용을 암호화하는 것이 좋습니다.
  • 스크린 리더로 사용성을 테스트 하는 등 페이지가 시각 장애가 있는 사용자에게 유용한지 확인합니다.

        나. 다른 가이드라인

다음 가이드라인을 잘 따를 경우, Google이 해당 사이트를 찾아 색인에 포함시키고 순위를 지정하는 데 도움이 됩니다. 해당 가이드라인의 제안사항을 따르지 않더라도 ‘품질 가이드라인’ 섹션을 자세히 읽어보시기 바랍니다. 이 섹션에는 Google 색인에서 사이트가 완전히 삭제되거나 알고리즘 방식 또는 직접 설정에 의해 스팸 사이트로 분류되는 결과를 초래할 수 있는 부정 행위에 대해서 간략히 설명되어 있습니다. 스팸으로 분류된 사이트는 Google.co.kr 또는 Google 파트너 사이트의 검색결과에 더 이상 나타나지 않습니다.

                     1) 디자인 및 콘텐츠 가이드라인

    • 디렉토리와 텍스트 링크 구조가 명확한 사이트를 만듭니다. 모든 페이지는 하나 이상의 정적 텍스트 링크를 통해 연결되어 있어야 합니다.
    • 사이트의 주요 페이지로 연결되는 링크가 포함된 사이트맵을 사용자에게 제공합니다. 사이트맵에 너무 많은 링크가 들어 있는 경우 사이트맵을 여러 개의 페이지로 나눌 수 있습니다.
    • 한 페이지의 링크 수를 적절하게 유지합니다.
    • 유용하고 정보가 풍부한 사이트를 만들고 분명하고 정확하게 사이트 콘텐츠를 설명하는 페이지를 작성합니다.
    • 자신의 페이지를 찾기 위해 사용자들이 어떤 단어를 입력할지 생각해 보고 그 검색어가 실제로 사이트에서 사용되고 있는지 확인합니다.
    • 중요한 이름, 콘텐츠 또는 링크를 표시할 때는 이미지 대신 텍스트를 사용합니다. Google 크롤러는 이미지에 포함된 텍스트를 인식하지 않기 때문입니다. 텍스트 콘텐츠 대신 이미지를 사용해야 하는 경우 ‘ALT’ 속성을 사용하여 몇 개의 단어로 된 설명 텍스트를 포함하시기 바랍니다.
    • <제목> 요소와 ALT 속성이 정확하며 내용을 제대로 설명하고 있는지 확인합니다.
    • 깨진 링크가 있는지 확인하고 HTML을 수정합니다.
    • 동적 페이지(예: ‘?’ 문자가 포함된 URL)를 사용하는 경우, 정적인 페이지와 동적인 페이지를 모두 크롤링하지 않는 검색엔진 스파이더도 있음에 유의해야 합니다. 매개변수의 경우 길이는 짧게, 개수는 적게 유지하면 도움이 됩니다.

                     2)  기술 가이드라인

    • 대부분의 검색엔진 스파이더가 Lynx와 매우 유사한 방식으로 사이트를 확인하므로 Lynx와 같은 텍스트 브라우저를 사용하여 사이트를 검토하세요. 자바스크립트, 쿠키, 세션 ID, 프레임, DHTML 또는 플래시 같은 고급 기능으로 인해 텍스트 브라우저에 전체 사이트가 표시되지 않으면 검색엔진 스파이더 역시 해당 사이트를 제대로 크롤링하지 못할 수도 있습니다.
    • 세션 ID나 사이트의 경로를 추적하는 인수 없이도 검색 봇이 사이트를 크롤링할 수 있도록 허용합니다. 세션 ID나 경로 추적 인수를 사용하는 기술은 개별적인 사용자 동작을 추적할 때는 유용하지만, 봇의 액세스 패턴 면에서는 전혀 그렇지 않습니다. 이러한 기술을 사용할 경우 봇은 모양은 다르지만 실제로 같은 페이지로 연결되는 URL을 삭제하지 못하므로 사이트가 색인에 완전히 등록되지 않을 수도 있습니다.
    • 웹서버가 If-Modified-Since HTTP 헤더를 지원하는지 확인합니다. 이 기능을 사용하면 웹서버에서 가장 최근 크롤링 이후 사이트 콘텐츠가 변경되었는지 여부를 자동적으로 Google에 전달합니다. 이렇게 되면 낭비되는 전송용량과 전반적인 비용을 절약하실 수 있습니다.
    • 웹서버에서 robots.txt 파일을 사용합니다. 이 파일은 크롤링할 수 있는 디렉토리와 할 수 없는 디렉토리를 크롤러에게 알려줍니다. 실수로 Googlebot 크롤러를 차단하지 않도록 최신 사이트 정보로 파일을 업데이트하세요. 크롤러가 사이트를 방문할 때 지시사항을 전달하는 방법을 알아보려면 http://code.google.com/web/controlcrawlindex/docs/faq.html을 방문하세요. robots.txt 파일을 올바르게 사용하고 있는지 테스트하려면 Google 웹마스터 도구에 있는 robots.txt 분석 도구를 사용하세요.
    • 광고가 검색엔진 순위에 영향을 미치지 않도록 적절한 조치를 취해야 합니다. 예를 들어 Google의 애드센스 광고와 DoubleClick 링크는 robots.txt 파일에서 크롤링하지 못하도록 차단됩니다.
    • 회사에서 콘텐츠 관리 시스템을 구입하는 경우 해당 시스템에서 검색엔진이 크롤링할 수 있는 페이지와 링크를 생성하는지 확인합니다.
    • 검색결과 페이지나 자동 생성되는 페이지 등 검색엔진을 통해 들어오는 방문자에게 그다지 도움이 되지 않는 내용은 robots.txt를 사용하여 크롤링을 차단하는 것이 좋습니다.
  • 사이트의 성능을 모니터링하고 로드 시간을 최적화합니다. Google의 목표는 가장 관련성 높은 결과를 제공하고 사용자의 만족도를 향상시키는 것입니다. 특히 인터넷 연결 속도가 느린 사용자의 경우, 사이트 속도가 빠를수록 사용자의 만족도가 높아지고 웹의 전체 품질이 향상됩니다. Google은 웹마스터가 사이트를 개선하면 웹의 전반적인 속도가 향상되리라고 기대합니다.모든 웹마스터는 Page SpeedYSlowWebPagetest 또는 기타 도구를 사용하여 사이트 성능을 정기적으로 모니터링하는 것이 좋습니다. 자세한 정보, 도구 및 리소스를 보려면 더욱 빠른 웹 만들기를 참조하시기 바랍니다. 또한 웹마스터 도구의 사이트 성능 도구는 사용자들이 내 웹사이트를 사용할 때 사이트 속도가 어떠한지 보여줍니다.

                     3) 품질 가이드라인

품질 가이드라인은 스팸에서 가장 일반적으로 사용되는 현혹 행위나 조작 행위에 대한 설명을 담고 있습니다. 그러나 가이드라인에 나와 있지 않더라도 악의적인 행위에 대해 Google에서 대응할 수 있습니다. 이 페이지에 특정 부정 행위가 명시되지 않았다고 해서 Google이 이를 승인하는 것은 아닙니다. 품질 가이드라인에 속한 기본 원칙을 준수하기 위해 노력하다 보면 사용자에게 보다 만족스러운 서비스를 제공하게 될 것이므로 결국 악의적인 방법을 사용하는 사이트에 비해 게재 순위도 높아지게 됩니다.

Google의 품질 가이드라인을 악용하는 것으로 판단되는 사이트가 있으면 스팸 신고를 하여 알려주시기 바랍니다. Google은 스팸 퇴치를 위해 매번 직접 개입하기보다는 총체적이고 자동화된 방법으로 문제를 해결해 나가고자 합니다. 모든 신고에 대해 직접 조치를 취하지는 않지만 스팸 신고는 사용자에게 끼치는 영향의 경중에 따라 우선 순위대로 신고를 조사하며, 일부 경우 Google 검색결과에서 스팸ㅅ 사이트가 삭제될 수도 있습니다. 그러나 모든 직접 조치가 삭제로 이어지는 것은 아닙니다. 일부 경우, 신고된 사이트에 대해 직접 조치를 취하더라도 효과가 분명하지 않을 수 있습니다.

품질 가이드라인 – 기본 원칙

    • 검색엔진이 아닌 사용자를 위한 페이지를 만듭니다.
    • 사용자를 속이지 마세요.
    • 검색엔진 순위를 높이기 위해 속임수를 사용하지 마세요. 운영자와 경쟁 관계에 있는 웹사이트 운영자 또는 Google 직원에게 자신의 행동을 떳떳하게 밝힐 수 있는지 여부가 좋은 기준이 됩니다. “사용자에게 도움이 될까? 검색엔진이 없어도 이 행동을 하게 될까?”하고 스스로에게 물어보는 것도 좋은 방법입니다.
    • 어떻게 하면 본인의 웹사이트를 고유하고 가치 있게, 더 매력적으로 보이게 만들 수 있을지 생각해 봅니다. 전문 분야에서 다른 경쟁자와 차별화되도록 해야 합니다.

품질 가이드라인 – 세부사항

다음 기술은 사용하지 않아야 합니다.

    • 피싱 또는 바이러스, 트로이 목마, 기타 악성 소프트웨어 설치 등의 악의적 행위가 이루어지는 페이지 생성

다음과 같은 사례를 활용하세요.

    • 사이트의 해킹 여부를 모니터링하고 해킹된 콘텐츠를 발견하는 즉시 삭제

사이트가 하나 이상의 가이드라인을 위반할 경우 Google에서 이에 대해 직접 조치를 취할 수 있습니다. 문제를 해결하고 나면 사이트에 대한 재검토 요청을 제출할 수 있습니다.

 

참고자료 : 1. 구글 검색서비스의 원칙에 대해 알려드립니다