목차
요약

이 가이드는 크롤링, 색인, 보안, 사이트 구조, Core Web Vitals에 영향을 미치는 수정 사항을 우선시하여 실용적인 기술 SEO 감사를 실행하는 방법을 설명합니다. 소규모 사이트 소유자가 우선순위가 낮은 감사 도구 경고에 시간을 낭비하는 대신 영향력이 큰 문제에 먼저 집중할 수 있도록 도와줍니다.

summary img

 

기술적 SEO 감사란 무엇인가요?

기술적 SEO 감사는 웹사이트의 모든 기술적 측면을 분석하여 검색 엔진(예: Google)이 사이트와 모든 페이지를 순위에 올릴 수 있도록 하는 과정입니다.

기술적 SEO 감사를 수행할 때 웹사이트가 검색 엔진에 최적화되어 있는지 확인합니다.

대부분의 기술적 SEO 감사는 200개의 문제 목록과 명확한 방향성 없이 끝납니다. 가장 쉬운 것만 고치고 나머지는 무시한 채, 순위가 왜 움직이지 않는지 궁금해합니다.

문제는 감사가 아니라 순서입니다.

이 가이드는 하나의 원칙을 기반으로 합니다: 심각도가 순서를 결정합니다. 무엇을 확인해야 하는지, 무엇을 먼저 수정해야 하는지, 그리고 (중요하게도) 무엇을 안전하게 무시해도 되는지 배우게 됩니다.

범위 참고: 이 가이드는 500페이지 미만의 사이트, 한두 명이 관리하는 사이트, 무료 또는 프리미엄 도구를 사용하는 사이트에 맞춰져 있습니다. 대규모 또는 자바스크립트가 많은 사이트를 운영하는 경우 일부 권장 사항을 조정해야 합니다.

 

심각도 필터: 분류 모델

단일 도구를 실행하기 전에, 그 도구가 알려주는 내용을 읽는 방법을 이해하세요. 모든 감사 플래그가 동등한 것은 아니며, 동등하게 취급하는 것은 Google이 신경 쓰지 않는 것에 시간을 낭비하는 가장 빠른 방법입니다.

다음에 나오는 모든 섹션에서 이 3단계 모델을 사용하세요:

티어 카테고리 조치
티어 1 순위 차단 요소 즉시 수정: 이들은 가시성을 적극적으로 억제합니다
티어 2 크롤링 비효율성 이 스프린트에서 수정하세요: 하드 블로킹 없이 도달 범위를 제한합니다
티어 3 낮은 우선순위 플래그 예약 또는 무시: 소규모 사이트의 순위에 거의 영향을 미치지 않습니다

도구가 무언가를 플래그했는데 티어 1이나 티어 2에 넣을 수 없다면, 반증이 있을 때까지 티어 3에 속합니다.

 

사전 감사 설정: 도구 및 기준선

기술 SEO 감사에 필요한 도구에 대해 이야기해 봅시다.

이 감사에 대한 무료 스택:

사이트가 500페이지를 초과하면 Screaming Frog 크롤링을 위해 트래픽과 전환율이 가장 높은 URL을 우선시하세요. 한 번에 모든 것을 감사하려고 하지 마세요.

추천 문서: Google Search Console: 2026년을 위한 궁극의 가이드

 

도메인, DNS 및 보안 상태

이 감사 카테고리는 모든 경쟁자가 건너뛰는 부분입니다. 이 카테고리는 티어 1 — 이러한 문제가 흔하기 때문이 아니라, 존재할 경우 모든 하위 작업을 차단하기 때문입니다. 손상된 SSL 인증서나 도메인 수준에서 잘못 구성된 리디렉션은 단일 콘텐츠 조각이 평가되기도 전에 전체 사이트를 조용히 차단할 수 있습니다.

대부분의 사이트 소유자는 바로 키워드와 콘텐츠로 뛰어듭니다. 이 섹션은 그 기반이 되는 것들에 관한 것입니다.

다음 순서로 확인하세요:

 

1. 사이트가 HTTPS로 실행 중인가요?

Is your site running on HTTPS?웹사이트를 방문하면 브라우저와 서버가 지속적으로 정보를 교환합니다. HTTPS는 해당 연결의 보안 버전으로, 데이터를 암호화하여 가로챌 수 없게 만듭니다. HTTP(S 없음)는 더 오래되고 암호화되지 않은 버전입니다.

브라우저의 주소 표시줄을 보면 사이트가 어떤 것을 사용하는지 알 수 있습니다. 자물쇠 아이콘은 HTTPS가 활성화되어 있음을 의미합니다. "안전하지 않음" 경고는 그렇지 않음을 의미하며, Google과 방문자 모두 알아차릴 것입니다.

SEO에 중요한 이유: Google은 HTTPS를 순위 신호로 확인했습니다. 더 실질적으로는 Chrome과 같은 브라우저가 비보안 사이트에 대해 방문자에게 적극적으로 경고합니다. 사이트의 어떤 페이지라도 여전히 HTTP로 로드된다면, 다른 것보다 먼저 수정하세요.

확인할 사항
 

홈페이지만 안전한 것으로는 충분하지 않습니다. 모든 페이지와 해당 페이지의 모든 자산(이미지, 폰트, 스크립트, 스타일시트)이 HTTPS를 통해 로드되어야 합니다. 보안 페이지가 안전하지 않은 자산을 로드할 때 혼합 콘텐츠 오류라고 합니다. 페이지는 기술적으로 HTTPS를 사용하지만 브라우저는 부분적으로 안전하지 않다고 표시합니다.

사용 자물쇠 없는 이유, URL을 붙여넣으면 어떤 자산이 안전하지 않게 로드되고 있는지, 그리고 그 출처가 어디인지 정확히 알려줍니다.

 

2. 도메인 주소가 일정한가요?

귀하의 웹사이트는 기술적으로 www.yourdomain.com과 yourdomain.com(www 없이) 두 개의 다른 주소로 접근할 수 있습니다. 브라우저에게 이는 두 개의 별도 위치입니다. Google에게는 동일한 콘텐츠를 게시하는 두 개의 별도 웹사이트처럼 보일 수 있습니다.

이것을 www와 non-www 충돌, 그리고 소규모 사이트에서 가장 흔한 도메인 수준 문제 중 하나입니다.

수정은 간단합니다
 

www 또는 non-www 중 하나의 버전을 표준(공식) 주소로 선택하세요. 그런 다음 다른 버전에서 301 리디렉션을 설정하세요. 301 리디렉션은 브라우저와 검색 엔진에 "이 주소는 영구적으로 여기로 이동했습니다. 이 링크를 따라오고 다시 돌아오지 마세요."라고 알리는 영구적인 지시입니다.

설정이 완료되면, 두 버전 중 어느 것을 입력하든 같은 곳으로 이동하며, Google은 사이트를 두 개의 중복이 아닌 하나의 통합된 개체로 취급합니다.

확인 방법: 도메인의 두 버전을 브라우저에 입력하고 주소 표시줄에서 어떤 일이 일어나는지 확인하세요. 하나가 다른 하나로 깔끔하게 리디렉션되면 괜찮습니다. 둘 다 독립적으로 로드되면(동일한 콘텐츠를 표시) 중복 콘텐츠 문제를 해결해야 합니다. 또한 사용할 수 있습니다 redirect-checker.org 리디렉션이 진짜 301이고 더 약한 임시 리디렉션이 아닌지 확인하기 위해.

3. 스테이징 또는 테스트 사이트가 Google에 노출되고 있나요?

개발자가 웹사이트를 만들거나 업데이트할 때, 보통 먼저 별도 버전의 사이트에서 작업합니다. 주소는 보통 staging.yourdomain.com이나 dev.yourdomain.com 같은 형태입니다. 이를 스테이징 환경 또는 테스트 서브도메인. 대중에게 보이지 않도록 되어 있습니다.

문제점: 아무도 Google에 들어오지 말라고 명시적으로 말하지 않으면, Googlebot이 그것을 찾아 크롤링할 것입니다. 이제 사이트의 두 버전(라이브 버전과 스테이징 버전)이 동일한 콘텐츠를 가지게 됩니다. 이는 색인 생성을 혼란스럽게 하고 검색 결과에 절대 나타나서는 안 되는 페이지에 크롤링 예산을 낭비합니다.

수정 사항
 

스테이징 및 테스트 서브도메인은 robots.txt 지시문을 사용하여 크롤러로부터 차단하거나, 더 나은 방법으로는 암호로 보호하여 팀만 접근할 수 있도록 해야 합니다. 스테이징 환경이 노출되었는지 확실하지 않다면, 브라우저에 staging.yourdomain.com(및 dev., test., beta.와 같은 일반적인 변형)을 직접 입력해 보세요. 암호 프롬프트 없이 로드된다면 공개적으로 접근 가능한 것입니다.

 

4. SSL 인증서가 유효하고 최신인가요?

SSL 인증서는 HTTPS가 작동하도록 만드는 요소입니다. 서버에 설치된 작은 디지털 파일로, 사이트가 주장하는 사이트임을 확인하고 암호화된 연결을 가능하게 합니다. SSL 인증서는 만료되며, 만약 기한이 지나면 즉각적인 결과가 발생합니다.

SSL 인증서가 만료되면 브라우저는 방문자에게 전체 화면 경고를 표시합니다: "연결이 비공개로 설정되어 있지 않습니다." 대부분의 사람들은 즉시 떠납니다. 유효하지 않은 SSL 인증서는 사용자를 차단하고, 신뢰를 손상시키며, 브라우저 경고를 생성하고, 크롤링/페이지 경험에 해를 끼칠 수 있으며 자물쇠 아이콘이 사라집니다.

An SSL certificate is what makes HTTPS work. It's a small digital file installed on your server that verifies your site is who it claims to be and enables the encrypted connection

5. 도메인의 리디렉션 경로에 불필요한 우회가 있나요?

리디렉션은 방문자(또는 검색 엔진 봇)를 한 URL에서 다른 URL로 보내는 명령입니다. 하나의 리디렉션은 정상적입니다. 예를 들어 http://를 https://로, 또는 www를 non-www로 리디렉션하는 경우입니다. 문제는 리디렉션이 서로 겹쳐 쌓일 때 시작됩니다.

리디렉션 체인 하나의 리디렉션이 최종 목적지에 도달하기 전에 다른 리디렉션으로 이어질 때 발생합니다. 예를 들어: 방문자가 A 페이지로 이동하면 B 페이지로 리디렉션되고, 다시 C 페이지로 리디렉션되는데, C 페이지가 실제 페이지입니다. 추가 홉이 있을 때마다 로딩 시간이 늘어나고 Google 크롤러가 최종 목적지에 도달하기 전에 포기할 가능성이 높아집니다. 이러한 체인은 사이트 이전, 도메인 변경, 또는 완전히 정리되지 않은 HTTPS 업그레이드 후에 조용히 쌓이는 경우가 많습니다.

리디렉션 루프 더 심각합니다. 리디렉션이 자기 자신을 다시 리디렉션하는 페이지로 돌아가는 경우입니다: 페이지 A가 페이지 B로 리디렉션되고, 페이지 B가 다시 페이지 A로 리디렉션됩니다. 사용자나 크롤러 모두 어디에도 도달할 수 없습니다. 브라우저는 오류를 표시하고 Google은 두 페이지 모두를 색인할 수 없습니다. 이는 1순위 수정 사항입니다.

확인 방법
 

사용 redirect-checker.org: 도메인을 입력하면 리디렉션 경로의 모든 단계를 매핑해 줍니다. 깔끔한 단일 단계 리디렉션을 찾으세요. 두 단계 이상인 것은 첫 번째 주소가 최종 목적지로 직접 리디렉션되도록 통합해야 합니다.

 

크롤링 가능성 감사

Googlebot이 페이지에 접근할 수 없으면 해당 페이지는 순위에 오르지 않습니다. Google이 검색 결과에 콘텐츠를 고려하기 전에, 콘텐츠를 찾고 읽을 수 있어야 합니다. 크롤링 가능성은 이를 방해하는 장애물을 제거하는 것에 관한 것이며, 대부분은 찾기 전까지는 보이지 않습니다.

 

1. robots.txt 파일 — 게이트키퍼

모든 웹사이트에는 yourdomain.com/robots.txt 파일이 있거나 있어야 합니다. 이 파일은 검색 엔진 봇에게 크롤링해도 되는 페이지와 건너뛸 페이지를 알려주는 일반 텍스트 파일입니다. 브라우저에 해당 URL을 직접 입력하여 확인하세요.

여기서 가장 해로운 실수는 특이한 것이 아니라 우발적인 것입니다. 가장 흔한 세 가지:

  • 전체 사이트 차단 — 한 줄(Disallow: /)은 모든 크롤러를 완전히 차단합니다. 개발자가 빌드 중에 설정하고 출시 전에 제거하는 것을 잊어버릴 때 발생할 수 있습니다.
  • CSS 또는 Java Script 파일 차단 — Google은 페이지의 스타일과 스크립트를 로드하여 페이지가 어떻게 보이고 동작하는지 이해해야 합니다. 이를 차단하면 Google이 페이지를 잘못 렌더링하거나 전혀 렌더링하지 않을 수 있습니다.
  • 기존 규칙 유지 — 개발 중에는 합리적이었던 스테이징 환경 지침이 종종 실수로 프로덕션에 포함되어, 색인되어야 할 페이지에 대한 접근을 조용히 제한합니다.

이 중 하나라도 발견되면 Tier 1으로 표시하고 진행하기 전에 수정하세요.

robot.txt에 대해 더 알아보려면 Google Search Central의 이 동영상을 시청하세요:

 

2. XML 사이트맵 — 로드맵

사이트맵은 Google이 색인을 생성하기 원하는 사이트의 모든 페이지를 나열한 파일입니다. 링크를 따라 모든 것을 발견하게 하는 대신 Google에 사이트의 구조화된 지도를 건네주는 것으로 생각하세요.

 

확인하려면 Google Search Console → Sitemaps로 이동하세요. GSC는 제출된 URL 수와 실제로 색인된 URL 수를 보여줍니다. 두 숫자 사이에 큰 차이가 있다면 조사할 가치가 있는 신호입니다.

그곳에 있는 동안 세 가지 특정 문제를 찾아보세요:

  • 4xx 오류를 반환하는 페이지 — 사이트맵에 나열된 깨진 URL로, Google을 막다른 길로 안내합니다.
  • 사이트맵에 포함된 색인 금지 URL — 페이지가 동시에 "이것을 색인하세요"(사이트맵)와 "이것을 색인하지 마세요"(noindex 태그)일 수는 없습니다. 하나의 지시가 우선하며, 충돌은 크롤링 예산을 낭비합니다.
  • 중요한 페이지가 완전히 누락됨 — 핵심 페이지가 사이트맵에 없으면 Google이 여전히 찾을 수 있지만, 발견을 우연에 맡기는 것입니다.

A sitemap is a file that lists all the pages on your site you want Google to index.

 

3. 크롤링 예산 — 대규모에서만 관련 있음

크롤링 예산은 주어진 기간 내에 Google이 사이트에서 크롤링할 페이지 수를 의미합니다. 대부분의 소규모 사이트(500페이지 미만)의 경우 이는 우선 순위가 아닙니다. Google은 접근할 수 있는 모든 것을 크롤링할 것입니다.

사이트에서 자동으로 많은 수의 저가치 또는 거의 중복되는 URL을 생성할 때 관련이 있습니다. 일반적인 원인: 제품 페이지의 필터 및 정렬 조합, URL에 추가된 세션 ID, 또는 수백 개의 거의 동일한 페이지로 이어지는 페이지네이션입니다.

Screaming Frog 크롤링 결과 페이지 수가 실제 콘텐츠 수보다 훨씬 많다면, 모든 URL이 의도된 것이라고 가정하기 전에 URL 패턴을 조사하세요. 크롤링 예산을 소모하면서 순위에 전혀 기여하지 않는 수천 개의 URL을 생성하는 크롤 트랩이 있을 수 있습니다.

 

색인 감사

크롤링 가능성과 색인은 다른 문제입니다. 페이지가 크롤링 가능하지만 (종종 실수로) 색인에서 제외될 수 있습니다.

사이트: 연산자 확인

Google에서 site:yourdomain.com을 검색하세요. 결과 수가 대략적인 색인 수를 알려줍니다. 이 숫자가 실제 페이지 수와 크게 차이 나면 색인 문제를 나타냅니다.

노인덱스 감사

실수로 인한 noindex 태그는 가장 흔한 자충수 순위 차단 요인입니다. Screaming Frog를 실행하고 noindex 지시문을 반환하는 페이지를 필터링하세요. 순위를 기대하는 페이지와 교차 참조하세요. 홈페이지나 주요 랜딩 페이지에 noindex가 있으면 1티어 비상 상황입니다.

표준 태그 로직

캐노니컬 태그는 페이지 헤더에 있는 작은 코드 조각으로, Google에 '이 페이지의 공식 버전입니다'라고 알려줍니다. 동일한 콘텐츠가 여러 다른 URL(후행 슬래시 유무, 추적 매개변수 추가, HTTP 및 HTTPS 버전 모두)에서 접근될 수 있기 때문에 존재합니다. 캐노니컬 태그가 없으면 Google은 어떤 URL이 '진짜'인지 추측해야 하며, 때로는 잘못 추측합니다.

태그는 페이지 HTML에서 다음과 같이 보입니다:

<link rel="canonical" href="https://www.yourdomain.com/your-page/" />

올바른 사용법은 두 가지입니다:

  • 자체 참조 표준 — 페이지가 자신을 가리켜 기본 버전임을 확인합니다. 이는 대부분의 페이지에 대한 표준 설정이며, Google에 "이 URL이 올바르니 이것을 색인하세요."라고 알려줍니다.
  • 표준 URL 통합 — 중복되거나 거의 중복된 페이지가 선호 버전을 가리킵니다. 예를 들어, yourdomain.com/page?ref=email과 yourdomain.com/page가 동일한 콘텐츠를 보여준다면, 파라미터 URL은 깔끔한 버전을 가리키는 canonical을 가져야 합니다.

문제가 발생하는 지점은 표준 태그가 잘못된 위치를 가리킬 때입니다. 가장 해로운 세 가지 실수:

  • 404 페이지를 가리키는 표준 URL — Google에 이 페이지의 선호 버전이 존재하지 않는 버전이라고 알리고 있습니다.
  • 리디렉션을 가리키는 표준 URL — Google이 리디렉션을 따라가서 목적지를 확인하고, 사용자가 실제로 의도한 URL을 조정해야 합니다.
  • 표준 URL이 완전히 잘못된 페이지를 가리키고 있습니다 — 이는 마이그레이션이나 CMS 템플릿 오류 후에 발생할 수 있으며, Google에 순위를 올리려는 바로 그 페이지를 숨기라고 지시합니다.
 

확인하려면: Screaming Frog를 실행하고 Canonicals 보고서를 확인하세요. 각 페이지의 표준 URL을 보여주고 불일치, 누락된 태그, 200이 아닌 페이지를 가리키는 표준을 표시합니다. 표준 대상이 4xx 또는 3xx를 반환하는 모든 페이지는 1티어입니다.

매개변수와 후행 슬래시 중복

/page, /page/, /page?ref=email은 Googlebot이 모두 별도의 URL로 처리할 수 있습니다. 서버나 CMS가 이를 일관되게 처리하는지 확인하거나, canonical 태그를 사용하여 통합하세요.

 

페이지 내 기술 신호

이것들은 카피라이팅과는 별개로 Google이 페이지를 분석하고 표현하는 방식에 영향을 미치는 구조적 요소입니다.

 

제목 태그와 메타 설명

타이틀 태그는 SERP에서 잘리지 않도록 60자 이내로 유지해야 합니다. 메타 설명은 155자 이내로. Screaming Frog에서 Page Titles 보고서를 "too long" 또는 "missing."으로 표시된 항목으로 필터링하세요. 이것들이 순위 하락을 일으키지는 않지만, 잘린 타이틀은 클릭률을 낮춥니다.\

 

제목 계층 구조

각 페이지에는 정확히 하나의 H1이 있어야 합니다. 여러 개의 H1이 순위에 직접 해를 끼치지는 않지만, 불명확한 페이지 구조를 나타냅니다. 더 해로운 것은: H1이 없는 페이지, 또는 페이지의 주요 주제와 일치하지 않는 H1 텍스트입니다.

 

깨진 내부 링크

내부 404는 크롤링 예산을 낭비하고 링크 자산의 막다른 길을 만듭니다. Screaming Frog는 응답 코드 → 4xx에서 이를 표시합니다. 링크 대상을 업데이트하거나 끊어진 URL을 리디렉션하여 수정하세요.

 

이미지 대체 텍스트

대체 텍스트는 접근성 기능일 뿐만 아니라 크롤링 신호입니다. 대체 텍스트가 없는 이미지는 Googlebot의 텍스트 기반 파싱에 보이지 않습니다. Screaming Frog에서 이미지 보고서를 확인하여 콘텐츠 가치가 있는 이미지에 누락된 대체 속성이 있는지 확인하세요.

 

핵심 웹 바이탈 (2025 기준)

Core Web Vitals는 Google이 페이지가 실제로 사용될 때의 느낌을 측정하는 세 가지 지표입니다. 단순히 로드되는지 여부뿐만 아니라, 빠르게 로드되고, 신속하게 응답하며, 로드되는 동안 시각적으로 안정적으로 유지되는지를 측정합니다. 이는 Google이 페이지 품질을 평가하는 방식의 일부이며, Page Speed Insights와 Google Search Console에 직접 표시됩니다.

현재 세 가지 지표가 있습니다. 감사에서 FID(First Input Delay)를 참조하는 경우 해당 지표는 폐기하세요. FID는 2024년 3월 12일에 공식적으로 INP로 대체되었습니다.

 

INP: 사람들이 클릭할 때 페이지가 반응하나요?

INP는 상호작용 후 첫 페인트(Interaction to Next Paint)를 의미합니다. 사용자가 버튼을 클릭하거나, 메뉴를 열거나, 입력 필드에 타이핑하는 등 무언가를 한 후 페이지가 시각적으로 얼마나 빨리 반응하는지 측정합니다. 동작과 페이지 반응 사이에 눈에 띄는 지연이 있다면, 그것은 낮은 INP 점수입니다.

임계값:

  • 양호 = 200ms 미만
  • 개선 필요 = 200–500ms
  • 나쁨 = 500ms 초과

INP stands for Interaction to Next Paint

Source: 스크린샷: 다음 페인트까지의 상호작용 (INP)

소규모 사이트에서 가장 흔한 원인: 백그라운드에서 실행되는 너무 많은 자바스크립트, 브라우저의 주의를 끌기 위해 경쟁하는 타사 스크립트(채팅 위젯, 분석, 광고 태그), 느린 서버 응답.

 

LCP: 주요 콘텐츠가 빠르게 로드되나요?

LCP는 Largest Contentful Paint의 약자입니다. 페이지에서 가장 큰 가시 요소(보통 히어로 이미지, 큰 제목, 또는 주요 사진)가 완전히 로드되는 데 걸리는 시간을 측정합니다. 이는 Google이 "페이지가 얼마나 빨리 사용 가능하게 느껴지는가?"를 묻는 방식입니다.

임계값: 좋음 = 2.5초 미만

LCP stands for Largest Contentful PaintSource: 스크린샷: 최대 콘텐츠풀 페인트(LCP)

느린 LCP의 가장 일반적인 원인: 압축되지 않은 히어로 이미지, 페이지 렌더링을 차단하는 CSS 또는 Java Script, 느린 호스팅 또는 서버 응답 시간입니다.

 

CLS: 페이지가 로드되는 동안 움직이지 않나요?

CLS는 누적 레이아웃 이동(Cumulative Layout Shift)을 의미합니다. 페이지가 로드될 때 시각적으로 얼마나 많이 흔들리는지 측정합니다. CLS 점수가 낮은 경험을 해보셨을 겁니다. 무언가를 클릭하려고 하는데, 마지막 순간에 이미지가 위에 로드되면서 모든 것을 아래로 밀어내고 잘못된 것을 클릭하게 만듭니다.

임계값: 좋음 = 0.1 미만

CLS stands for Cumulative Layout Shift.Source: 스크린샷: 누적 레이아웃 시프트(CLS)

가장 흔한 원인: 크기가 정의되지 않은 이미지(브라우저가 예약할 공간을 모름), 늦게 로드되어 콘텐츠를 밀어내는 광고나 임베드, 페이지가 이미 렌더링된 후에 교체되는 웹 폰트입니다.

 

세 가지 모두 확인하는 방법

이동 Page Speed Insights 가장 중요한 페이지를 한 번에 하나씩 입력하세요:

  • 홈페이지
  • 주요 제품 또는 서비스 페이지
  • 트래픽이 가장 많은 랜딩 페이지

결과가 로드되면 실험실 데이터(시뮬레이션 점수)를 지나서 필드 데이터 상단의 섹션입니다. 필드 데이터는 실제 방문자가 실제 기기에서 보여준 데이터를 반영하며, Google이 페이지를 평가할 때 실제로 사용하는 데이터입니다. 사이트에 필드 데이터를 생성할 만큼 충분한 트래픽이 없다면, 실험실 점수가 가장 좋은 대안입니다. 이를 확정적인 것이 아니라 방향성 있는 지표로 취급하세요.

GSC에는 또한 전용 Core Web Vitals 보고서(환경 아래)가 있어 URL을 상태별로 그룹화합니다.

  • 좋음
  • 개선 필요
  • 나쁨

그리고 어떤 페이지에서 어떤 특정 지표가 실패하는지 보여줍니다.

Google Page Speed로 감사를 수행할 때의 모습은 다음과 같습니다:

googlepagespead testing

성능 점수에 대한 더 자세한 내용도 볼 수 있습니다.

 

사이트 구조 및 내부 링크

링크 자산은 내부 링크를 통해 흐릅니다. 잘못된 곳에서 새거나 고이면, 다른 모든 것이 올바르더라도 순위가 올라야 할 페이지가 올라가지 않습니다.

 

크롤링 깊이 감사

홈페이지에서 세 번 이상 클릭해야 도달할 수 있는 중요한 페이지는 사실상 묻혀 있습니다. Screaming Frog에서 크롤링 깊이 열을 확인하세요. 깊이 4 이상의 페이지는 내비게이션에서 상위로 올리거나 권위 있는 페이지에서 링크를 걸어야 합니다.

 

고립된 페이지

고립 페이지는 내부 링크가 하나도 없는 페이지입니다. Googlebot이 사이트맵을 통해 찾을 수도 있지만, 내부 링크가 없으면 가치를 전달받지 못하고 중요도가 낮다고 인식됩니다. 사이트맵 URL을 Screaming Frog의 인링크 보고서와 교차 참조하세요.

콘텐츠가 많은 사이트 섹션에 브레드크럼 내비게이션을 추가하는 것은 고아 페이지 문제를 해결하고 사용자와 봇 모두에게 크롤링 경로를 명확히 하는 효율적인 방법입니다.

dynadot page for registering domains

리디렉션 체인 및 루프

이미 언급했듯이, 리디렉션 체인과 리디렉션 루프를 확인하여 모든 URL의 전체 리디렉션 경로를 확인하세요.

 

모바일 및 구조화된 데이터

모바일 사용성

Google은 2024년 7월에 모바일 우선 색인으로 전환을 완료했습니다. 모든 사이트는 이제 Googlebot Smartphone을 사용하여 크롤링되고 색인됩니다. Mobile Usability 보고서에서 오류를 확인하세요: 읽기 너무 작은 텍스트, 너무 가까운 클릭 가능 요소, 화면보다 넓은 콘텐츠. 여기에 오류가 있으면 티어 2 최소한.

 

구조화된 데이터

스키마 마크업은 리치 결과를 보장하지는 않지만, 콘텐츠를 기계가 읽을 수 있게 만듭니다. 대부분의 소규모 사이트에서 가장 가치가 높은 스키마 유형은 Article, FAQ, Breadcrumb, Local Business(위치 관련이 있는 경우)입니다. 다음을 사용하여 구현을 검증하세요. Google의 리치 결과 테스트.

google's rich results test screenshot

구조화된 데이터 오류는 티어 2로 플래그하세요. 구조화된 데이터 경고는 티어 3으로 플래그하세요. 이들은 리치 결과가 나타나는 것을 방해하지 않습니다.

 

수정 확인

대부분의 가이드는 "여기서 끝납니다." 바로 그 지점에서 여러분을 실망시킵니다.

모든 수정 사항은 다음 단계로 넘어가기 전에 확인 단계가 필요합니다.

수정 유형 검증 방법 타임라인
색인 생성 / noindex 제거됨 GSC URL 검사 → 색인 요청 며칠에서 몇 주
핵심 웹 바이탈 개선 Page Speed Insights 재실행 + GSC CWV 보고서 28일 필드 데이터 지연
크롤링 오류 해결됨 Screaming Frog 재크롤; 기준선과 비교 즉시
구조화된 데이터 추가됨 리치 결과 테스트 재실행 즉시 검증

Google은 일부 신호는 빠르게(URL 수준 색인) 재평가하고, 다른 신호는 느리게(CWV 필드 데이터는 실제 사용자 상호작용의 28일 롤링 윈도우를 반영) 재평가합니다.

 

매일 확인하지 말고 캘린더 알림을 설정하세요.

 

SEO 감사는 언제 수행해야 하나요?

가능한 한 자주 수행하는 것이 좋지만, 적어도 분기별로는 수행하는 것이 좋습니다. 웹사이트 순위가 하락하는 것을 발견하면, 예정되지 않았더라도 새로운 감사를 위한 좋은 신호입니다.

 

재감사 시기

기술 SEO 감사는 일회성 작업이 아닙니다. 전체 감사를 실행하세요:

  • 새로운 웹사이트를 시작할 때 — 트래픽이 쌓이기 전에 깨끗한 기준선을 설정하세요
  • 6개월마다 정기 유지보수로
  • 주요 사이트 마이그레이션 후 (새 CMS, 새 도메인, 새 URL 구조)
  • 순위가 크게 하락한 후 콘텐츠 변경으로 설명되지 않는
  • 새 사이트 섹션이나 템플릿을 추가한 후 새로운 크롤링 패턴을 도입할 수 있는

감사 사이에는 GSC의 Coverage 및 Core Web Vitals 보고서를 수동 모니터링 계층으로 열어 두세요.

 

감사 우선순위 체크리스트

각 섹션을 완료한 후에 사용하세요. 모든 항목은 위의 섹션에 매핑됩니다.

 

결론

기술 SEO 감사는 일회성 작업이 아닙니다—검색 결과에서 웹사이트가 경쟁력을 유지하도록 돕는 지속적인 프로세스입니다. 사이트의 기술적 측면을 정기적으로 검토함으로써 순위에 영향을 미치기 전에 문제를 식별하고 수정할 수 있습니다.

기술적 SEO는 퍼즐의 한 조각일 뿐이라는 점을 기억하세요. 성공의 기초를 마련하지만, 최고 순위를 달성하려면 여전히 양질의 콘텐츠와 강력한 백링크 프로필이 필요합니다.

기술 SEO는 크롤링 가능성, 색인 생성, 성능 및 사용자 경험을 지원하며, 강력한 콘텐츠와 결합될 때 검색 가시성을 향상시킬 수 있습니다. 위험을 완화하고 새로운 기회를 활용하기 위해 정기적인 감사(6-12개월마다)가 필수적입니다.

최신 트렌드를 따라잡고 뉴스레터 구독하기 최신 트렌드와 업계 통찰력을 위해.

 

자주 묻는 질문

 

크롤링 가능성 문제와 색인 생성 문제의 차이점은 무엇인가요?

크롤링 가능성은 Googlebot이 페이지에 접근하고 읽을 수 있는지 여부(네트워크 또는 robots 수준에서 차단됨)를 의미합니다. 색인화는 Google이 해당 페이지를 검색 색인에 포함하기로 선택했는지 여부를 의미합니다. 페이지는 크롤링 가능하지만 noindex 태그, 중복 콘텐츠 신호 또는 다른 곳을 가리키는 캐노니컬로 인해 색인에서 제외될 수 있습니다. 별도로 감사하세요: 크롤링 가능성 먼저, 그 다음 색인화.

 

리디렉션 체인이 실제로 순위에 영향을 미치나요?

Google은 301 리디렉션이 Page Rank를 잃지 않는다고 밝혔습니다. 리디렉션 체인의 실질적인 위험은 지연 시간(각 홉이 로드 시간을 추가함)과 Googlebot이 체인을 완전히 해결하기 전에 포기할 가능성이 증가한다는 점이며, 특히 느린 서버에서 그렇습니다. 각 홉이 '가치를 잃기' 때문이 아니라 크롤링 효율성 측정으로 체인을 단일 홉으로 줄이세요.

 

제 감사 도구가 200개 이상의 문제를 표시했어요. 실제로 어디서부터 시작해야 할까요?

이 가이드의 Tier 1 체크리스트부터 시작하세요: HTTPS 적용, SSL 유효성, 실수로 추가된 noindex 태그, 리디렉션 루프. 이 문제들은 현재 가시성을 적극적으로 억제할 가능성이 가장 높습니다. Tier 1 또는 Tier 2에 해당하지 않는 것은 해결될 때까지 무시하세요. 깨끗하고, 크롤링 가능하며, 색인 가능하고, 허용 가능한 Core Web Vitals를 갖춘 사이트가 해결되지 않은 차단 문제가 있는 기술적으로 완벽한 사이트보다 더 나은 성과를 냅니다.

 

기술 SEO 감사는 얼마나 자주 실행해야 하나요?

표준 유지보수로 6개월마다 실시합니다. 또한 사이트 마이그레이션, 주요 플랫폼 변경, 또는 설명할 수 없는 순위 하락 후에는 집중 감사를 추가로 실행하세요. 감사 사이에는 GSC의 Coverage 보고서와 Core Web Vitals 대시보드가 새로운 문제가 누적되기 전에 발견할 수 있는 충분한 수동 신호를 제공합니다.

공유
/
작성자
Natasa Vujovic
Marketing SpecialistNatasa is an SEO specialist and content writer at Dynadot, specializing in search optimization, keyword strategy, and domain industry trends. With a strong background in digital marketing, she helps domain investors, entrepreneurs, and businesses understand the critical intersection between SEO and domains. At Dynadot, she creates actionable guides on choosing SEO-friendly domain names, and leveraging new TLDs to increase online visibility.