robots.txt 설정 가이드

2024. 8. 8. 12:49정보

반응형

Robots.txt 파일은 웹사이트의 특정 부분에 대한 검색 엔진 크롤러의 접근을 제어하는 중요한 도구입니다. 이 파일을 통해 웹사이트 소유자는 검색 엔진이 어떤 페이지를 크롤링할 수 있는지, 어떤 페이지를 크롤링할 수 없는지 지정할 수 있습니다. 이번 글에서는 robots.txt 파일의 기본 개념, 작성 방법, 최적화 팁 등을 자세히 알아보겠습니다.

robots.txt 파일의 기본 개념

robots.txt란 무엇인가

Robots.txt는 웹사이트 루트 디렉터리에 위치한 텍스트 파일로, 검색 엔진 크롤러에게 사이트 내에서 접근 가능한 영역과 접근이 제한된 영역을 알려줍니다. 이를 통해 사이트의 특정 페이지나 디렉터리가 검색 엔진에 의해 인덱싱되지 않도록 할 수 있습니다.

robots.txt 파일의 역할

  1. 크롤링 제어: 검색 엔진 크롤러가 특정 페이지나 디렉터리를 크롤링하지 않도록 제어합니다.
  2. 서버 부하 감소: 빈번한 크롤링으로 인한 서버 부하를 줄일 수 있습니다.
  3. 프라이버시 보호: 비공개 페이지나 디렉터리를 검색 엔진에 노출되지 않도록 합니다.

robots.txt 파일 작성 방법

기본 형식

Robots.txt 파일은 다음과 같은 기본 형식을 가집니다:

User-agent: [크롤러 이름]
Disallow: [크롤링을 막을 페이지 또는 디렉터리]

예제

  1. 모든 크롤러에 대해 모든 페이지 크롤링 허용
User-agent: *
Disallow:
  1. 모든 크롤러에 대해 특정 디렉터리 크롤링 차단
User-agent: *
Disallow: /private/
  1. 특정 크롤러에 대해 특정 페이지 크롤링 차단
User-agent: Googlebot
Disallow: /no-google/
  1. 특정 파일 타입 크롤링 차단
User-agent: *
Disallow: /*.pdf$

중요한 규칙

  1. User-agent: 크롤러의 이름을 지정합니다. *는 모든 크롤러를 의미합니다.
  2. Disallow: 크롤링을 막을 페이지나 디렉터리를 지정합니다. 루트 디렉터리를 기준으로 경로를 작성합니다.
  3. Allow: 특정 디렉터리 내에서 크롤링을 허용할 페이지를 지정할 수 있습니다.

주의사항

  • 파일명 대소문자 구분: Disallow 경로에서 파일명과 디렉터리명을 정확히 지정해야 합니다.
  • 공백 주의: 각 지시문 사이에 공백을 포함하지 않도록 합니다.
  • 주석 사용: #을 사용하여 주석을 추가할 수 있습니다.

robots.txt 파일 최적화 팁

사이트맵 위치 지정

사이트맵을 지정하면 검색 엔진 크롤러가 웹사이트의 구조를 더 잘 이해할 수 있습니다. robots.txt 파일에 사이트맵의 위치를 지정하는 방법은 다음과 같습니다:

Sitemap: http://www.example.com/sitemap.xml

주요 디렉터리와 파일 보호

비공개 정보나 중요한 디렉터리의 크롤링을 차단하여 보안을 강화할 수 있습니다. 예를 들어, 관리자 페이지나 내부 문서 등을 크롤링하지 못하게 설정할 수 있습니다.

User-agent: *
Disallow: /admin/
Disallow: /confidential/

특정 크롤러에 대한 설정

각 검색 엔진 크롤러에 대해 개별적으로 지시문을 설정할 수 있습니다. 이를 통해 특정 크롤러만 접근을 제한하거나 허용할 수 있습니다.

User-agent: Googlebot
Disallow: /no-google/

User-agent: Bingbot
Disallow: /no-bing/

크롤링 지연 설정

크롤링 지연 설정을 통해 검색 엔진 크롤러가 사이트를 크롤링하는 속도를 조절할 수 있습니다. 이를 통해 서버 부하를 줄일 수 있습니다.

User-agent: *
Crawl-delay: 10

테스트와 검증

robots.txt 파일을 작성한 후에는 Google Search Console 등의 도구를 사용하여 파일의 유효성을 검증하고, 설정이 올바르게 적용되었는지 확인해야 합니다.

  1. Google Search Console 사용: Google Search Console의 robots.txt 테스트 도구를 사용하여 파일을 테스트합니다.
  2. 브라우저에서 직접 확인: 웹사이트의 루트 디렉터리에서 robots.txt 파일을 직접 열어 내용이 정확한지 확인합니다.

robots.txt 파일의 한계와 대안

한계

  1. 권고사항: robots.txt 파일은 검색 엔진 크롤러에 대한 권고사항일 뿐, 강제력이 없습니다. 일부 크롤러는 이를 무시할 수 있습니다.
  2. 프라이버시 보호 한계: robots.txt 파일에 중요한 정보를 포함하지 않도록 주의해야 합니다. 모든 사용자가 파일의 내용을 확인할 수 있습니다.

대안

  1. 메타 태그: 페이지 내의 <meta> 태그를 사용하여 크롤링을 제어할 수 있습니다. 예를 들어, 특정 페이지에서 noindexnofollow 메타 태그를 사용할 수 있습니다.
  2. <meta name="robots" content="noindex, nofollow">
  3. .htaccess 파일: 아파치 서버에서는 .htaccess 파일을 사용하여 디렉터리 접근을 제어할 수 있습니다.
  4. <Files "confidential.html"> Order Allow,Deny Deny from all </Files>

결론

Robots.txt 파일은 검색 엔진 크롤러의 접근을 제어하는 중요한 도구입니다. 올바르게 설정된 robots.txt 파일은 사이트의 보안과 성능을 향상시키는 데 큰 도움이 됩니다. 이번 글에서 소개한 방법과 팁을 참고하여, 여러분의 웹사이트에 적합한 robots.txt 파일을 작성해 보세요.

반응형