Robots.txt 생성기

검색엔진 크롤러를 제어하는 robots.txt 파일을 생성합니다.

설정

robots.txt 미리보기

사용법: 생성된 파일을 웹사이트 루트 디렉토리에 robots.txt 이름으로 저장하세요.

Robots.txt 생성기란?

robots.txt는 웹사이트 루트 디렉토리에 위치하는 텍스트 파일로, 검색엔진 크롤러에게 사이트의 어떤 페이지를 크롤링해도 되는지 알려주는 역할을 합니다. 검색엔진 봇이 사이트에 처음 방문할 때 가장 먼저 확인하는 파일이며, SEO 전략의 핵심 구성 요소입니다. 이 도구를 사용하면 복잡한 문법을 직접 작성하지 않고도 GUI 방식으로 손쉽게 robots.txt 파일을 생성할 수 있습니다.

무엇을 할 수 있나요?

  • 프리셋 제공: 모두 허용, 모두 차단, AI 크롤러 차단, 표준 설정 등 자주 사용하는 구성을 한 번에 적용
  • User-agent별 규칙 관리: Googlebot, Bingbot, GPTBot 등 개별 크롤러에 맞는 규칙 설정
  • Allow/Disallow 규칙을 직관적인 UI로 추가 및 삭제
  • Sitemap URL, Crawl-delay, Host 지시어 지원
  • 실시간 미리보기와 복사/다운로드 기능

사용 가이드

  1. 프리셋을 선택하거나 커스텀 모드에서 직접 규칙을 구성합니다.
  2. User-agent 태그를 클릭하거나 직접 입력하여 대상 크롤러를 지정합니다.
  3. Allow 또는 Disallow를 선택한 뒤 경로를 입력하고 추가 버튼을 클릭합니다.
  4. 필요하면 Sitemap URL, Crawl-delay, Host 정보를 입력합니다.
  5. 생성하기 버튼을 클릭하면 우측 미리보기에 결과가 표시됩니다.
  6. 복사 또는 다운로드 버튼으로 파일을 받아 웹사이트 루트에 업로드합니다.

추천 활용법

  • 관리자 페이지, 로그인 페이지 등 검색 결과에 노출되면 안 되는 경로를 차단할 때
  • GPTBot, ChatGPT-User 등 AI 크롤러가 콘텐츠를 학습 데이터로 수집하는 것을 차단할 때
  • 사이트맵 위치를 검색엔진에 알려 색인 효율을 높이고 싶을 때
  • 서버 부하를 줄이기 위해 크롤링 속도를 제한하고 싶을 때
  • 새 사이트 오픈 전 전체 크롤링을 임시로 차단할 때

참고사항

  • robots.txt는 권고 사항이지 강제가 아닙니다. 악의적인 봇은 이 파일을 무시할 수 있습니다.
  • 민감한 데이터를 robots.txt로만 보호하지 마세요. 서버 인증, 접근 제어를 함께 사용하세요.
  • robots.txt에 차단된 경로도 다른 페이지에서 링크되면 검색 결과에 URL이 노출될 수 있습니다.
  • 파일 크기는 500KB 이하로 유지하는 것이 좋습니다. 너무 크면 크롤러가 무시할 수 있습니다.
  • 변경 후에는 Google Search Console의 robots.txt 테스터로 검증하세요.

Q&A

Q: robots.txt 파일은 어디에 업로드해야 하나요?

반드시 웹사이트 루트 디렉토리에 위치해야 합니다. 예를 들어 https://example.com/robots.txt 경로에서 접근 가능해야 합니다. 하위 디렉토리에 두면 크롤러가 인식하지 못합니다.

Q: AI 크롤러 차단 프리셋에는 어떤 봇이 포함되나요?

GPTBot, ChatGPT-User, Claude-Web, Bytespider, CCBot, anthropic-ai, Google-Extended 등 주요 AI 학습용 크롤러가 포함됩니다. AI 모델 학습에 콘텐츠가 사용되는 것을 원치 않을 때 유용합니다.

Q: Crawl-delay는 모든 검색엔진이 지원하나요?

아닙니다. Google은 Crawl-delay를 공식적으로 지원하지 않으며 Google Search Console에서 크롤링 속도를 조절해야 합니다. Bing, Yandex 등은 이 지시어를 지원합니다.

Q: Allow와 Disallow 규칙이 충돌하면 어떻게 되나요?

대부분의 크롤러는 더 구체적인(경로가 긴) 규칙을 우선 적용합니다. 예를 들어 Disallow: /blog/와 Allow: /blog/public/이 있으면 /blog/public/ 경로는 크롤링이 허용됩니다.

Q: robots.txt를 잘못 설정하면 어떻게 되나요?

전체 사이트를 실수로 차단하면 검색엔진에서 사이트가 사라질 수 있습니다. 변경 전에 반드시 프리뷰를 확인하고, 검색엔진 웹마스터 도구에서 테스트한 후 적용하세요.

Q: 와일드카드 패턴을 사용할 수 있나요?

Google과 Bing은 *와 $ 패턴을 지원합니다. *는 임의 문자열, $는 URL 끝을 의미합니다. 예를 들어 Disallow: /*.json$은 모든 .json 파일을 차단합니다.

Q: 서버로 데이터가 전송되나요?

아니요, 모든 처리는 브라우저에서 로컬로 이루어집니다. 입력한 URL이나 규칙은 어떤 서버로도 전송되지 않으므로 안전하게 사용할 수 있습니다.

Q: sitemap.xml 경로는 꼭 지정해야 하나요?

필수는 아니지만, 사이트맵 경로를 robots.txt에 명시하면 크롤러가 더 효율적으로 사이트를 색인합니다. 여러 개의 사이트맵을 각각 별도 줄로 추가할 수도 있습니다.