로봇배제표준 robots.txt

Jmnote (토론 | 기여)님의 2012년 5월 10일 (목) 11:35 판

robots.txt
robots exclusion standard
로봇 배제 표준

1 개요

DOCUMENT_ROOT에 robots.txt 파일을 생성하여 아래 예시처럼 내용을 채우면 된다.

2 모두 허용

User-agent: *
Disallow:

3 모두 차단

User-agent: *
Disallow: /

4 특정 폴더 차단

User-agent: *
Disallow: /cgi-bin/
Disallow: /images/

5 특정 파일 차단

User-agent: *
Disallow: /directory/file.html

6 활용 사례

국내 포털의 경우, 네이버와 네이트는 없고 다음은 단 2줄이었다. 아래는 실제 웹사이트에서 사용하고 있는 설정들의 링크이다. (내용 짧은 순)

7 참고 자료

문서 댓글 ({{ doc_comments.length }})
{{ comment.name }} {{ comment.created | snstime }}