처음 티스토리 블로그를 만들게 되면, 각 종 검색엔진에 내 사이트의 정보를 수집할 수 있도록 설정해 주어야 합니다.
온라인상에는 수많은 사이트들이 있으며, 검색엔진에서 일일이 정보를 수집할 수가 없기 때문에 주기마다 자동으로 사이트 정보를 수집하는 "크롤러"라는 프로그램을 사용하고 있습니다.
이 포스팅에서는 한 번만 세팅하면, 검색엔진 크롤러가 우리 블로그 정보를 수집할 수 있도록 하는 방법에 대해 설명하겠습니다.
<첫 번째 해야 할 일> 구글 크롤러 Robots.txt 파일 설정
· 아래 첨부한 "robots.txt" 파일을 다운로드합니다.
· 다운로드한 "robots.txt" 파일에서 아래와 같이 코드를 설정해 줍니다. 파일명은 변경하시면 안 됩니다.
User-agent: *
Allow:/
Sitemap: (예) https://aaaa.co.kr/sitemap.xml / 본인 사이트 주소 + "sitemap.xml"
※ 모든 검색엔진의 크롤러 로봇에 대하여 수집을 허용하는 코드입니다.
<두 번째 해야 할 일> 구글 크롤러 Robots.txt 파일 업로드
· [티스토리 관리] > [꾸미기 / 스킨편집] > [html편집] > [파일업로드] > [추가]를 클릭합니다.
※ html 편집창에 들어가는 방법을 모르신다면, 아래 링크를 참고하십시오.
· 수정 완료한 "robots.txt" 파일의 위치를 찾아서 선택 후 열기를 눌러 업로드해 주시면 됩니다.
· 업로드가 완료되면 아래처럼 확인하실 수 있으며, 모든 작업이 끝납니다.
좋은 하루 보내십시오.
댓글