Robots.Txt를 사용하여 하위 도메인을 차단하는 방법

웹 사이트는 소규모 비즈니스를 홍보하고 제품 및 고유 한 자격을 홍보하는 좋은 방법입니다. 대규모 웹 사이트를 관리하는 경우 몇 개의 하위 도메인을 사용하고 각 하위 도메인은 웹 호스트에 자체 폴더를 가지고 있습니다. 검색 엔진 크롤러가 특정 하위 도메인을 구문 분석하고 색인을 생성하지 않게하려면 robots.txt 파일을 사용하여 차단할 수 있습니다.

1.

화면의 왼쪽 하단에있는 시작 단추를 클릭하십시오.

2.

시작 메뉴의 아래쪽에있는 검색 상자에 "메모장"을 입력하십시오.

삼.

메모장을 시작하려면 시작 메뉴 상단의 프로그램 섹션에서 "메모장"을 클릭하십시오. 메모장에 새 문서가 자동으로 만들어집니다.

4.

이 두 줄을 메모장 문서에 삽입하여 모든 로봇이 하위 도메인을 구문 분석하지 못하도록 차단합니다.

사용자 에이전트 : * 금지 : /

5.

"다른 이름으로 저장"창을 열려면 "Ctrl-S"를 누르십시오.

6.

"파일 이름"상자에 "robots.txt"를 입력하고 파일을 저장할 폴더를 선택한 다음 "저장"을 클릭하여 저장하십시오.

7.

검색 엔진 크롤러로부터 보호하려는 각 도메인의 루트 디렉토리에 저장 한 robots.txt 파일을 업로드하십시오. 루트 디렉토리는 최상위 디렉토리입니다.

  • FTP 클라이언트 소프트웨어 또는 호스트의 웹 파일 관리자를 사용하여 파일을 업로드 할 수 있습니다.

인기 게시물