검색 엔진 스파이더는 그렇게 스마트하지 않습니다. 스파이더 / 봇은 색인을 생성 할 수있는 콘텐츠를 찾을 때까지 검색 엔진을 계속 크롤링하도록 프로그래밍되어 있습니다. 당신이 그 깨진 링크를 고칠 때까지 그들은 멈추고 기다리지 않을 것입니다. 그건 그들의 직업이 아니야. 수색 엔진이 당신의 위치를 거미 할다는 것을 확인하는 것이 당신의 일이다.
사이트의 페이지를 크롤링하려면 방문자를 다른 위치로 이동시켜야합니다. 방문자는 사이트 내에서 쉽게 탐색하거나 외부 링크 / 사이트로 이동해야합니다. 연결 상태가 좋지 않거나 깨진 경우 사이트의 크롤링 가능성이 심각하게 낮아지고 사이트가 SERP (검색 엔진 결과 페이지)에서 영구적으로 필터링 될 수 있습니다..
SEO를 죽이는 14 가지 기술적 인 문제
크롤링 가능성 오류는 SEO를 해치는 것입니다. 다음과 같은 실수를하거나 검색 엔진에서 찾은 결과를 말하지 마십시오..
• robots.txt 파일에주의하십시오 - 이것이 크롤링 가능성을 망칠 수있는 가장 쉬운 방법입니다. Robots.txt 파일은 검색 엔진 스파이더에게 사이트를 보는 방법을 알려줍니다. 하나의 실수로 검색 엔진에서 영구적으로 빠져 나올 수 있으므로 이러한 파일을 사용할 때 특히주의하십시오..
• URL에 너무 많은 변수를 사용하지 마십시오. Google은 긴 링크를 크롤링 할 수 있지만 여전히 긴 URL의 팬이 아닙니다. 짧은 URL을 사용하는 것이 좋습니다 - SERP에서 더 자주 클릭됩니다.
• URL에 세션 ID를 추가하지 마십시오. - URL에 세션 ID를 사용하는 경우이를 쿠키에 저장하십시오. 스파이더는 세션 ID가있는 URL을 크롤링하지 않습니다. SERP가 막히게됩니다.
코드가 부풀어 오르는 것을 조심하십시오 - 이것은 큰 문제가 될 수 있습니다. 스파이더는 코드와 컨텐츠를 구분하는 데 능숙하지만 어려운 것도 아닙니다. 콘텐츠가 찾기 쉽지 않은 코드를 사용하지 마십시오..
스파이더는 플래시 링크를 따르거나 자바 스크립트를 실행할 수 없습니다. 플래시 및 자바 스크립트를 사용하는 디자인은 거미 트랙을 멈 춥니 다. 또한 Flash 내에서 텍스트 나 이미지를 읽을 수 없습니다. HTML 링크가있는 스틱 (링크는 텍스트 또는 이미지 여야 함)
크롤링 가능성 실수를 수정하는 방법
• URL이 변경되지 않는 한 변경하지 마십시오. 위에서 언급 한 다음 팁을 염두에 두십시오. 짧게 유지하고, 너무 많은 변수를 사용하지 않으며, 세션 ID를 남겨 두지 않습니다..
• URL을 만들 때 키워드와 하이픈을 사용하여 키워드를 구분하십시오. 스파이더는 하이픈을 공백으로 인식합니다. 밑줄을 사용하지 마십시오. 키워드로 URL을 스팸으로 보이게하지 마십시오..
• 도메인 정규화를 수정하십시오. www.business.com 또는 business.com을 사용할 예정입니까? (둘 다 사용하지 마십시오!) 가장 많은 인바운드 링크 등을 얻는 도메인은 무엇입니까? 이것이 기본 도메인으로 사용해야하는 URL입니다. 보조 도메인을 사용하는 경우 301 리디렉션을 기본 도메인에 다시 포함해야합니다..
• SEO 브라우저를 사용하여 검색 엔진이 귀하의 사이트를 보는 방법을 확인하십시오.
Sitemap의 이점
Sitemap은 각 URL의 메타 데이터와 함께 URL을 나열하는 XML 파일입니다. 이렇게하면 검색 엔진이 사이트를 효율적으로 크롤링 할 수 있습니다. Sitemap은 웹 마스터가 크롤링에 사용할 수있는 사이트의 페이지를 검색 엔진에 알리는 쉬운 방법입니다..
당신이 수색 엔진에 의해 쉽게 발견되고 싶다면, 효율적인 네비게이션 시스템을 구축하십시오. 논리적이고 쉬운 탐색 구조로 스파이더가 사이트를 쉽게 탐색 할 수 있습니다..