Jak zablokować złe boty za pomocą .Htaccess

Jak zablokować złe boty za pomocą .Htaccess

Jeśli jesteś właścicielem witryny, prawdopodobnie znasz znaczenie optymalizacji wyszukiwarek (SEO). Jednak wielu właścicieli witryn nie zdaje sobie sprawy, że są boty pełzające internet, które mogą zaszkodzić SEO i ogólnej funkcjonalności Twojej witryny. Złe boty mogą zaszkodzić Twojej witrynie na różne sposoby, takie jak skrobanie treści, spamowanie formularzy, a nawet przeprowadzanie ataków DDOS.

W tym artykule omówimy, w jaki sposób możesz użyć .htaccess, aby zablokować złe boty przed dostępem do Twojej witryny.

Zidentyfikuj złe boty

Zanim możesz zablokować złe boty, musisz wiedzieć, które z nich kierować. Dostępnych jest wiele narzędzi, które mogą pomóc zidentyfikować boty, które uzyskują dostęp do Twojej witryny. Na przykład Google Analytics może pokazać, które boty mają dostęp do Twojej witryny, jak często to robią, i które strony odwiedzają.

Po zidentyfikowaniu botów, które chcesz zablokować, możesz użyć .htaccess, aby stworzyć czarną listę agentów użytkowników. Agent użytkownika to ciąg, którego boty używają do identyfikowania się w Twojej witrynie. Na przykład GoogleBot identyfikuje się z ciągiem agenta użytkownika „GoogleBot."

Utwórz czarną listę

Aby utworzyć czarną listę agentów użytkowników, możesz użyć następującego kodu w swoim .plik Htaccess:

RewriteEngine na przepisu %http_user_agent badbot1 [nc, lub] rewriteCond %http_user_agent badbot2 [nc, lub] rewriteCond %http_user_agent badbot3 rewriterule ^(.*) $ - [f, l]
12345RewriteEngine onrewriteCond %http_user_agent badbot1 [nc, lub] rewriteCond %http_user_agent badbot2 [nc, lub] rewriteCond %http_user_agent badbot3reule ^(.*) $ - [f, l]

W tym przykładzie używamy Przepisanie dyrektywa, aby sprawdzić, czy Http_user_agent Nagłówek pasuje do jednego z naszych złych botów. Jeśli tak, używamy dyrektywy przepisu, aby zwrócić zabroniony błąd 403.

NC Flaga oznacza „Brak przypadku”, co oznacza, że ​​dopasowanie jest bezwrażliwe. LUB Flaga oznacza, że ​​sprawdzamy wiele warunków i L Flaga oznacza, że ​​jest to ostatnia zasada, którą należy przetworzyć.

Przetestuj swój .plik Htaccess

Po utworzeniu czarnej listy ważne jest, aby przetestować swój .plik htaccess, aby upewnić się, że działa zgodnie z oczekiwaniami. Możesz użyć narzędzi takich jak narzędzia Google Webmaster do monitorowania ruchu witryny i upewnienia się, że boty, na które celujesz, są blokowane.

Możesz także użyć narzędzia takiego jak Bad Bot Blocker, aby automatycznie utworzyć listę złych botów do zablokowania. To narzędzie automatycznie zaktualizuje twoje .plik Htaccess z listą złych botów, ułatwiając ochronę witryny przed szkodliwymi botami.

Wniosek

Blokowanie złych botów to ważny krok w ochronie witryny przed złośliwymi atakami. Używając .HTACCESS Aby stworzyć czarną listę agentów użytkowników, możesz zapobiec dostępu do Twojej witryny szkodliwych botów i poprawić ogólne bezpieczeństwo. Pamiętaj, aby regularnie monitorować ruch witryny i aktualizować czarną listę w razie potrzeby, aby chronić witrynę.