Mnoho vlastníků webových stránek se potýká s problémem zákazu indexování zdrojů a jejich odstraňování z vyhledávačů. Obvykle k tomu dochází, protože stránka zastarává a je irelevantní, vydavatel nebo návštěvníci o ni ztrácejí zájem nebo stránka obsahuje osobní a dokonce důvěrné informace.
Instrukce
Krok 1
Existuje mnoho způsobů, jak odebrat web z vyhledávačů.
Prvním a nejjednodušším způsobem, jak odstranit výsledky dotazu z vyhledávače, je odstranit stránku ze samotného webu nebo úplně odstranit web CMS pomocí připojení FTP. Za několik dní vyhledávač aktualizuje databázi a odebere odkaz na váš zdroj z výsledků vyhledávání.
Krok 2
Nejpopulárnějším způsobem, jak mezi webmastery chránit web, jeho jednotlivé sekce nebo stránky před indexováním, a tím odstranit odkazy z výsledků vyhledávání, je upravit soubor robots.txt.
Pomocí kódu můžete zavřít samostatnou stránku z indexování:
Uživatelský agent: *
Disallow: /page.html (zavření stránky page.html)
Existuje mnoho autorských pokynů, jak používat kódy pro soubor robots.txt na internetu.
Krok 3
Třetím způsobem, jak odstranit stránky webu z vyhledávačů, je použít na svých stránkách metaznačku robots. Značka je napsána v kódu HTML skrytých stránek mezi značkami.
Po opětovné indexaci webu PS tedy vypadnou stránky s touto metaznačkou. Nevýhodou této metody je, že mnoho moderních webů používá šablony tpl, což znamená, že budete muset ručně změnit kód na stovky, možná tisíce stránek.
Krok 4
Čtvrtým způsobem, jak odstranit weby z vyhledávačů, je použití záhlaví X-Robots-Tag. Podstata této hlavičky je podobná použití předchozí metaznačky, položka však musí být umístěna v hlavičkách
Značka X-Robots: noindex, nofollow
Krok 5
Nejúčinnějším způsobem (úplně) odebrání webu z vyhledávačů je jeho odebrání z panelu webmastera. Po aktualizaci (3–7 dní) bude web pro vyhledávač nedostupný. Panel webmastera je k dispozici pro vyhledávače Yandex (https://webmaster.yandex.ru/delurl.xml) a Google (https://webmaster.yandex.ru/delurl.xml).