Pojem „index“v oblasti optimalizace a propagace webových stránek je zmiňován ve spojení s vyhledávači. Proces indexování je kompilace jakési slovníku seřazeného podle abecedy a čísel. Jeho struktura vám umožňuje určit důležitost stránky při hledání určitých informací.
Je to nutné
- - webová stránka;
- - internet.
Instrukce
Krok 1
Stránky zdrojů jsou indexovány vyhledávači. Každý z nich má svůj vlastní algoritmus pro zpracování konkrétního webu. Zobrazí se seznam stránek na internetu pro konkrétní požadavek zadaný uživatelem.
Krok 2
Vyhledávací roboti jsou zodpovědní za indexování webů. Interpretují uživatelské vyhledávací dotazy svým vlastním způsobem. Pro vylepšení indexování webu je třeba pro roboty vytvořit speciální pokyny.
Krok 3
Ke zlepšení indexování webu je nutné přijmout řadu opatření. Nejprve vytvořte mapu webu ve formátu html. K tomu stačí použít speciální automatické generátory. Podívejte se například sem:
Krok 4
Hotový soubor Sitemap musí být nahrán do hlavního adresáře, kořenového adresáře vašeho webu. Chcete-li zkontrolovat jeho dostupnost, zadejte data do vyhledávání: https:// název vašeho zdroje / sitemap.hml. Zviditelněte svůj soubor Sitemap pro vyhledávače. Navštivte Yandex Webmaster a Google Webmaster Tools.
Krok 5
Spravujte prohledávače pomocí souboru robots.txt. Vytvořte jej v běžném textovém editoru.
Krok 6
Všem vyhledávacím robotům mohou být zadány konkrétní příkazy. Například Disallow je směrnice zakazující indexování určitých částí webu. Zakázat stránky, které nejsou užitečné pro uživatele a pro vyhledávače, například technické stránky.
Krok 7
Aby se robot dozvěděl o struktuře webu, napište příkaz pomocí mapy ve formátu sitemap.xml. Například: User-agent: YandexAllow: / Sitemap: https:// mysite.ru / site_structure / my_sitemap.xml
Krok 8
Umožněte robotovi přístup na celý web nebo na jednotlivé stránky pomocí Povolit: Uživatelský agent: YandexAllow: /
Krok 9
Nastavte hodnoty Crawl-Delay. Je nepravděpodobné, že robot navštíví vaše stránky po celou dobu, ale to urychlí indexování zdroje: User-agent: Yandex Crawl-delay: 2 # nastaví časový limit 2 sekundy
Krok 10
Chcete-li vytvořit soubor robots.txt pro Google, navštivte Centrum webmasterů Google. Vyberte svůj web z domovské stránky Nástrojů pro webmastery.
Krok 11
V části Konfigurace webu klikněte na Přístup ke skeneru. Poté přejděte na kartu create robots.txt, vyberte výchozí nastavení přístupu pro roboty a uložte soubor do počítače. Přejděte na ovládací panel svého webu a nahrajte vygenerovaný soubor do kořenového adresáře.
Krok 12
Pracujte se sociálními záložkami, věnujte pozornost těmto: bobrdobr.ru, memori.ru, moemesto.ru, myscoop.ru, rumarkz.ru, 100zakladok.ru, mister-wong.ru, bookmark.searchengines.ru.
Krok 13
Sociální záložky jsou vlastně externí odkazy na váš web. Tyto služby byly vytvořeny pro pohodlí uživatelů. Účet na takovém zdroji umožňuje přidávat odkazy na vaše oblíbené články, weby.
Krok 14
Toto je, stejně jako v prohlížeči, tlačítko „Oblíbené“, pouze internetový zdroj umožňuje uživatelům připojovat se ke skupinám podle zájmů a přístup k záložkám lze získat z libovolného počítače. Díky nárůstu počtu příchozích odkazů budou roboti častěji navštěvovat vaše stránky.
Krok 15
Pro urychlení indexování webu je nutné zajistit častější návštěvy robotů na jeho stránkách. Chcete-li dosáhnout cíle, pravidelně aktualizujte stránky webu a doplňujte je novými, jedinečnými informacemi.