Здравствуйте друзья! Robots.txt — файл ограничения доступа поисковых роботов к содержимому на вашем блоге или сайте. Правильный файл robots.txt для wordpress должен соответствовать определенным правилам. Во-первых, этот файл необходимо создать в корне вашего сайта и прописать в нем некоторые строки, которые я приведу ниже. Так как я работаю на движке wordpress я буду писать именно […]
Похожие статьи:
Ошибки robots.txt Ошибки, часто встречающиеся в файле robots.txt Непосредственно ошибки robots.txt:...
Как сделать карту сайта wordpress Что такое карта сайта и как сделать карту сайта? Карта...
Оптимизация wordpress Ну что ж, начнем. Оптимизация wordpress состоит из ряда пунктов,...
Robots.txt — файл ограничения доступа поисковых роботов к содержимому на вашем блоге или сайте. Правильный файл robots.txt для wordpress должен соответствовать определенным правилам и содержать следующие дерективы:...
Ошибки, часто встречающиеся в файле robots.txt Непосредственно ошибки robots.txt: Перепутанные инструкции Одна из самых распространённых ошибок в robots.txt – перепутаные между собой инструкции. Например: User-agent: /Disallow: Yandex Правильно писать вот так: User-agent: YandexDisallow: / Указание нескольких каталогов в одной инструкции Disallow Многие владельцы сайтов пытаются поместить все запрещаемые к индексации каталоги в одну инструкцию […]
Похожие статьи:
Правильный файл robots txt для wordpress Здравствуйте друзья! Robots.txt — файл ограничения доступа поисковых роботов к...
Оптимизация wordpress Ну что ж, начнем. Оптимизация wordpress состоит из ряда пунктов,...
Поиск дублей страниц. Как найти дубли страниц на сайте. Всем привет!!! При использовании различных CMS, движки часто создают дубли...