Получить предложение
для твоего сайта





Главная / Статьи / Robots.txt — управление индексацией сайта

Robots.txt — управление индексацией сайта

Управление индексацией сайта всеми поисковыми системами возможно с помощью файла robots.txt, находящегося в корневом каталоге сервера. Этот файл сообщает поисковым роботам (ботам), какие файлы они могут индексировать, а какие нет.

Файл robots.txt состоит из записей. Каждая запись состоит как минимум из двух строк: строки с названием клиентского приложения — User-agent, и одной или нескольких строк, начинающихся с директивы Disallow. Пустые строки в файле robots.txt являются значимыми, они разделяют записи, имеющие разные строки User-agent.

User-agent

Строка User-agent служит для указания названия робота. Например в следующей строке указано название поискового робота Google — «googlebot»:

User-agent: googlebot

Бот Яндекса — «Yandex»
Бот Рамблера — «StackRambler»
Бот Yahoo! — «Yahoo! Slurp»
Бот MSN — «msnbot»

Названия других роботов вы можете найти в логах Вашего сервера.

Если Вы хотите запретить индексацию файлов и/или папок всеми поисковыми системами, то Вы можете использовать символ подстановки «*»:

User-agent: *
Disallow

Вторая часть записи состоит из строк Disallow. Эти строки — директивы для данного робота (или для нескольких роботов). Они сообщают роботу какие файлы и/или папки запрещено индексировать. В строках с полем Disallow записываются не абсолютные, а относительные префиксы, то есть вводить название домена не надо.

Например следующая директива запрещает паукам индексировать файл «download.htm», находящийся в корневой директории сайта:

Disallow: download.htm

Директива может содержать и название папки. Например следующая директива запрещает индексацию папки «cgi-bin», которая находится в корневой директории сайта:

Disallow: /cgi-bin/

Следующая директива запретит паукам индексировать и файл «catalog.html», и папку «catalog»:

Disallow: /catalog

Если директива Disallow будет пустой, это значит, что робот может индексировать все файлы. Как минимум одна директива Disallow должна присутствовать для каждого поля User-agent, чтобы robots.txt был корректно воспринят поисковыми системами. Полностью пустой robots.txt означает то же самое, что и его полное отсутствие на сервере.

Всем поисковым системам разрешено полностью индексировать сайт:

User-agent: *
Disallow:

Индексация сайта запрещена всеми поисковыми системами:

User-agent: *
Disallow: /

Запрет на индексацию папки «cgi-bin» всеми поисковыми системами:

User-Agent: *
Disallow: /cgi-bin/

Запрет на индексацию файла «download.htm» всеми поисковыми системами:

User-Agent: *
Disallow: download.htm

Запрет на индексацию файла «download.htm» и папки «cgi-bin» всеми поисковыми системами:

User-Agent: *
Disallow: /cgi-bin/
Disallow: download.htm

Запрет на индексацию файла «download.htm» для робота Google — «googlebot»:

User-agent: googlebot
Disallow: download.htm

Комментарии

Любой текст от знака решетки “#” до конца строки считается комментарием и поисковыми роботами игнорируется. Пример:

# Yahoo! No index.
User-agent: Yahoo! Slurp
Disallow: /

Источник: allforseo.org

Другие статьи

Новости

Google объявил, что Открытый каталог (DMOZ) больше не используется в качестве одного из источников для ...

Мэри Микер, известный веб-аналитик и партнёр венчурной компании Kleiner Perkins Caufield and Byers, представила отчёт ...

Google не понижает сайты за ссылки на страницы с ошибкой 404. Об этом сообщает TheSemPost ...

Google закрывает поддержку Поиска для сайтов. Об этом сообщила пресс-служба компании. Google Site Search – ...