Все поисковые системы для поиска и индексации используют программы-роботы. Их ещё называют пауками.
Робот, попав на сайт, собирает с него всю информацию. Самую важную (по
его мнению) информацию робот запоминает. Далее робот анализирует ссылки
и идёт по ним. Он может обнаружить ссылку на другой ресурс и уйти по
ней, покинув ваш сайт.
Важно уметь правильно управлять роботом. Только так можно заставить паука пройтись по каждой странице вашего сайта. Для управления роботами служат файл robots.txt, метаданные и тег <noindex>..</noindex>. Следует заметить, что некоторые роботы (например роботы Рамблера) игнорируют ключевые слова (keywords) и описания (description).
Посмотрим, что роботам интересно.
В первую очередь поисковые механизмы проверяют заголовок документа (<title>). Далее, как правило, в порядке значимости роботы анализируют следующие теги:
<h1>...</h1> ... <hN>...</hN>
<b>...</b>
<strong>...</strong>
<u>...</u>
Особое значение для роботов имеет тег <A>...</A>. В нём роботы могут обрабатывать атрибут title. Также пауки могут заглядывать в альтернативный текст изображений <imgsrc=”...” alt=”альтернативный текст”>.
Файл robots.txt
Попав на сайт, робот первым делом проверяет файл robots.txt.
Если робот обнаруживает этот документ, то все дальнейшие действий он
будет выполнять в соответствии с требованиями изложенными там. Если файла robots.txt нет, робот будет анализировать всё, что попадёт в его загребущие руки.
Роботы ищут файл robots.txt> только в корневом каталоге сайта. Размещать файл robots.txt в нескольких каталогах не имеет смысла, т.к. пауки будут игнорировать лишние копии. Имя файла robots.txt должно быть набрано маленькими буквами, поскольку имена интернет-ресурсов (URI) чувствительны к регистру.
Структура файла robots.txt следующая:
User-agent: имя робота
Disallow: запрещённые для индексации файлы
Файл robots.txt состоит из групп инструкций. Каждая из них начинается со строки User-agent: имя робота, которая указывает, для каких роботов относится следующая инструкция Disallow:. Инструкция User-agent: * будет распространяться на всех роботов.
Инструкций Disallow: в каждой группе может быть несколько (обязательно должна быть хотя бы одна).
Рассмотрим такую инструкцию: “Disallow: /folder/” Она запретит пауку посещение папки folder. А инструкция “Disallow: /folder” запретит посещение всех страниц, полное имя которых начинается с “/folder”, например /folder.php, /folder/page1.html, folder5.html. Следует заметить, для того, чтобы инструкция Disallow:
запрещала что-либо, указанный в ней путь должен начинаться с “/”.
Инструкция, которая содержит символ ‘*’ или какой-либо другой символ,
который не может присутствовать в имени файла, тоже не будет ничего
запрещать.
К сожалению, пока нет инструкции, которая бы указывала на файлы и
директории, которые надо проиндексировать. По этой причине приходится
указывать список всего, что запрещено для индексации. Единственный
разумный выход из этой ситуации – хорошо продумать структуру сайта.
Осталось сказать, что в файле robots.txt пустые строки разрешено вставлять только между группами (перед User-agent), а комментарии должны начинаться с символа “#”.
META-теги "Robots"
Тег тоже управляет индексацией сайта, но в отличие от файла robots.txt он управляет индексацией одной web-страницы.
Для записи инструкций по индексации, используется поле content=”...”.
Приведем список всех возможных инструкций:
NOINDEX - запрещает индексирование документа;
NOFOLLOW - запрещает переход по ссылкам документа;
INDEX - разрешает индексирование документа;
FOLLOW - разрешает переход по ссылкам документа;
ALL - равносильно INDEX, FOLLOW;
NONE - равносильно NOINDEX, NOFOLLOW
По умолчанию принимается значение <meta name="Robots" content="INDEX, FOLLOW">.
В поле content дублирование инструкций, наличие противоречивых инструкций и т.п. не допускается; в частности, значение поле content не может иметь вид "none, nofollow".
Тег <noindex>...</noindex>
Тег <noindex>...</noindex> используется для запрета индексирования и перехода по ссылкам. Его действие начинается с и заканчивается .