Файл Robots.txt для SEO

Файл Robots.txt для SEO. Здравствуйте, уважаемые читатели!
Сегодня я расскажу как повысить ваш SEO, используя файл robots.txt маленький текстовый файл предназначенный для работы с поисковыми системами.
Файл robots.txt, протокол исключения роботов, который сообщает веб роботам, какие страницы на вашем сайте сканировать, какие страницы не сканировать. Покажу, как изменить файл robots.txt, чтобы поисковые системы его любили. Когда поисковый робот собирается посетить сайт, прежде чем посетить страницу, он проверит инструкции в robots.txt. Рассмотрим, как выглядит
Файл Robots.txt для SEO
.
Основной каркас файла robots.txt.
Звездочка после «user-agent» означает, что файл применяется ко всем роботам, которые посещают сайт. Косая черта после «Disallow» предписывает роботу не посещать страницы на сайте. Роботу дается определенное время на сканирование каждого сайта и если страниц много их робот будет долго сканировать, это понизит рейтинг сайта. Поэтому некоторые страницы закрывают от сканирования роботом, он должен сканировать ваши самые ценные страницы. Если вы создадите правильную страницу robots.txt, вы можете указать поисковым роботам избегать определенных страниц. Это делает файл robots.txt полезным для рейтинга. Хотите посмотреть файл robots.txt своего или любого другого сайта введите в адресную строку браузера URL-адрес сайта и добавьте /robots.txt в конец. Например, https://wplaksa.ru/robots.txt
произойдет вот что:
1) Вы найдете файл robots.txt.
2) Вы найдете пустой файл.
Например: https://www.disney.com/robots.txt:
3) Вы получите ошибку 404 или Not Found («не найдено»).
Найдите время, и проверьте файл robots.txt вашего сайта.
Если вы найдете пустой файл или 404, вам необходимо это исправить. Если вы найдете правильный файл, он вероятно установлен с настройками по умолчанию которые были созданы при создании вашего сайта. Мне нравится этот способ просмотра файлов robots.txt других сайтов. Когда вы изучите все тонкости robots.txt, подсматривать за чужими файлами может стать полезным упражнением. Если у вас нет файла robots.txt, вам нужно создать его с нуля. Откройте простой текстовый редактор. Напишите User-agent: * обращаясь ко всем роботам. Затем введите «Disallow»:, но после Disallow: ничего не вводите. Поскольку после запрета ничего не стоит, веб роботам будет предложено просканировать весь ваш сайт. Сейчас ваш файл выглядит так:
Это выглядит просто, но это уже рабочий файл robots.txt
Вам также нужно сделать ссылку на свою карту сайта XML.
Напишите Sitemap: https://site.com/sitemap.xml
например: https://wplaksa.ru/sitemap.xml
Поверьте, так выглядит базовый файл robots.txt.
Теперь давайте оптимизируем robots.txt для SEO.
Самый лучший вариант использования файла robots.txt сказать поисковым системам не сканировать те части вашего сайта, которые не отображаются в открытом доступе.
Если вы посетите файл robots.txt для сайта (https://wplaksa.ru/), вы увидите в файле строки запрещающие роботам вход в серверную часть сайта на страницу входа (wp-admin). Роботам поисковых систем не имеет смысла тратить свое время на ее сканирование.
Если у вас сайт на WordPress, вы можете использовать такие строки запрета.
Можно использовать аналогичную директиву, чтобы боты не сканировали определенные страницы или папки. После запрета Disallow: введите часть URL, которая идет после.com. Поместите это между двумя косыми чертами. Чтобы бот не сканировал вашу папку tmp напишите Disallow: /tmp/
Запрет на индексирование для папок tmp
Какие типы страниц исключать из индексации
Дублирующийся контент. Например, если у вас есть версия страницы для печати, в этом случае вы можете указать ботам не сканировать версию для печати.
Не существует универсальных правил запрета страниц, ваш файл robots.txt будет уникальным для вашего сайта. Используйте свои правила для вашего сайта.
Есть другие директивы, которые вы должны знать: noindex и nofollow.
Если вы не хотите индексировать отдельные страницы используйте noindex,
чтобы быть уверенным, что боты не посещают и не индексируют определенные страницы.
Например, так:
Теперь страница не будет отображаться в результатах поиска.
Познакомимся с директивой nofollow. Это то же самое, что и для ссылки директива nofollow. Она говорит веб роботам не сканировать.
Но директива nofollow будет реализована немного по-другому, потому что она на самом деле не является частью файла robots.txt. Разница лишь в том, где это происходит. Откройте исходный код страницы, которую вы хотите изменить, и вставьте между тегами заголовка.
Вставьте строку: meta name = ”robots” content = ”nofollow”
Вот так:
Хотите добавить директивы noindex и nofollow вместе, напишите такой код:
meta name = ”robots” content = ”noindex, nofollow”
Проверить файл robots.txt, чтобы убедиться, что все работает правильно можно с помощью Инструмента проверки файла robots.txt от Google:
https://www.google.com/webmasters/tools/robots-testing-tool
Или с помощью Яндекс Веб мастера:
https://webmaster.yandex.ru/tools/robotstxt/
Вывод:
Для настройки файла robots.txt не требуется много усилий, это разовая настройка, но по мере необходимости всегда можно внести изменения. Правильно настроив файл robots.txt, вы улучшаете SEO своего сайта. Роботы поисковых систем будут организовывать и отображать ваш контент в поисковой выдаче наилучшим образом, ваш сайт будет более заметным.
На этом на сегодня все. Спасибо за внимание. Встретимся в следующей записи. Поцеловал, обнял, заплакал!
Как же я люблю твои комментарии, не стесняйся!
Понравился пост? Robots.txt для SEO Помоги другим узнать об этой статье, кликни на кнопку социальных сетей
Поддержи сайт Уважаемый Читатель!
Если вам понравились статьи на этом блоге, поддержите автора, я старался. Окажите финансовую поддержку проекту. Вы можете внести любую сумму, какая для Вас возможна. Сделать это можно через платежную форму, расположенную ниже.
Мой отзыв на курс «Мой первый блог»
Добавить комментарий