Robots запретить все для индексации. Как запретить индексацию нужных страниц

Robots запретить все для индексации. Как запретить индексацию нужных страниц

Robots.txt – это служебный файл, который служит рекомендацией по ограничению доступа к содержимому веб-документов для поисковых систем. В данной статье мы разберем настройку Robots.txt, описание директив и составление его для популярных CMS.

Находится данный файл Робота в корневом каталоге вашего сайта и открывается/редактируется простым блокнотом, я рекомендую Notepad++. Для тех, кто не любит читать — есть ВИДЕО, смотрите в конце статьи 😉

Зачем нужен robots.txt

Как я уже говорил выше – с помощью файла robots.txt мы можем ограничить доступ поисковых ботов к документам, т.е. мы напрямую влияем на индексацию сайта. Чаще всего закрывают от индексации:

  • Служебные файлы и папки CMS
  • Дубликаты
  • Документы, которые не несут пользу для пользователя
  • Не уникальные страницы

Разберем конкретный пример:

Интернет-магазин по продаже обуви и реализован на одной из популярных CMS, причем не лучшим образом. Я могу сразу сказать, что будут в выдаче страницы поиска, пагинация, корзина, некоторые файлы движка и т.д. Все это будут дубли и служебные файлы, которые бесполезны для пользователя. Следовательно, они должны быть закрыты от индексации, а если еще есть раздел «Новости» в которые копипастятся разные интересные статьи с сайтов конкурентов – то и думать не надо, сразу закрываем.

Поэтому обязательно получаемся файлом robots.txt, чтобы в выдачу не попадал мусор. Не забываем, что файл должен открываться по адресу http://site.ru/robots.txt.

Директивы robots.txt и правила настройки

User-agent. Это обращение к конкретному роботу поисковой системы или ко всем роботам. Если прописывается конкретное название робота, например «YandexMedia», то общие директивы user-agent не используются для него. Пример написания:

User-agent: YandexBot Disallow: /cart # будет использоваться только основным индексирующим роботом Яндекса

Disallow/Allow. Это запрет/разрешение индексации конкретного документа или разделу. Порядок написания не имеет значения, но при 2 директивах и одинаковом префиксе приоритет отдается «Allow». Считывает поисковый робот их по длине префикса, от меньшего к большему. Если вам нужно запретить индексацию страницы — просто введи относительный путь до нее (Disallow: /blog/post-1).

User-agent: Yandex Disallow: / Allow: /articles # Запрещаем индексацию сайта, кроме 1 раздела articles

Регулярные выражения с * и $. Звездочка означает любую последовательность символов (в том числе и пустую). Знак доллара означает прерывание. Примеры использования:

Disallow: /page* # запрещает все страницы, конструкции http://site.ru/page Disallow: /arcticles$ # запрещаем только страницу http://site.ru/articles, разрешая страницы http://site.ru/articles/new

Директива Sitemap. Если вы используете – то в robots.txt она должна указываться так:

Sitemap: http://site.ru/sitemap.xml

Директива Host. Как вам известно у сайтов есть зеркала (читаем, ). Данное правило указывает поисковому боту на главное зеркало вашего ресурса. Относится к Яндексу. Если у вас зеркало без WWW, то пишем:

Host: site.ru

Crawl-delay. Задает задержу (в секундах) между скачками ботом ваших документов. Прописывается после директив Disallow/Allow.

Crawl-delay: 5 # таймаут в 5 секунд

Clean-param. Указывает поисковому боту, что не нужно скачивать дополнительно дублирующую информацию (идентификаторы сессий, рефереров, пользователей). Прописывать Clean-param следует для динамических страниц:

Clean-param: ref /category/books # указываем, что наша страница основная, а http://site.ru/category/books?ref=yandex.ru&id=1 это та же страница, но с параметрами

Главное правило: robots.txt должен быть написан в нижнем регистре и лежать в корне сайта. Пример структуры файла:

User-agent: Yandex Disallow: /cart Allow: /cart/images Sitemap: http://site.ru/sitemap.xml Host: site.ru Crawl-delay: 2

Мета-тег robots и как он прописывается

Данный вариант запрета страниц лучше учитывается поисковой системой Google. Яндекс одинаково хорошо учитывает оба варианта.

Директив у него 2: follow/nofollow и index/noindex . Это разрешение/запрет перехода по ссылкам и разрешение/запрет на индексацию документа. Директивы можно прописывать вместе, смотрим пример ниже.

Для любой отдельной страницы вы можете прописать в теге следующее:

Правильные файлы robots.txt для популярных CMS

Пример Robots.txt для WordPress

Ниже вы можете увидеть мой вариант с данного Seo блога.

User-agent: Yandex Disallow: /wp-content/uploads/ Allow: /wp-content/uploads/*/*/ Disallow: /wp-login.php Disallow: /wp-register.php Disallow: /xmlrpc.php Disallow: /template.html Disallow: /cgi-bin Disallow: /wp-admin Disallow: /wp-includes Disallow: /wp-content/plugins Disallow: /wp-content/cache Disallow: /wp-content/themes Disallow: /wp-trackback Disallow: /wp-feed Disallow: /wp-comments Disallow: */trackback Disallow: */feed Disallow: */comments Disallow: /tag Disallow: /archive Disallow: */trackback/ Disallow: */feed/ Disallow: */comments/ Disallow: /?feed= Disallow: /?.php Disallow: /wp-register.php Disallow: /xmlrpc.php Disallow: /template.html Disallow: /cgi-bin Disallow: /wp-admin Disallow: /wp-includes Disallow: /wp-content/plugins Disallow: /wp-content/cache Disallow: /wp-content/themes Disallow: /wp-trackback Disallow: /wp-feed Disallow: /wp-comments Disallow: */trackback Disallow: */feed Disallow: */comments Disallow: /tag Disallow: /archive Disallow: */trackback/ Disallow: */feed/ Disallow: */comments/ Disallow: /?feed= Disallow: /?.xml

Трэкбэки запрещаю потому что это дублирует кусок статьи в комментах. А если трэкбэков много — вы получите кучу одинаковых комментариев.

Служебные папки и файлы любой CMS я стараюсь я закрываю, т.к. не хочу чтобы они попадали в индекс (хотя поисковики уже и так не берут, но хуже не будет).

Фиды (feed) стоит закрывать, т.к. это частичные либо полные дубли страниц.

Теги закрываем, если мы их не используем или нам лень их оптимизировать.

Примеры для других CMS

Чтобы скачать правильный robots для нужной CMS просто кликните по соответствующей ссылке.

При каждом обращении к сайту поисковые роботы первым делом ищут и считывают файл robots.txt. В нем записаны специальные директивы, управляющие поведением робота. Скрытую опасность для любого сайта может нести как отсутствие этого файла, так и его некорректная настройка. Предлагаю детальнее изучить вопрос настройки robots.txt вообще и для CMS WordPress в частности, а также обратить внимание на частые ошибки.

Файл robots.txt и стандарт исключений для роботов

Все поисковые системы понимают инструкции, написанные в специальном файле согласно стандарта исключений для роботов . В этих целях используется обычный текстовый файл с названием robots.txt, расположенный в корневом каталоге сайта. При корректном размещении содержимое этого файла можно посмотреть на любом сайте просто дописав после адреса домена /robots.txt . Например, .

Инструкции для роботов позволяют запрещать к сканированию файлы/каталоги/страницы, ограничивать частоту доступа к сайту, указывать зеркало и XML карту. Каждую инструкцию пишут с новой строки в следующем формате:

[директива]: [значение]

Весь список директив разбивают на секции (записи), разделяя их одной или несколькими пустыми строками. Новую секцию начинают с одной или нескольких инструкций User-agent. Запись должна содержать как минимум одну директиву User-agent и одну Disallow.

Текст после символа # (решетка) считается комментарием и игнорируется поисковыми роботами.

Директива User-agent

User-agent — первая директива в секции, сообщает имена роботов, для которых предназначены следующие за ней правила. Звездочка в значении обозначает любое имя, разрешается только одна секция с инструкциями для всех роботов. Пример:

# инструкции для всех роботов User-agent: * ... # инструкции для роботов Яндекса User-agent: Yandex ... # инструкции для роботов Google User-agent: Googlebot ...

Директива Disallow

Disallow — основная директива, запрещающая сканирование URL/файлов/каталогов, имена которых полностью или частично совпадают с указанными после двоеточия.

Продвинутые поисковые роботы вроде Яндекса и Google понимают спецсимвол * (звездочка), обозначающий любую последовательность символов. Подстановку не желательно использовать в секции для всех роботов.

Примеры директивы Disallow:

# пустое значение разрешает индексировать все User-agent: * Disallow: # запрещает сканировать весь сайт User-agent: * Disallow: / # запрещает к сканированию все файлы и/или каталоги, начинающиеся из символов "wp-" User-agent: * Disallow: /wp- # запрещает сканировать файлы page-1.php, page-vasya.php, page-news-345.php # вместо * может встречаться любая последовательность символов User-agent: * Disallow: /page-*.php

Директива Allow (неофициальная)

Allow разрешает сканирование указанных ресурсов. Официально этой директивы нету в стандарте исключений для роботов, поэтому не желательно использовать ее в секции для всех роботов (User-agent: *). Отличный пример использования — разрешить к сканированию ресурсы из каталога, который ранее запрещен к индексации директивой Disallow:

# запрещает сканировать ресурсы начинающиеся с /catalog # но разрешает сканировать страницу /catalog/page.html User-agent: Yandex Disallow: /catalog Allow: /catalog/page.html

Sitemap (неофициальная)

Sitemap — директива, указывающая адрес карты сайта в формате XML. Эта директива так же не описана в стандарте исключений и поддерживается не всеми роботами (работает для Яндекс, Google, Ask, Bing и Yahoo). Можно указывать одну или несколько карт — все будут учтены. Может использоваться без User-agent после пустой строки. Пример:

# одна или несколько карт в формате XML, указывается полный URL Sitemap: http://sitename.com/sitemap.xml Sitemap: http://sitename.com/sitemap-1.xml

Директива Host (только Яндекс)

Host — директива для робота Яндекс, указывающая основное зеркало сайта. Вопрос о зеркалах детальнее можно изучить в справке Яндекса . Эту инструкцию можно указывать как в секции для роботов Яндекса, так и отдельной записью без User-agent (инструкция межсекционная и в любом случае будет учтена Яндексом, а остальные роботы ее проигнорируют). Если в одном файле Host указан несколько раз, то будет учтена только первая. Примеры:

# указываем главное зеркало в секции для Яндекса User-agent: Yandex Disallow: Host: sitename.com # главное зеркало для сайта с SSL сертификатом User-agent: Yandex Disallow: Host: https://sitename.com # или отдельно без User-agent после пустой строки Host: sitename.com

Другие директивы

Роботы Яндекса также понимают директивы Crawl-delay и Clean-param . Детальнее об их использовании читайте в справочной документации.

Роботы, директивы robots.txt и индекс поисковых систем

Ранее поисковые роботы следовали директивам robots.txt и не добавляли в индекс «запрещенных» там ресурсов.

Сегодня все обстоит иначе. Если Яндекс послушно исключит из индекса адреса, запрещенные в файле роботс, то Google поступит совершенно иначе. Он обязательно добавит их индекс, но в результатах поиска будет стоять надпись «Описание веб-страницы недоступно из-за ограничений в файле robots.txt» .

Почему Google добавляет в индекс страницы, запрещенные в robots.txt?

Ответ кроется в маленькой хитрости гугла. Если внимательно прочесть справку для вебмастера, то все становится более чем понятно:

Google без зазрения совести сообщает, что директивы в robots.txt являются рекомендацией , а не прямыми командами к действию.

Это означает, что робот директивы учитывает, но поступает все-же по-своему. И он может добавить в индекс страницу, запрещенную в robots.txt, если встретит на нее ссылку.

Добавление адреса в robots.txt не гарантирует исключения его из индекса поисковой системы Google.

Индекс Google + некорректный robots.txt = ДУБЛИ

Практически каждое руководство в сети говорит о том, что закрытие страниц в robots.txt запрещает их индексацию.

Ранее так и было. Но мы уже знаем, что для Google такая схема сегодня не работает. А что еще хуже — каждый последовавший таким рекомендациям совершает огромную ошибку — закрытые URL попадают в индекс и помечаются как дубли, процент дублированного контента постоянно растет и рано или поздно сайт наказывается фильтром Панда.

Google предлагает два действительно рабочих варианта для исключения из индекса ресурсов веб-сайта:

  1. закрытие паролем (применяется для файлов вроде.doc, .pdf, .xls и других)
  2. добавление метатега robots с атрибутом noindex в (применяется для веб-страниц):

Главное, что нужно учесть:

Если на веб-страницу добавить указанный выше мета-тег, запрещающий индексацию, и дополнительно запретить сканирование этой-же страницы в robots.txt, то робот Google не сможет прочесть мета-тег с запретом и добавит страницу в индекс!
(поэтому он и пишет в результатах поиска, что описание ограничено в robots.txt)

Детальнее об этой проблеме можно почитать в справке Google . А решение здесь одно — открывать доступ в robots.txt и настраивать запрет на индексацию страниц метатегом (или паролем, если речь о файлах).

Примеры robots.txt для WordPress

Если внимательно ознакомиться с предыдущим разделом, то становится понятно, что сегодня не стоит практиковать чрезмерный запрет адресов в robots.txt , по крайне мере для Google. Управлять индексацией страниц лучше через метатег robots.

Вот самый банальный и при этом совершенно правильный robots.txt для WordPress:

User-agent: * Disallow: Host: sitename.com

Удивлены? Еще бы! Все гениальное просто 🙂 На западных ресурсах, где нету Яндекса, рекомендации по составлению robots.txt для WordPress сводятся к двум первым строчкам, как это показали авторы WordPress SEO by Yoast .

Правильно настроенный SEO-плагин позаботится о канонических ссылках и метатеге robots со значением noindex, а страницы админки под паролем и не нуждаются в запрете индексации (исключением могут быть только страницы входа и регистрации на сайта — убедитесь, что на них есть meta тег robots со значением noindex). Карту сайта правильнее добавить вручную в вебмастере поисковой системы и заодно проследить, чтобы она была корректно прочитана. Осталось единственное и важное для рунета — указать главное зеркало для Яндекса.

Еще один вариант, подойдет для менее смелых:

User-agent: * Disallow: /wp-admin Host: sitename.com Sitemap: http://sitename.com/sitemam.xml

В первой секции запрещается индексация для всех роботов каталога wp-admin и его содержимого. В последних двух строках указанные зеркало сайта для робота Яндекса и карта сайта.

Прежде чем изменять свой robots.txt…

Если приняли решение о смене директив в robots.txt, то сначала позаботьтесь о трех вещах:

  1. Убедитесь, что в корне вашего сайта нету дополнительных файлов или каталогов, содержимое которых стоит скрыть от сканирования (это могут быть личные файлы или медиаресурсы);
  2. Включите канонические ссылки в своем SEO-плагине (это исключит из индекса URL c параметрами запроса вроде http://sitename.com/index.php?s=word )
  3. Настройте вывод метатега robots со значением noindex на страницах, которые хотите скрыть от индексации (для WordPress это архивы по дате, метке, автору и страницы пагинации). Сделать это можно для части страниц в настройках SEO-плагинов (в All In One SEO неполные настройки). Или специальным кодом вывести самостоятельно: /* ========================================================================== * Добавляем свой * ========================================================================== */ function my_meta_noindex () { if (//is_archive() OR // любые страницы архивов - за месяц, за год, по рубрике, по авторам //is_category() OR // архивы рубрик is_author() OR // архивы статей по авторам is_time() OR // архивы статей по времени is_date() OR // архивы статей по любым датам is_day() OR // архивы статей по дням is_month() OR // архивы статей по месяцам is_year() OR // архивы статей по годам is_tag() OR // архивы статей по тегам is_tax() OR // архивы статей для пользовательской таксономии is_post_type_archive() OR // архивы для пользовательского типа записи //is_front_page() OR // статическая главная страница //is_home() OR // главная страница блога с последними записями //is_singular() OR // любые типы записей - одиночные посты, страницы, вложения и т.д. //is_single() OR // любой одиночный пост любого типа постов (кроме вложений и Страниц) //is_page() OR // любая одиночная Страница ("Страницы" в админке) is_attachment() OR // любая страница вложения is_paged() OR // все и любые страницы пагинации is_search() // страницы результатов поиска по сайту) { echo "".""."\n"; } } add_action("wp_head", "my_meta_noindex", 3); /* ========================================================================== */

    В строчках, начинающихся с // метатег не будет выводится (в каждой строке описано для какой страницы предназначено правило). Добавляя или удаляя в начале строки два слеша, можно контролировать будет ли выводиться мета-тег роботс или нет на определенной группе страниц.

В двух словах о том, что закрывать в robots.txt

С настройкой файла роботс и индексацией страниц нужно запомнить два важных момента, которые ставят все на свои места:

Используйте файл robots.txt, чтобы управлять доступом к файлам и каталогам сервера . Файл robots.txt играет роль электронного знака «Вход запрещен: частная территория»

Используйте метатег robots, чтобы содержание не появлялось в результатах поиска . Если на странице есть метатег robots с атрибутом noindex, большинство роботов исключает всю страницу из результатов поиска, даже если на нее ссылаются другие страницы.

Любая страница на сайте может быть открыта или закрыта для индексации поисковыми системами. Если страница открыта, поисковая система добавляет ее в свой индекс, если закрыта, то робот не заходит на нее и не учитывает в поисковой выдаче.

При создании сайта важно на программном уровне закрыть от индексации все страницы, которые по каким-либо причинам не должны видеть пользователи и поисковики.

К таким страницам можно отнести административную часть сайта (админку), страницы с различной служебной информацией (например, с личными данными зарегистрированных пользователей), страницы с многоуровневыми формами (например, сложные формы регистрации), формы обратной связи и т.д.

Пример:
Профиль пользователя на форуме о поисковых системах Searchengines.

Обязательным также является закрытие от индексации страниц, содержимое которых уже используется на других страницах.Такие страницы называются дублирующими. Полные или частичные дубли сильно пессимизируют сайт, поскольку увеличивают количество неуникального контента на сайте.

Как видим, контент на обеих страницах частично совпадает. Поэтому страницы категорий на WordPress-сайтах закрывают от индексации, либо выводят на них только название записей.

То же самое касается и страниц тэгов– такие страницы часто присутствуют в структуре блогов на WordPress. Облако тэгов облегчает навигацию по сайту и позволяет пользователям быстро находить интересующую информацию. Однако они являются частичными дублями других страниц, а значит – подлежат закрытию от индексации.

Еще один пример – магазин на CMS OpenCart.

Страница категории товаров http://www.masternet-instrument.ru/Lampy-energosberegajuschie-c-906_910_947.html .

Страница товаров, на которые распространяется скидка http://www.masternet-instrument.ru/specials.php .

Данные страницы имеют схожее содержание, так как на них размещено много одинаковых товаров.

Особенно критично к дублированию контента на различных страницах сайта относится Google. За большое количество дублей в Google можно заработать определенные санкции вплоть до временного исключения сайта из поисковой выдачи.

Еще один случай, когда содержимое страниц не стоит «показывать» поисковику – страницы с неуникальным контентом. Типичный пример — инструкции к медицинским препаратам в интернет-аптеке. Контент на странице с описанием препарата http://www.piluli.ru/product271593/product_info.html неуникален и опубликован на сотнях других сайтов.

Сделать его уникальным практически невозможно, поскольку переписывание столь специфических текстов – дело неблагодарное и запрещенное. Наилучшим решением в этом случае будет закрытие страницы от индексации, либо написание письма в поисковые системы с просьбой лояльно отнестись к неуникальности контента, который сделать уникальным невозможно по тем или иным причинам.

Как закрывать страницы от индексации

Классическим инструментом для закрытия страниц от индексации является файл robots.txt. Он находится в корневом каталоге вашего сайта и создается специально для того, чтобы показать поисковым роботам, какие страницы им посещать нельзя. Это обычный текстовый файл, который вы в любой момент можете отредактировать. Если файла robots.txt у вас нет или если он пуст, поисковики по умолчанию будут индексировать все страницы, которые найдут.

Структура файла robots.txt довольно проста. Он может состоять из одного или нескольких блоков (инструкций). Каждая инструкция, в свою очередь, состоит из двух строк. Первая строка называется User-agent и определяет, какой поисковик должен следовать этой инструкции. Если вы хотите запретить индексацию для всех поисковиков, первая строка должна выглядеть так:

Если вы хотите запретить индексацию страницы только для одной ПС, например, для Яндекса, первая строка выглядит так:

Вторая строчка инструкции называется Disallow (запретить). Для запрета всех страниц сайта напишите в этой строке следующее:

Чтобы разрешить индексацию всех страниц вторая строка должна иметь вид:

В строке Disallow вы можете указывать конкретные папки и файлы, которые нужно закрыть от индексации.

Например, для запрета индексации папки images и всего ее содержимого пишем:

Чтобы «спрятать» от поисковиков конкретные файлы, перечисляем их:

User-agent: *
Disallow: /myfile1.htm
Disallow: /myfile2.htm
Disallow: /myfile3.htm

Это – основные принципы структуры файла robots.txt. Они помогут вам закрыть от индексации отдельные страницы и папки на вашем сайте.

Еще один, менее распространенный способ запрета индексации – мета-тэг Robots. Если вы хотите закрыть от индексации страницу или запретить поисковикам индексировать ссылки, размещенные на ней, в ее HTML-коде необходимо прописать этот тэг. Его надо размещать в области HEAD, перед тэгом .</p> <p>Мета-тег Robots состоит из двух параметров. INDEX – параметр, отвечающий за индексацию самой страницы, а FOLLOW – параметр, разрешающий или запрещающий индексацию ссылок, расположенных на этой странице.</p> <p>Для запрета индексации вместо INDEX и FOLLOW следует писать NOINDEX и NOFOLLOW соответственно.</p> <p>Таким образом, если вы хотите закрыть страницу от индексации и запретить поисковикам учитывать ссылки на ней, вам надо добавить в код такую строку:</p> <blockquote><p><meta name=“robots” content=“noindex,nofollow”></p> </blockquote> <p>Если вы не хотите скрывать страницу от индексации, но вам необходимо «спрятать» ссылки на ней, мета-тег Robots будет выглядеть так:</p> <blockquote><p><metaname=“robots” content=“index,nofollow”></p> </blockquote> <p>Если же вам наоборот, надо скрыть страницу от ПС, но при этом учитывать ссылки, данный тэг будет иметь такой вид:</p> <blockquote><p><meta name=“robots” content=“noindex,follow”></p> </blockquote> <p>Большинство современных CMS дают возможность закрывать некоторые страницы от индексации прямо из админ.панели сайта. Это позволяет избежать необходимости разбираться в коде и настраивать данные параметры вручную. Однако перечисленные выше способы были и остаются универсальными и самыми надежными инструментами для запрета индексации.</p> <p>Привет всем, друзья!<br> Иногда возникают ситуации, когда необходимо закрыть сайт от Ну, например вы решили сменить дизайн блога и не хотите, чтобы в это время на ресурс заходили поисковые боты. Или просто вы только что создали сайт и установили на него движок, соответственно если на ресурсе нет полезной информации, то показывать его поисковым ботам не стоит. В данной статье вы узнаете о том, как закрыть сайт от индексации в Яндексе, Гугле, или сразу во всех поисковых системах. Но перед тем вы также можете прочитать еще одну похожую статью: « ?» А теперь приступим.</p><p><b>1. Закрываем сайт от индексации с помощью файла robots.txt. </b><br> Для начала вам нужно . Для этого создаете на своем компьютере обычный текстовый документ с названием robots и расширением.txt. Вот я только что создал его:</p><p><img src='https://i2.wp.com/vachevskiy.ru/wp-content/uploads/2014/02/robots.jpg' height="48" width="154" loading=lazy></p><p>Теперь этот файл нужно загрузить в . Если ресурс сделан на движке вордпрес, то корневая папка находится там, где папки wp-content, wp-includes и т. д.</p><p>Итак, мы загрузили пустой файл на хостинг, теперь нужно с помощью этого файла как-то закрыть блог от индексации. Это можно сделать, как я уже написал только для Яндекса, Гугла или сразу всех поисковиков. Давайте обо всем по порядку.</p><p><b>Как закрыть сайт от индексации только для Яндекса? </b><br> Пропишите в файле robots.txt вот такую строчку:</p><p><b>User-agent: Yandex<br> Disallow: / </b></p><p>Для того чтобы убедиться в том, что вы запретили индексировать свой ресурс Яндексу, добавьте сначала сайт , если вы этого еще не сделали, а потом перейдите на эту страницу . Дальше введите несколько страниц своего сайта и нажмите на кнопку «Проверить». Если страницы запрещены к индексации, то вы увидите примерно такую картину:</p><p><b>Как закрыть сайт от индексации только для Google? </b><br> Откройте файл robots.txt и пропишите там вот такую строчку:</p><p><b>User-agent: Googlebot<br> Disallow: / </b></p><p>Для того чтобы проверить, что Гугл не индексирует сайт, создайте , добавьте свой ресурс в Google Webmaster и перейдите . Здесь также нужно ввести несколько страниц и нажать на кнопку «проверить».</p><p><img src='https://i1.wp.com/vachevskiy.ru/wp-content/uploads/2014/02/robots.txt.jpg' width="100%" loading=lazy></p><p>Я заметил, что поисковая система Google индексирует даже те документы, которые запрещены в файле robots.txt и заносит их в дополнительный индекс, так называемые «сопли». Почему, не знаю, но вы должны понимать, что запретить сайт или отдельную страницу с помощью файла robots.txt на 100 % нельзя. Этот файл, как я понял, только рекомендация для Гугла, а он уже сам решает, что ему индексировать, а что нет.</p><p><b>Как закрыть сайт от индексации для всех поисковых систем? </b><br> Чтобы запретить сразу всем поисковикам индексировать ваш ресурс, пропишите в robots.txt вот такую строчку:</p><p><b>User-agent: *<br> Disallow: / </b></p><p>Теперь вы также можете перейти в Яндекс или Гугл Вебмастер и проверить запрет индексации.</p><p>Свой файл robots.txt вы можете увидеть по такому адресу:</p><p><b>Вашдомен.ru/robots.txt </b></p><p>Все что вы прописали в этом файле должно отображаться в браузере. Если при переходе по этому адресу перед вами выскакивает , значит, вы не туда загрузили свой файл.</p><p>Кстати, мой robots.txt находиться . Если ваш ресурс сделан на движке wordpress, то можете просто скопировать его. Он правильно настроен для того, чтобы поисковые боты индексировали только нужные документы и что бы на сайте не было дублей.</p><p><b>2. Закрываем сайт от индексации с помощью панели инструментов. </b><br> Этот способ подойдет только для тех, чей ресурс сделан на вордпрес. Зайдите в «Панель управление» — «Настройки» — «Чтение». Здесь нужно поставить галочку напротив надписи «Рекомендовать поисковым машинам не индексировать сайт».</p><p><img src='https://i2.wp.com/vachevskiy.ru/wp-content/uploads/2014/02/ne-indeksirovat-sajt.jpg' width="100%" loading=lazy></p><p>Обратите внимание, что ниже находиться очень интересная надпись: «Поисковые машины сами решают, следовать ли Вашей просьбе». Это как раз то, о чем я писал выше. Яндекс скорее всего не будет индексировать страницы, которые запрещены к индексации, а вот с Гуглом могут возникнуть проблемы.</p><p><b>3. Закрываем сайт от индексации вручную. </b><br> Когда вы закрываете целый ресурс или страницу от индексации, то в исходном коде автоматически появляется вот такая строчка:</p><p>Она и говорит поисковым ботам, что документ индексировать нельзя. Вы можете просто вручную прописать эту строчку в любом месте своего сайта, главное чтобы она отображалась на всех страницах и тогда ресурс будет закрыт от индексации.</p><p>Кстати, если вы создаете ненужный документ на своем сайте, и не хотите чтобы поисковые боты его индексировали, то можете также вставить в исходном коде эту строчку.</p><p>После обновления откройте исходный код страницы (CTRL + U) и посмотрите, появилась ли эта строчка там. Если есть, значит все хорошо. На всякий случай можете еще проверить с помощью инструментов для вебмастеров от Яндекса и Гугла.</p><p>На этом все на сегодня. Теперь вы знаете, как закрыть сайт от индексации. Надеюсь, эта статья была полезна для вас. Всем пока.</p> <h1>Как закрыть от индексации сайт, ссылку, страницу?</h1> <i> </i> <p>Далеко не всегда нужно, чтобы поисковые системы индексировали всю информацию на сайте.<br><br><span class="t8VoBGXmXqQ"></span> <br> Иногда, вебмастерам даже нужно полностью закрыть сайт от индексации, но новички не знают, как это сделать. При желании, можно скрыть от поисковиков любой контент, ресурс или его отдельные страницы.</p> <p>Как закрыть от индексации сайт, ссылку, страницу? Есть несколько простых функций, которые вы сможете использовать, для закрытия любой информации от Яндекса и Гугла. В этой статье мы подскажем, <b>как закрыть сайт от индексации через robots </b>, и покажем, какой код нужно добавить в этот файл.</p> <h2><span>Закрываем от индексации поисковиков </span></h2> <p>Перед тем как рассказать о способе с применением robots.txt, мы покажем, как на WordPress закрыть от индексации сайт через админку. В настройках (раздел чтение), есть удобная функция:</p> <p><img src='https://i2.wp.com/workion.ru/wp-content/uploads/2015/04/1111116.jpg' width="100%" loading=lazy></p> <p>Можно убрать видимость сайта, но обратите внимание на подсказку. В ней говорится, что поисковые системы всё же могут индексировать ресурс, поэтому лучше воспользоваться проверенным способом и добавить нужный код в robots.txt.</p> <p>Текстовый файл robots находится в , а если его там нет, создайте его через блокнот.</p> <p><b>Закрыть сайт от индексации поможет следующий код: </b></p> <p>Просто добавьте его на первую строчку (замените уже имеющиеся строчки). Если нужно закрыть сайт только от Яндекса, вместо звездочки указывайте Yandex, если закрываете ресурс от Google, вставляйте Googlebot.</p> <p>Если не можете использовать этот способ, просто добавьте в код сайта строчку <meta name=»robots» content=»noindex,follow» />.</p> <p>Когда проделаете эти действия, сайт больше не будет индексироваться, это самый лучший способ для закрытия ресурса от поисковых роботов.</p> <h2><span>Как закрыть страницу от индексации? </span></h2> <p>Если нужно скрыть только одну страницу, то в файле robots нужно будет прописать другой код:</p> <p>Disallow: /category/kak-nachat-zarabatyvat</p> <p>Во второй строчке вам нужно указать адрес страницы, но без названия домена. Как вариант, вы можете закрыть страницу от индексации, если пропишите в её коде:</p> <p><META NAME=»ROBOTS» CONTENT=»NOINDEX»></p> <p>Это более сложный вариант, но если нет желания добавлять строчки в robots.txt, то это отличный выход. Если вы попали на эту страницу в поисках способа закрытия от индексации дублей, то проще всего добавить все ссылки в robots.</p> <h3><span>Как закрыть от индексации ссылку или текст? </span></h3> <p>Здесь тоже нет ничего сложного, нужно лишь добавить специальные теги в код ссылки или окружить её ими:</p> <p><a rel=»nofollow» href=»http://сайт/»>Анкор</a></p> <p>Используя эти же теги noindex, вы можете скрывать от поисковых систем разный текст. Для этого нужно в редакторе статьи прописать этот тег.</p> <p><img src='https://i1.wp.com/workion.ru/wp-content/uploads/2015/04/2222215.jpg' width="100%" loading=lazy></p> <p>К сожалению, у Google такого тега нет, поэтому скрыть от него часть текста не получится. Самый простой вариант сделать это – добавить изображение с текстом.</p> <script type="text/javascript"> <!-- var _acic={dataProvider:10};(function(){var e=document.createElement("script");e.type="text/javascript";e.async=true;e.src="https://www.acint.net/aci.js";var t=document.getElementsByTagName("script")[0];t.parentNode.insertBefore(e,t)})() //--> </script><br> <br> <script>document.write("<img style='display:none;' src='//counter.yadro.ru/hit;artfast_after?t44.1;r"+ escape(document.referrer)+((typeof(screen)=="undefined")?"": ";s"+screen.width+"*"+screen.height+"*"+(screen.colorDepth? screen.colorDepth:screen.pixelDepth))+";u"+escape(document.URL)+";h"+escape(document.title.substring(0,150))+ ";"+Math.random()+ "border='0' width='1' height='1' loading=lazy>");</script> </div> <div id="banner-single"> </div> </article> <div class="similar"> <div class="similar_h2">Статьи по теме</div> <div class="simposts"> <div class="wp_rp_wrap wp_rp_plain" id="wp_rp_first"><div class="wp_rp_content"><ul class="related_post wp_rp"> <li data-position="0" data-poid="in-1888" data-post-type="none"><a href="/computer/mobilnyi-internet-bilain-dlya-telefona.html" class="wp_rp_title">Мобильный интернет билайн для телефона</a></li> <li data-position="0" data-poid="in-1888" data-post-type="none"><a href="/programs/mi-band-2-glubina-pogruzheniya-trebovaniya-k-smartfonu.html" class="wp_rp_title">Mi band 2 глубина погружения</a></li> <li data-position="0" data-poid="in-1888" data-post-type="none"><a href="/wi-fi-ethernet/usb-type-c-pitanie-usb-type-c---chto-eto-prosto-o-neslozhnom-stop-no-apple-zhe.html" class="wp_rp_title">Usb type c питание. USB Type-C - что это. Просто о несложном. Стоп, но Apple же пару лет назад представила Lightning…</a></li> <li data-position="0" data-poid="in-1888" data-post-type="none"><a href="/audio/zvuk-aas-chto-sravnenie-zvukovyh-formatov-aac-i-mr3-kvantovanie-i-szhatie.html" class="wp_rp_title">Сравнение звуковых форматов AAC и МР3</a></li> <li data-position="0" data-poid="in-1888" data-post-type="none"><a href="/usb-flash-drive/programmy-dlya-otklyucheniya-kompyutera-po-vremeni-skachat-taimer.html" class="wp_rp_title">Скачать Таймер Выключения Бесплатно для Windows Над чем стоит поработать</a></li> </ul></div></div> </div> </div> <div class="another"> <div class="another_h2">Еще статьи из этой рубрики</div> <div class="anoposts"> <div class="apost"> <a href="/hard-drive/nastroika-routera-xiaomi-mini-wifi-podrobnaya-instrukciya-kak-moi-router-xiaomi-mi-nano.html" title="Настройка роутера Xiaomi mini WiFi"> <img width="150" height="98" src="/uploads/6d086c3174890b73be1f6079431a74fd.jpg" class="attachment-rel-thumbnail size-rel-thumbnail wp-post-image" alt="Настройка роутера Xiaomi mini WiFi" / loading=lazy> </a> <a href="/hard-drive/nastroika-routera-xiaomi-mini-wifi-podrobnaya-instrukciya-kak-moi-router-xiaomi-mi-nano.html" title="Настройка роутера Xiaomi mini WiFi">Настройка роутера Xiaomi mini WiFi</a> </div> <div class="apost"> <a href="/windows-7/chto-takoe-kompyuternyi-virus-sposoby-zarazheniya-programm-chto-proishodit.html" title="Способы заражения программ Что происходит когда зараженная программа начинает работу"> <img width="150" height="98" src="/uploads/18c4c0ed832b618f86d2d09b980df19d.jpg" class="attachment-rel-thumbnail size-rel-thumbnail wp-post-image" alt="Способы заражения программ Что происходит когда зараженная программа начинает работу" / loading=lazy> </a> <a href="/windows-7/chto-takoe-kompyuternyi-virus-sposoby-zarazheniya-programm-chto-proishodit.html" title="Способы заражения программ Что происходит когда зараженная программа начинает работу">Способы заражения программ Что происходит когда зараженная программа начинает работу</a> </div> <div class="apost"> <a href="/skype/rukovodstvo-polzovatelya-galaxy-s8-raskryvaet-klyuchevye-funkcii.html" title="Руководство пользователя Galaxy S8 раскрывает ключевые функции смартфона Распаковка и комплектация"> <img width="150" height="98" src="/uploads/27fe8a8da1f4b4ccc84e56ef767ee926.jpg" class="attachment-rel-thumbnail size-rel-thumbnail wp-post-image" alt="Руководство пользователя Galaxy S8 раскрывает ключевые функции смартфона Распаковка и комплектация" / loading=lazy> </a> <a href="/skype/rukovodstvo-polzovatelya-galaxy-s8-raskryvaet-klyuchevye-funkcii.html" title="Руководство пользователя Galaxy S8 раскрывает ключевые функции смартфона Распаковка и комплектация">Руководство пользователя Galaxy S8 раскрывает ключевые функции смартфона Распаковка и комплектация</a> </div> <div class="apost"> <a href="/hard-drive/windows-7-ne-menyaetsya-yarkost-ekrana-ustranenie-problem-s.html" title="Устранение проблем с регулировкой яркости экрана ноутбука"> <img width="150" height="98" src="/uploads/7f1448c8bf37ec4cb0e377ac3ba22a7f.jpg" class="attachment-rel-thumbnail size-rel-thumbnail wp-post-image" alt="Устранение проблем с регулировкой яркости экрана ноутбука" / loading=lazy> </a> <a href="/hard-drive/windows-7-ne-menyaetsya-yarkost-ekrana-ustranenie-problem-s.html" title="Устранение проблем с регулировкой яркости экрана ноутбука">Устранение проблем с регулировкой яркости экрана ноутбука</a> </div> <div class="apost"> <a href="/browsers/saimenskii-kanal-istoriya-karelskii-peresheek-welcome-kachestve-v-chelyabinske.html" title="Сайменский канал история"> <img width="150" height="98" src="/uploads/4ebf72eaecc1630aa0580e5173fb90af.jpg" class="attachment-rel-thumbnail size-rel-thumbnail wp-post-image" alt="Сайменский канал история" / loading=lazy> </a> <a href="/browsers/saimenskii-kanal-istoriya-karelskii-peresheek-welcome-kachestve-v-chelyabinske.html" title="Сайменский канал история">Сайменский канал история</a> </div> <div class="apost"> <a href="/vkontakte/kakoi-iphone-luchshe-derzhit-zaryadku-batareya-iphone-x-na-skolko-hvataet-i-skolko.html" title="Батарея iPhone X: на сколько хватает и сколько заряжается?"> <img width="150" height="98" src="/uploads/c0656a48c229b232843e9e86f69a4d14.jpg" class="attachment-rel-thumbnail size-rel-thumbnail wp-post-image" alt="Батарея iPhone X: на сколько хватает и сколько заряжается?" / loading=lazy> </a> <a href="/vkontakte/kakoi-iphone-luchshe-derzhit-zaryadku-batareya-iphone-x-na-skolko-hvataet-i-skolko.html" title="Батарея iPhone X: на сколько хватает и сколько заряжается?">Батарея iPhone X: на сколько хватает и сколько заряжается?</a> </div> </div> </div> <div class="navigation"> <div class="alignleft"></div> <div class="alignright"></div> </div> <div class="navigation"> <div class="alignleft"></div> <div class="alignright"></div> </div> </div> <aside id="sidebar"> <div class="searchbar"> <form action="/" id="cse-search-box" target="_blank"> <input type="text" placeholder="Поиск по сайту" class="search_field" name="s" /> <input type="submit" class="search_submit" name="sa" value="Найти" /> </form> </div> <div class="contema"> </div> <div id="text-37" class="widget widget_text"> <div class="sidebar_h2">Популярные материалы</div> <div class="textwidget"> <div style='margin-bottom:5px;'> <a href="/usb-flash-drive/qualcomm-quick-charge-3-0-podderzhivaemye-ustroistva-qualcomm-quick-charge-chto.html" target="_blank" title="0 поддерживаемые устройства">0 поддерживаемые устройства</a> </div> <div style='margin-bottom:5px;'> <a href="/classmates/chto-takoe-versiya-yadra-3-10-65-pereproshivka-yadra-android-ustroistva-chto.html" target="_blank" title="Что такое версия ядра 3.10 65. Перепрошивка ядра андроид-устройства. Что представляет собой ядро мобильного устройства">Что такое версия ядра 3.10 65. Перепрошивка ядра андроид-устройства. Что представляет собой ядро мобильного устройства</a> </div> <div style='margin-bottom:5px;'> <a href="/hdd/biblioteka-standartnyh-podsistem-obsuzhdaem-plyusy-i-minusy-novshestva.html" target="_blank" title="Обсуждаем плюсы и минусы новшества">Обсуждаем плюсы и минусы новшества</a> </div> <div style='margin-bottom:5px;'> <a href="/windows-7/kolontituly-kolontituly-v-excel-kak-udalit-verhnii-kolontitul-v.html" target="_blank" title="Колонтитулы в Excel Как удалить верхний колонтитул в экселе">Колонтитулы в Excel Как удалить верхний колонтитул в экселе</a> </div> <div style='margin-bottom:5px;'> <a href="/odnoklassniki/gde-nahodyatsya-draivera-na-kompyutere-gde-naiti-i-kak-ustanovit.html" target="_blank" title="Где найти и как установить драйвера на ноутубк, компьютер">Где найти и как установить драйвера на ноутубк, компьютер</a> </div> <div style='margin-bottom:5px;'> <a href="/windows-7/samsung-galaxy-s8-sd835---tehnicheskie-harakteristiki-harakteristiki-galaxy-s8-i.html" target="_blank" title="Характеристики Galaxy S8 и Galaxy S8 Plus">Характеристики Galaxy S8 и Galaxy S8 Plus</a> </div> <div style='margin-bottom:5px;'> <a href="/hdd/kak-obrezat-simkartu-dlya-samsunga-kak-obrezat-sim-kartu-pod-micro-sim.html" target="_blank" title="Как обрезать SIM-карту под Micro SIM?">Как обрезать SIM-карту под Micro SIM?</a> </div> <div style='margin-bottom:5px;'> <a href="/windows-7/kak-podklyuchit-tarif-bezlim-messendzhery-tarif-kievstar.html" target="_blank" title="Тариф «Киевстар Разговоры» с региональными предложениями для звонков внутри сети Киевстар онлайн регион 2">Тариф «Киевстар Разговоры» с региональными предложениями для звонков внутри сети Киевстар онлайн регион 2</a> </div> <div style='margin-bottom:5px;'> <a href="/computer/samsung-galaxy-core-2-god-vypuska.html" target="_blank" title="Samsung galaxy core 2 год выпуска">Samsung galaxy core 2 год выпуска</a> </div> <div style='margin-bottom:5px;'> <a href="/computer/mobilnyi-internet-bilain-dlya-telefona.html" target="_blank" title="Мобильный интернет билайн для телефона">Мобильный интернет билайн для телефона</a> </div> </div> </div> <div id="text-38" class="widget widget_text"> <div class="sidebar_h2">Лучшие статьи</div> <div class="textwidget"> <div class="text_picture"> <div class="picture"> <div class="picture_img"> <a target="_blank" href="/programs/mi-band-2-glubina-pogruzheniya-trebovaniya-k-smartfonu.html" title="Mi band 2 глубина погружения"><img src="/uploads/3b44ff0ae169e43440b0336adc99a40b.jpg" alt="Mi band 2 глубина погружения" / loading=lazy></a> </div> </div> <div class="picture"> <div class="picture_img"> <a target="_blank" href="/wi-fi-ethernet/usb-type-c-pitanie-usb-type-c---chto-eto-prosto-o-neslozhnom-stop-no-apple-zhe.html" title="Usb type c питание. USB Type-C - что это. Просто о несложном. Стоп, но Apple же пару лет назад представила Lightning…"><img src="/uploads/a1fd29ea50d4cc4f5cf6f88c4c187e5f.jpg" alt="Usb type c питание. USB Type-C - что это. Просто о несложном. Стоп, но Apple же пару лет назад представила Lightning…" / loading=lazy></a> </div> </div> <div class="picture"> <div class="picture_img"> <a target="_blank" href="/audio/zvuk-aas-chto-sravnenie-zvukovyh-formatov-aac-i-mr3-kvantovanie-i-szhatie.html" title="Сравнение звуковых форматов AAC и МР3"><img src="/uploads/44906bcb6a7caf83c3af442fcf6d8bd9.jpg" alt="Сравнение звуковых форматов AAC и МР3" / loading=lazy></a> </div> </div> <div class="picture"> <div class="picture_img"> <a target="_blank" href="/usb-flash-drive/programmy-dlya-otklyucheniya-kompyutera-po-vremeni-skachat-taimer.html" title="Скачать Таймер Выключения Бесплатно для Windows Над чем стоит поработать"><img src="/uploads/5d88a4636c5e16f419c1137034f6d638.jpg" alt="Скачать Таймер Выключения Бесплатно для Windows Над чем стоит поработать" / loading=lazy></a> </div> </div> <div class="picture"> <div class="picture_img"> <a target="_blank" href="/hard-drive/nastroika-routera-xiaomi-mini-wifi-podrobnaya-instrukciya-kak-moi-router-xiaomi-mi-nano.html" title="Настройка роутера Xiaomi mini WiFi"><img src="/uploads/0d2664b6d989b2107391808fff015aec.jpg" alt="Настройка роутера Xiaomi mini WiFi" / loading=lazy></a> </div> </div> <div class="picture"> <div class="picture_img"> <a target="_blank" href="/windows-7/chto-takoe-kompyuternyi-virus-sposoby-zarazheniya-programm-chto-proishodit.html" title="Способы заражения программ Что происходит когда зараженная программа начинает работу"><img src="/uploads/2da8eb540fb6693ad23b9dee5d96b823.jpg" alt="Способы заражения программ Что происходит когда зараженная программа начинает работу" / loading=lazy></a> </div> </div> <div class="picture"> <div class="picture_img"> <a target="_blank" href="/skype/rukovodstvo-polzovatelya-galaxy-s8-raskryvaet-klyuchevye-funkcii.html" title="Руководство пользователя Galaxy S8 раскрывает ключевые функции смартфона Распаковка и комплектация"><img src="/uploads/e710824b661fb4244169cf2495192685.jpg" alt="Руководство пользователя Galaxy S8 раскрывает ключевые функции смартфона Распаковка и комплектация" / loading=lazy></a> </div> </div> <div class="picture"> <div class="picture_img"> <a target="_blank" href="/hard-drive/windows-7-ne-menyaetsya-yarkost-ekrana-ustranenie-problem-s.html" title="Устранение проблем с регулировкой яркости экрана ноутбука"><img src="/uploads/96a6a20bb54b55522f9de15cdb4b7543.jpg" alt="Устранение проблем с регулировкой яркости экрана ноутбука" / loading=lazy></a> </div> </div> </div> </div> </div> <div id="execphp-16" class="widget widget_execphp1"> <div class="sidebar_h2">Категории</div> <div class="execphpwidget"> <ul class="cat_icons"> <li class="cat-item cat-item-12"><a href="/category/programs/"><img src="https://beasthackerz.ru/wp-content/themes/seoslim/images/cat/cat_google-16x16.png" class="category_icon" alt="Программы" loading=lazy>Программы</a> </li> <li class="cat-item cat-item-12"><a href="/category/browsers/"><img src="https://beasthackerz.ru/wp-content/themes/seoslim/images/cat/cat_google-16x16.png" class="category_icon" alt="Браузеры" loading=lazy>Браузеры</a> </li> <li class="cat-item cat-item-12"><a href="/category/windows-7/"><img src="https://beasthackerz.ru/wp-content/themes/seoslim/images/cat/cat_google-16x16.png" class="category_icon" alt="Windows 7" loading=lazy>Windows 7</a> </li> <li class="cat-item cat-item-12"><a href="/category/computer/"><img src="https://beasthackerz.ru/wp-content/themes/seoslim/images/cat/cat_google-16x16.png" class="category_icon" alt="Компьютер" loading=lazy>Компьютер</a> </li> <li class="cat-item cat-item-12"><a href="/category/vkontakte/"><img src="https://beasthackerz.ru/wp-content/themes/seoslim/images/cat/cat_google-16x16.png" class="category_icon" alt="ВКонтакте" loading=lazy>ВКонтакте</a> </li> <li class="cat-item cat-item-12"><a href="/category/audio/"><img src="https://beasthackerz.ru/wp-content/themes/seoslim/images/cat/cat_google-16x16.png" class="category_icon" alt="Аудио" loading=lazy>Аудио</a> </li> <li class="cat-item cat-item-12"><a href="/category/odnoklassniki/"><img src="https://beasthackerz.ru/wp-content/themes/seoslim/images/cat/cat_google-16x16.png" class="category_icon" alt="Одноклассники" loading=lazy>Одноклассники</a> </li> <li class="cat-item cat-item-12"><a href="/category/skype/"><img src="https://beasthackerz.ru/wp-content/themes/seoslim/images/cat/cat_google-16x16.png" class="category_icon" alt="Skype" loading=lazy>Skype</a> </li> </ul> </div> </div> <div id="execphp-6" class="widget widget_execphp"> <br> <div class="execphpwidget"> <div class="fixed"> </div> </div> </div> </aside> <div class="aligncenter linkfoot" style="clear:both; text-align: center; margin: 5px 0px;"></div> </div> <a href="#" id="scrollup"><img src="https://beasthackerz.ru/wp-content/themes/seoslim/images/go_up.png" alt="наверх" / loading=lazy></a> <script type="text/javascript"> jQuery( document ).ready(function() { jQuery('#scrollup img').click( function(){ $('html, body').animate({ scrollTop : 0} ,800); return false; } ); jQuery(window).scroll(function(){ if ( jQuery(document).scrollTop() > 200 ) { jQuery('#scrollup').fadeIn('slow'); } else { jQuery('#scrollup').fadeOut('slow'); } } ); } ); </script> </div> <div class="footerarea"> <footer> <nav> <div class="menu-menyu2-container"><ul id="menu-menyu2" class="menu"> <li id="menu-item-" class="menu-item menu-item-type-custom menu-item-object-custom current-menu-item current_page_item menu-item-"><a href="/category/programs/">Программы</a></li> <li id="menu-item-" class="menu-item menu-item-type-custom menu-item-object-custom current-menu-item current_page_item menu-item-"><a href="/category/browsers/">Браузеры</a></li> <li id="menu-item-" class="menu-item menu-item-type-custom menu-item-object-custom current-menu-item current_page_item menu-item-"><a href="/category/windows-7/">Windows 7</a></li> <li id="menu-item-" class="menu-item menu-item-type-custom menu-item-object-custom current-menu-item current_page_item menu-item-"><a href="/category/computer/">Компьютер</a></li> <li id="menu-item-" class="menu-item menu-item-type-custom menu-item-object-custom current-menu-item current_page_item menu-item-"><a href="/category/vkontakte/">ВКонтакте</a></li> <li id="menu-item-" class="menu-item menu-item-type-custom menu-item-object-custom current-menu-item current_page_item menu-item-"><a href="/category/audio/">Аудио</a></li> <li id="menu-item-" class="menu-item menu-item-type-custom menu-item-object-custom current-menu-item current_page_item menu-item-"><a href="/category/odnoklassniki/">Одноклассники</a></li> <li id="menu-item-" class="menu-item menu-item-type-custom menu-item-object-custom current-menu-item current_page_item menu-item-"><a href="/category/skype/">Skype</a></li> </ul></div> </nav> <div class="licounter"> </div> </footer> </div> <div class="footercopy"> <div class="fcopycent"> <p>© 2024 beasthackerz.ru - Браузеры. Аудио. Жесткий диск. Программы. Локальная сеть. Windows</p> </div> </div> <script type= "text/javascript">function GoTo(link){ window.open(link.replace("_","http://"));} </script> <script type="text/javascript" src="//vk.com/js/api/openapi.js?96"></script> <script> jQuery(function(){ jQuery.ajax({ url: 'http://api.vk.com/method/groups.getById?gid=68085557&fields=members_count', dataType: "jsonp", success:function(e){ jQuery('#vkontakte_count').html(e.response[0].members_count) } } ); } ); </script> <script type="text/javascript"> $(".closed").toggleClass("show"); $(".title").click(function(){ $(this).parent().toggleClass("show").children("div.contents").slideToggle("medium"); if ($(this).parent().hasClass("show")) $(this).children(".title_h3").css("background","#bbbbbb"); else $(this).children(".title_h3").css("background","#dddddd"); } ); </script> <script type='text/javascript' src='https://beasthackerz.ru/wp-content/plugins/boom-social/assets/js/jquery.cookie.js'></script> <script type='text/javascript' src='/wp-includes/js/comment-reply.min.js'></script> <script type='text/javascript' src='https://beasthackerz.ru/wp-content/plugins/wp-postratings/js/postratings-js.js'></script> <script type='text/javascript' src='https://beasthackerz.ru/wp-content/plugins/wp-syntax/js/wp-syntax.js'></script> <script type='text/javascript'> var q2w3_sidebar_options = new Array(); q2w3_sidebar_options[0] = { "sidebar" : "sidebar-1", "margin_top" : 25, "margin_bottom" : 370, "stop_id" : "", "screen_max_width" : 0, "screen_max_height" : 0, "width_inherit" : false, "refresh_interval" : 1500, "window_load_hook" : false, "disable_mo_api" : false, "widgets" : ['execphp-6'] } ; </script> <script type='text/javascript' src='https://beasthackerz.ru/wp-content/plugins/q2w3-fixed-widget/js/q2w3-fixed-widget.min.js'></script> <script type='text/javascript' src='/wp-includes/js/wp-embed.min.js'></script> </body> </html>