Дорогие друзья! Нам нетерпелось выложить сайт в новом варианте дизайна, но над внутренними страницами мы ещё работаем. Если Вас заинтересовала какая-то услуга - пожалуйста позвоните нам по номерам в шапке сайта!

Продвижение сайтов. Как проверить выполнение работ

14 ноября 2017

Инспектирование SEO продвижения для непрофессионалов

В этой статье я расскажу владельцам бизнеса и заказчикам услуг интернет-маркетинга, как проверить честность и исполнительность seo-оптимизаторов. Это не гайд по продвижению сайтов, а именно набор маркеров для людей, не обладающих особыми познаниями в SEO, позволяющий определить, действительно ли на вашем сайте и за его пределами ведутся какие-либо работы по продвижению и насколько успешно это происходит.

Первый совет читателям: не надо перебарщивать в ожиданиях. Некоторые вещи действительно могут месяц-два дожидаться своей очереди, некоторые изменения учитываются поиском с большой задержкой. Вы можете расстаться с текущими исполнителями продвижения сайта, потратить время и деньги на перезапуск кампании с другими людьми, но не получить прироста в качестве услуг, т.к. проблема была не в сеошниках, а в банальной нехватке времени для достижения требуемого результата. Обращайте внимание на временные рамки выполнения по каждому виду работ в тексте.

Предисловие

За последние 2 месяца ко мне обратилось за аудитом сайта больше клиентов, чем за 2 года работы. Все случаи как под копирку: «Продвигаем сайт – результата нет. Хотим понять почему.» Тут бы порадоваться. Приходит сомневающийся клиент, обещаешь ему золотые горы, берешь деньги, а дальше как карта ляжет. В «Это-Веб» все иначе, и если я даю прогноз на долгосрочную перспективу, мне же лично приходится держать ответ за достижение поставленных целей. Так что, прежде чем пообещать какой-то результат, следует убедиться в его достижимости и несколько раз проверить свои умозаключения. Собственно, этим я и занимался последние пару месяцев.  Достаточное количество аудитов дало более или менее точную статистику. Дорогой читатель, это вызвало у меня шевеление волосяных покровов по всему телу. В 75% случаев (9 сайтов из 12) проблемы в продвижении связаны не с ошибками в сложных операциях или недостаточной проработкой отдельных не очевидных направлений, а с банальным невыполнением базовых работ по оптимизации сайта. Того, что принято делать в первую очередь сразу после размещения сайта в сети. Результатом невыполнения оптимизатором этих базовых работ является упущенная выгода, потери времени и денег. Последний случай, герои которого прочитав это наверняка себя узнают, как раз и сподвиг меня на написание данной статьи. В общем ситуация:

Звонит менеджер серьезного предприятия, излагает проблему. Недавно сделали корпоративный сайт с каталогом продукции завода, ориентированный на оптовую продажу той самой продукции. Его уже 2 месяца продвигают в довольно крупной и уважаемой компании, а результатов нет. Я объясняю, что подчас 2 месяцев действительно недостаточно для достижения топовых позиций по нужным поисковым запросам. Менеджер говорит, что их нет в поиске даже по названию компании (название ни с чем популярным не созвучное, не дублирующееся в других компаниях, в написании однозначно понятное). Подумал про себя, что уж это за 2 месяца сделать совсем просто. Предлагаю перво-наперво взглянуть на общие характеристики сайта. Прикинуть объем работ «на глазок». Проходит 2 минуты и у меня уже все кипит. Проверяю количество страниц в индексах Яндекс и Google. Везде ноль. Захожу в robots.txt - там 2 строки:


User-agent:*

Disallow: /


Это значит, что сайт не допускается индексировать ни одной поисковой системе. То есть он принудительно изолирован от поиска. Эти две строки знакомы каждому seo-шнику с его seo-шных пеленок.

При этом 2 месяца компания-оптимизатор берет деньги за продвижение сайта в поиске.

Как если бы вы приехали на заправку, а вам вместо того чтобы залить бензин сняли колеса. И еще денег за бензин бы потребовали.

Короче, ситуация сюрреалистичная и, к сожалению, не единичная. Чтобы с вами такого не происходило, и не приходилось прибегать к помощи дорогостоящих специалистов для понимания реального положения дел, я описал несколько способов проверки поисковой оптимизации по фактам.



Инструменты для проведения инспекции SEO-оптимизации

webmaster.yandex.ru – сервис для вебмастеров, позволяющий управлять усвоением сайта поисковыми системами. Скорее всего придется попросить доступ у оптимизатора.

Text.ru – сервис для проверки значимых для поиска параметров текста.

Естественно для проверки нужен отчет о проделанной работе от ваших оптимизаторов. За прошедший месяц, например. Или за квартал. Если этот отчет вам отказываются предоставить по требованию, стоит поискать других подрядчиков сразу, не тратя время на дальнейшую проверку.

В предоставленных отчетах обязательно будут фигурировать некоторые из рассмотренных ниже действий, и вы с помощью этой статьи сможете реально проверить, выполнялись ли указанные работы.



Внутренняя оптимизация.

Процентов 80 работы обычно приходится на нее (по крайней мере у меня). Внутренняя оптимизация включает генерацию и правку контента, а также оптимизацию программного кода сайта. По сути сайт приводится к виду, при котором поисковые системы будут воспринимать его наилучшим образом, и, как следствие, ставить на лучшие места в поисковой выдаче. Рассмотрим самые очевидные и легкопроверяемые вещи, связанные с внутренней seo оптимизацией сайта.


Текстовая оптимизация

Так же может упоминаться как: уникализация текстов, seo-копирайт или рерайт, оптимизация текста под ключевые слова и т.д.

В чем суть работы: целевая страница насыщается ключевыми словами из списка продвигаемых.

Пример: На сайте по продаже посуды есть страница «столовые приборы». Владелец сайта хочет быть первым в поиске по запросу «чайные ложки», а на этой странице написано только про ножи и вилки, следовательно, позиции в поиске плохие. Оптимизатор органично встраивает в текст информацию о ложках, несколько раз написав в тексте слова «чайные ложки». В контексте количества упоминаний текст в интерпретации машины становится про чайные ложки. Поисковые роботы замечают, что на сайте появилась информация о чайных ложках и повышают сайт в результатах поиска по соответствующим запросам: «чайные ложки», «чайные ложки купить», «чайные ложки цена» и т.д.

Как проверить:

  1. Запрашиваем у оптимизатора список страниц, на которых была произведена текстовая оптимизация

  2. Сначала смотрим визуально на оптимизированные страницы. Если вы хорошо помните где и что у вас на сайте размещено (например, вы сами его заполняли), то сможете увидеть изменения невооруженным глазом.

  3. Если на глаз изменения не определяются, заходим на text.ru/seo
  4. Копируем текст с проверяемых страниц в форму на сайте и запускаем проверку.

Для описанного выше примера со столовыми приборами, где основной продвигаемый запрос – «чайные ложки», мы видим:



В ключевых словах по группам мы видим в топе упоминаний «чайные ложки» в разных склонениях. Это значит, что умышленно или нет страница приведена к приемлемому виду.

 Если в ключевых словах мы видим вилки, ножи, посуду, а ложки в 7-10 и далее строке - значит текст на странице не подвергался оптимизации под «чайные ложки»

 Можно проверить намного точнее потратив лишних 10-15 минут, но, во-первых, это сложнее и потребует более подробного объяснения, а во-вторых, в большинстве случаев этой простой проверки достаточно.


Написание текстов

Так же может упоминаться как: генерация контента, создание текстовых страниц, написание seo-статей, написание продающих/уникальных/ориентированных на поиск текстов.

В чем суть работы: В отличие от предыдущего пункта, здесь текст не изменяется, а пишется с нуля силами самого оптимизатора или копирайтера. Обычно это 1-5 статей в месяц для сайтов с явным дефицитом контента.

Пример: Есть интернет-магазин натуральной косметики http://krymmasla.ru. В разделе krymmasla.ru/biblio/ время от времени публикуются статьи о представленной продукции, ее свойствах и применении. Во-первых, все поисковики приветственно относятся к регулярно обновляемым сайтам. Во-вторых, в такие статьи можно вживить ссылки на продвигаемые страницы, что позитивно повлияет на позиции сайта в поиске.

Как проверить:

В первую очередь запрашиваем у оптимизатора адреса размещенных статей.

Далее, прогоняем их в text.ru/antiplagiat . Если уникальность ниже 90% - требуйте переделать.

Если с уникальностью порядок, заходим в webmaster.yandex.ru в пункт «информация о сайте» подпункт «оригинальные тексты». Видим список, где тексты представлены вот так:

   

Наличие текстов в списке вебмастера – это обязательная перестраховка на случай плагиата (яндекс будет считать ваш сайт первоисточником), которая впрочем помогает увидеть когда и сколько текстов было отправлено.

Факт выполнения работы – это текст, размещенный на сайте, уникальный и занесенный в оригинальные тексты в  webmaster.yandex.ru.

Если что-то из этого не соответствует действительности – работу можно считать не выполненной.


Мета-данные

Так же может упоминаться как: внесение/правка/написание мета-тэгов или мета-данных, что-либо со словами title, description, keywords.

В чем суть работы: Страницы сайта содержат в себе дополнительные данные: description – описание страницы, title – заголовок страницы, отображаемый в окне браузера на вкладке сайта, и keywords – ключевые слова страницы. В коде сайта они выглядят так:


Эти три строчки должны быть отличны от аналогичных данных на других страницах сайта и содержать в себе ключевые слова, по которым продвигается сайт.

Пример: В куске кода, приведенном выше, заполнены мета-данные для сайта по продаже бытовок в Туле. Там все наглядно. Заполнение мета-данных для этой страницы заняло 10-20 минут.

Как проверить:

Нажимаем в пустом месте на сайте правую кнопку мыши и выбираем пункт «просмотр кода страницы» или что-то похожее. В хроме можно нажать Ctrl+U.

Откроется код страницы. Там надо отыскать руками или поиском (Ctrl+F) слова title, description, keywords. Если они выглядят как в приведенном фрагменте кода с поправкой на тему вашего сайта – все хорошо. Есть еще два варианта. Мета-данные могут быть пустыми


Или содержать информацию не по теме страницы либо не содержать назначенных для этой страницы продвигаемых ключевых фраз


Это значит работа по их генерации/оптимизации проведена не была.

Обычно достаточно проверить самые важные страницы сайта, но если у вас интернет-магазин, в котором десятки или сотни страниц претендуют на топы в поиске, можно воспользоваться специальным ПО. Мы в «Это-Веб» используем:

Netpeak spider – платная (и не дешевая), но очень крутая программа. Если вы не профессиональный оптимизатор сайтов, тратить на нее деньги не стоит, за исключением случаев, если у вашей компании несколько сайтов с большим количеством страниц.

Xenu – программа проще нетпика, но для нашей проверки уступает коммерческому ПО не сильно.

Использовать эти сервисы довольно просто. Добавляете url (адрес) продвигаемого сайта, запускаете проверку и смотрите в таблице результатов на наличие и содержание тайтлов, дескрипшенов и кейвордсов для текстовых страниц (тип страницы text/html).


Оптимизация структуры сайта

Так же может упоминаться как: структурирование сайта, проработка/исправление структуры сайта, правка логической структуры.

В чем суть работы: Поисковики воспринимают структуру сайта не обязательно так, как она воспринимается пользователем. В определении структуры сайта роботы полагаются на url-ы  страниц сайта (их адреса). Если между фактически определенной структурой и желаемой есть различия, оптимизатор исправляет эту ситуацию, перемещая страницы сайта через систему управления на правильные места, и следит за тем, чтобы поисковые системы верно воспринимали эти изменения.

Пример: Есть сайт компании, занимающейся бурением и лицензированием артезианских скважин. Соответственно продвигается по группам фраз «бурение скважин» и «лицензирование скважин». На нем есть раздел «услуги», в котором около 20 различных услуг: геологические изыскания, получение разрешений на недропользование, бурение скважин малой глубины, бурение на песок или известняк и т.д. Они находятся в одном разделе и визуально поделены на «бурение» и «лицензирование», но адреса страниц услуг выглядят как «site.ru/uslugi/burenie-1/». Выходит, что мы продвигаем раздел «услуги» и по запросу «бурение скважин», и по запросу «лицензирование скважин». Но, сводя вместе эти 2 темы, мы сильно потеряем в качестве продвижения. Придется оптимизировать страницу под удвоенное количество запросов и вероятность не выгодной для последующего продвижения интерпретации этой страницы поисковыми системами многократно возрастет.

Нам следует создать два подраздела «услуг»: «бурение скважин» и «лицензирование скважин». Url site.ru/uslugi/burenie-1/ будет выглядеть как site.ru/uslugi/burenie/1/, а продвигать мы будем site.ru/uslugi/burenie/ и site.ru/uslugi/license/ по соответствующим группам запросов, концентрируя в этих подразделах целевой контент для бурения и лицензирования соответственно.

И поиск должен понять эту структуру.

Как проверить:

Проверяется последний момент, как поиск видит структуру сайта. Для этого заходим в https://webmaster.yandex.ru/sites/ и переходим к своему сайту. В левом меню есть вкладка «Индексирование». Находим в ней структуру сайта. Структура будет показана в виде древа разделов и подразделов:

Структура сайта в Яндекс.Вебмастер

Обратите внимание, что в структуре не отображаются конечные страницы вроде «контактов» или «о компании». В данном примере мы видим раздел продукции «fat_traps» и три его подраздела, что соответствует реальной структуре сайта. Здесь все хорошо, оптимизатор сделал все правильно. Если вы увидели на этом экране структуру отличную от той, что реально есть на сайте, и при этом ваш оптимизатор отчитался по работе со структурой сайта, значит, в реале работа не была выполнена или выполнена не полностью.


Карта сайта

Тут есть небольшие разночтения. Созданием карты сайта называют и генерацию служебного файла sitemap.xml (для поисковых роботов), и составление структурированного списка из ссылок на страницы сайта (для пользователей). По сложившемуся неписанному правилу про xml-файл пишут «создание файла sitemap.xml», а про список ссылок – «создание карты сайта». Но встречаются исключения.

Так же может упоминаться как: создание карты сайта, файла карты сайта, sitemap.xml, создание страницы навигации


Файл sitemap.xml

В чем суть работы: Через систему управления сайтом, специальные сервисы или в ручном режиме оптимизатор создает файл со списком индексируемых страниц сайта с указанием дат их последнего изменения.

Пример: выглядит этот файл примерно так


Как проверить:

Набираем в адресной строке адрес вашего сайта и окончание /sitemap.xml. Например http://www.eto-web.ru/sitemap.xml

Видите код пестрящий тегами как на картинке в примере? Все ок. Видите ошибку 404 – файла нет или он лежит не на своем месте. Значит эта работа не выполнена.


Карта сайта для пользователей

Карта сайта обычно размещается на специальной странице ошибки 404 (страница не найдена). Таким образом, пользователь или поисковый робот при переходе на несуществующую страницу не уходит с сайта, а попадает на интерактивную карту, откуда можно перейти в любую точку сайта. Так же карта может размещаться в футере и на отдельной странице «карта сайта».

В чем суть работы: Оптимизатор составляет структурированный список всех страниц и разделов на сайте в виде списка ссылок. Это простая, но подчас довольно муторная и долгая работа. Может занять 1 час или целый день.

Пример: На примере простого сайта это выглядит так:


На более крупных сайтах может выглядеть так:  aeroflot.ru/ru-ru/sitemap

Если ни на специальной странице, как на сайте аэтофлота, ни на странице ошибки, как на нашем сайте, нет списка разделов – эта работа не выполнена.


Написание и корректировка файла robots.txt

Так же может упоминаться как: написание/создание/правка/корректировка/оптимизация инструкций для поисковых роботов или поисковых систем.

В чем суть работы: Данный файл содержит инструкции по индексации сайта в формате

Поисковая система Яндекс:

   индексируй такие страницы

   не индексируй такие страницы

Поисковая система Google:

   индексируй такие страницы

   не индексируй такие страницы

С помощью этого файла мы даем знать поисковым роботам о тех страницах, которые не нужны в поиске. Это могут быть дубли или страницы служебного толка (например, страница оформления заказа или политика конфиденциальности). Для продвижения сайта в поиске это очень важно. Выглядит это как список инструкций, в зависимости от структуры сайта это может быть и 4, и 150 строк.

Пример:

Визуально файл robots.txt выглядит так


Как проверить:

Начнем с того, что этот файл должен существовать. Находиться он должен строго по адресу ваш-сайт/robots.txt. Понять правильность инструкций в robots.txt неспециалисту довольно трудно. Есть два варианта: можно по-быстрому изучить синтаксис по одному из множества гайдов, которые проще простого находятся в интернете (например в справке от яндекса https://yandex.ru/support/webmaster/controlling-robot/robots-txt.html ), или не делать этого и обратить внимание на следующие моменты:

Первая строка должна содержать: 
User-agent: *
Или
User-agent: имя поискового робота (Googlebot, YandexBot, Slurp и др.)
 
Должна быть закрыта папка с системой управления. Это директивы похожие на
Disallow: /bitrix/
Disallow: /admin/

Должно быть указано основное зеркало сайта. Это строчка, начинающаяся со слова host
Должен быть указан путь к карте сайта (той, что для поисковых систем). Строчка, начинающаяся со слова sitemap.

Инструкции Sitemap и host обычно пишут в самом конце файла.

Если что-то из этих четырех пунктов отсутствует – с вероятностью 95% файл robots.txt не подвергался оптимизации.



Редирект с версии с WWW на без WWW

Так же может упоминаться как: похожие трудно произносимые фразы.

В чем суть работы: Поисковые системы воспринимают как разные сайты site.ru и www.site.ru. Соответственно страница site.ru/1/ будет восприниматься как дубль www.site.ru/1/ или наоборот.  Чтобы не происходило подобной путаницы один из сайтов принимается за основной, а со второго настраивается перенаправление (редирект) на основную версию. При этом совершенно неважно, какая версия будет основной, с www или без www. Перенаправление настраивается короткой инструкцией в системном файле .htaccess за 10-15 минут чистого времени.

Пример:

<IfModule mod_rewrite.c>
Options +FollowSymLinks
RewriteEngine on
RewriteCond %{HTTP_HOST} ^www\.site\.ru$ [NC]
RewriteRule ^(.*)$ http://site.ru/$1 [R=301,L]
</IfModule>

Я нашел этот код в интернете меньше чем за 1 минуту. Он копируется в файл .htacess и site.ru заменяется на адрес реального сайта. Вот и все, перенаправление настроено.

Как проверить:

При попытке перехода на сайт с www и без www мы должны оказываться каждый раз на 1 и той же версии сайта.

Ввели www.site.ru – попали на www.site.ru

Ввели site.ru – все равно попали на www.site.ru

Если получается зайти и на site.ru, и на www.site.ru – перенаправление не настроено.


Микроразметка по schema.org

Так же может упоминаться как: микроразметка, мета-разметка страниц.

В чем суть работы: речь идет о семантической разметке, позволяющей поисковым системам структурировать информацию на сайте и более эффективно ее использовать. Оптимизатор добавляет в код сайта описания объектов по стандарту schema.org


Пример:

Оптимизатор вписывает в код сайта пояснения для поисковых систем по отдельным объектам на странице сайта:


Проиндексировав эти указания поисковики будут воспринимать и воспроизводить информацию со страницы структурно:


Как проверить:

В Яндекс.Вебмастере заходим в «Инструменты» и находим «валидатор микроразметки».

Вставив адрес размеченной страницы, вы увидите всю разметку, которая там есть. Если показанная информация несет какую-то смысловую нагрузку, то все в порядке:

Если видим только строку resource и никакой структурированной информации, значит работы по микро разметке не проводились.



Внешняя SEO оптимизация сайта

Сегодня можно сколько угодно писать о том, что ссылочное продвижение не работает, что покупать их бесполезно, однако все или почти все в той или иной мере этим занимаются. Многие очень успешно. И если несколько лет назад любой менеджер любой seo-компании на вопросы о том, где и какие ссылки приобретаются на клиентские сайты, мог не отвечать, мотивируя это «коммерческой тайной», то сейчас это вопрос безопасности сайта заказчика, т.к. результатом ошибок оптимизаторов в закупке ссылок может стать попадание под фильтры поисковых систем. Важно проверять качество площадок, на которых размещаются ссылки на ваш сайт, причем на то есть очень удобный инструмент в Яндекс.Вебмастере.


Закупка ссылок

Так же может упоминаться как: публикация платных статей на сторонних ресурсах, размещение ссылок и т.п.

В чем суть работы: вебмастер напрямую или через площадку-посредника на коммерческой основе договаривается о размещении ссылки(-ок) на сайт заказчика с некого стороннего ресурса. Если ресурс качественный – это пойдет на пользу позициям сайта в поиске и приведет дополнительный живой траффик с сайта-донора.

Пример:

http://comfort-da.ru/pokupka-mjebjeli-v-stilje-barokko-standartnaja-ili-na-zakaz/

Как проверить:

Заходим в webmaster.yandex.ru в раздел «ссылки» подраздел «внешние ссылки». Там список ссылок с разных сайтов отсортированный по датам. В этом списке мы ищем ссылки с сайтов, не являющихся агрегаторами и сервисами парсинга, а представляющие собой информационные или коммерческие сайты с текстом ссылки, содержащим продвигаемые ключевые слова. Нюанс состоит в том, что ссылки такого рода попадают в индекс не сразу. Обычно на это уходит 1-2 месяца после покупки. Таким образом, если вы не видите ссылок на ваш сайт с разного рода статей, новостей и информационных страниц других сайтов в течении 2-3 месяцев после того, как оптимизатор заявил об их покупке, – ссылки не покупаются.

Надеюсь, эта статья поможет потребителям услуг seo продвижения в контроле выполнения работ по их сайтам и установлении здоровой рабочей атмосферы с seo-оптимизаторами. Если вы искали и не нашли здесь какой-то опции, которую хотели бы проверить, обнаружили ошибку или неточность – пишите мне на a.shestavin@eto-web.ru.


Возврат к списку

© ИП Шеставин А.Ю., 2023