выдача

3 причины, почему анализ топа не работает

В русскоязычной seo-среде распространен подход построения многих стратегий на основе конкурентов в ТОПе. Как давно вы анализировали выдачу, чтобы узнать оптимальное количество вхождений ключевого слова на странице, какого объема текст нужно заказать у копирайтера, или сколько ссылок оптимально приобрести? Или может вы использовали текстовые анализаторы, которые сами генерируют ТЗ копирайтерам и дают «правильные» рекомендации по оптимизации текстовых зон документа?

Конечно же, в эпоху Big Data грех не анализировать статистику, но можно ли на неё полагаться, если мы говорим о ТОП10 или даже ТОП50? Ниже приведены основные причины, почему анализ ТОПа не работает и как данные из выдачи использовать с умом.

3 причины провала seo-стратегий при построении их на основе анализа ТОПа

1. Мы не видим всю картину

Поисковые системы используют сотни факторов для ранжирования сайтов, и их значение по отношению друг к другу постоянно меняется. Всегда интересно посмотреть корреляцию одного из факторов с позицией в ТОПе, но корреляция, как вы знаете, не значит причинно-следственную связь. Если у всех сайтов в ТОП10 размер текста 3000 символов, то это совершенно ничего не значит. Размер вашего текста должен быть таким, который необходим для решения информационной потребности пользователя.

Что касается ссылок, для конкурентов мы их проверяем сторонними сервисами, но есть возможность скрывать ссылки от сервисов. Плюс, не все ссылки одинаково важны для поисковиков. А также, конкуренты могут отклонять ссылки в Disavow Tool для Google. Среднюю температуру по больнице знать интересно, но эти знания практически не применимы.

Вы можете подумать, что вручную картина видна не так масштабно, как с помощью текстовых анализаторов (ТА). Но ТА учитывают всего несколько факторов, а поисковые системы несколько сотен. Смысл в ТА мог бы присутствовать, если бы они могли формировать ТОП в поиске только на основе текстовых сигналов, но увы, это невозможно.

2. В ТОПе много сайтов, вносящих погрешность

Сейчас в ТОПе часто встречаются прайс-агрегаторы, доски объявлений, википедия, сервисы поисковых систем или бренды. Зачастую, в ТОПе они из-за популярности и авторитета, а не из-за количества ссылок или правильного распределения ключевых слов на странице. Эти сайты вносят большую погрешность в анализ единичных факторов.

Например, вы видите, как крупные сайты используют спойлеры для текстов в рубриках, плюс делают их неконтрастными и насыщенными ключевыми словами, что очень похоже на спам. При этом, сайты находятся в ТОПе, хотя во всех учебниках SEO учат другому. Какие ваши выводы? Можно ли использовать скрытые seo-тексты или все-таки нет?

Явно, что в ТОПе подобные сайты не из-за используемых спамных текстов. Будет ошибкой считать, что вам нужно что-то подобное в рубрики.

Также, в поисковой выдаче могут оказаться сайты, которые туда попали временно из-за накрутки тех или иных факторов. Они также вносят погрешность в ваш анализ ТОПа.

3. ТОП постоянно меняется

В некоторых тематиках ТОП консервировался, но в основном он меняется. И это хорошо, так как если бы ТОП не менялся, то у нас не было бы вариантов в него попасть. Но постоянные изменения вносят погрешность в анализ, мы не можем строить стратегии на том, что постоянно меняется.

Если вы когда-нибудь использовали кластеризаторы, то наверняка заметили, что полученные кластеры зависят не только от настроек инструмента, но и от времени съема выдачи. Через месяц-два выдача будет совсем другой и результаты кластеризации по ТОПу также будут другими. Это убивает практическую применимость подобных инструментов.

Но не всё так плохо. Анализ ТОПа иногда может помочь, если мы используем здравый смысл.

Задачи, где анализ ТОПа будет полезен

Определение конкурентности запроса/ниши.
Можно прикинуть, какие сайты встречаются в выдаче, с главной страницей или с внутренней, как давно они в этой нише и насколько авторитетны. Исходя из этого понять конкурентность ТОПа, оценить трудозатраты на присвоение статуса «лидер ниши».

Анализ совместимости ДВУХ запросов для продвижения на одной странице.
Иногда алгоритмы поисковых систем побеждают здравый смысл. И с этим пока нужно смириться. Если выдача по двум разным запросам, отражающим один и тот же интент, не пересекается, то с большой вероятностью продвинуть их на одной странице будет сложно. Поэтому, под «смартфоны» и «мобильные телефоны» лучше делать разные рубрики для Яндекса, под «лечение вальгусной деформации» и «избавиться от косточки на ноге» разные документы. И мы об этом не узнаем, если не посмотрим ТОП.

Найти тематические слова и фразы.
ТОП помогает быстрей найти так называемые LSI фразы для использования в своих текстах. Можно их, конечно, придумывать самому, но лучше проанализировать тексты той же тематики.

Улучшить свою стратегию.
Можно посмотреть, как удовлетворяет пользовательский интент каждый из сайтов в ТОП10, с помощью каких элементов сайта или контента, и решить эту задачу ещё лучше. Если пользователь на вашем ресурсе полностью решает свою задачу, он это покажет поведением и поисковые системы, со временем, будут ваш сайт показывать чаще.

Если вы пока не можете определить, решает ли ваш текст/контент информационную потребность вашей аудитории или нет, значит этому надо учиться, либо привлекать специалистов, постоянно проводить тесты.

Существуют также и другие ситуации, когда подглядывать в ТОП всё же полезно. Но классические задачи анализа ТОПа, когда нам необходимо узнать средне-статистические показатели и на их основе построить/откорректировать свои стратегии, практически не применимы. Выше приведены три причины. Предлагаю их обсудить в комментариях.

Длина тайтла в Google теперь 600px

Теперь результаты поисковой выдачи Google выглядят шире привычных, так как изменена ширина колонки с 512px до 600px. Если совсем недавно в отображаемый тайтл сайтов вмещалось около 60 символов (когда-то было до 70, но потом увеличили размер шрифта), то сейчас снова около 70 символов. Со средней длиной слова в русском языке 7.2 символа получается, что в тайтл можно вместить до 10 слов. При этом, количество учитываемых в тайтле слов так и осталось – 12 первых слов (остальные воспринимаются как текст).

Почему раньше ширина тайтла составляла 512px? Возможно, из-за первых 9-дюймовых макинтошей с разрешением 512×342 пикселя. Но сейчас размер экранов у десктопов постоянно расширяются и наиболее популярное разрешение (судя по разным источникам) составляет 1366×768 пикселей. А минимальное из популярных разрешений это 1024×768. В любом случае, любые интерфейсные изменения в серьезных компаниях внедряются после тестирования и, скорей всего, тестирование показало хорошие результаты в плане пользовательского опыта.

Что рекомендуется сделать вебмастерам в связи с раширением длины тайтла в Google? Особенно если этот поисковик для вас приоритетный.

1. Сравните CTR своих сниппетов до и после 4 мая 2016

Сотрудники Moz в соответствующей ветке Reddit прокомментировали, что не заметили в кликовых данных пользователей значительных изменений в CTR. Однако, для некоторых сайтов эти данные могли сильно измениться, как в положительную, так и в отрицательную сторону, в зависимости от качества заголовков.

Проверьте, какой CTR в выдаче был для разных страниц вашего сайта до 4 мая и после этой даты. Это можно сделать с помощью Google Search Console в разделе “Поисковый трафик” — “Анализ поисковых запросов”, где необходимо выбрать “CTR”, поставить фильтр типа поиска только “Веб” и выбрать нужные даты для сравнения.

Также нужно проверить изменение CTR по разным запросам и для разных страниц, так как средняя цифра скажет о сайте в целом, но возможно один из разделов сайта покрывает все недостатки другого и по одной цифре вы этого не заметите. В целом, если изменения лишь положительные, то за вас можно только порадоваться! 🙂 В противном случае проверяйте тайтлы и вносите изменения.

2. Перепроверьте отображение всех тайлов ваших продвигаемых страниц в поисковой выдаче

Плохой CTR возможен из-за разных причин:

— Несоответствие посадочной страницы поисковому интенту пользователя.
Иногда это видно по заголовку. Например, пользователь искал отзывы о конкретном месте.

В данном случае CTR будет зависеть от наличия топонима в тайтле – пользователю интересна Ogema либо в Канаде, либо в США, между этими Огемами как минимум 500 км. Также CTR здесь сильно зависит от фразы “0 отзывов” – пользователь, если заметит (а это явно видно, что отзывов именно 0), то не кликнет на первый результат. Другими словами, по тайтлу часто видно, будет ли удовлетворен интент или нет. Часто эти признаки участвуют в формуле ранжирования и поисковики стараются не показывать высоко те результаты, которые заведомо не смогут удовлетворить поисковый интент пользователя.

— Плохо составленный заголовок
Короткие или очень длинные или спамные заголовки поисковики исправляют сами, предоставляя пользователю только важную информацию. Однако, в некоторых случаях заголовок остается таким, каким его прописал вебмастер. И чаще всего вебмастер не копирайтер и тем более не тестировал разные заголовки на контекстной рекламе, поэтому ориентировался на свою внутреннюю интуицию, либо просто на seo-критерии. Но все люди разные и интуиция бывает подводит, поэтому в лучшем случае заголовки нужно тестировать, либо же привлекать опытных специалистов, чтобы составить оптимальные шаблоны. При повторной проверке заголовков, как минимум, посоветуйтесь со своими коллегами, считают ли они их нормальными в плане привлекательности и возможности генерации оптимального CTR.

— Плохо отображаемый заголовок
Заголовок может быть хорошо составлен, но из-за ограничений длины или по другим причинам отображаться не так, как вы это планировали. Как раз в этом случае, по цифрам изменения CTR из-за майских обновлений Google, вам легче будет найти те варианты, которые снизили CTR. Возможно, в тайтл попали лишние ненужные слова или цифры. Это можно определить только визуально, придется проделать много ручной работы.

Если вы уверены, что заголовки составлены хорошо, то для автоматизации проверки рекомендую исключать из результатов парсинга тайтлов те варианты, которые включают в себя реальный заголовок страницы. То есть, остаются для проверки лишь обрезанные варианты или видоизмененные самим поисковиком.

3. Проверьте отображение текстового сниппета

Также проверьте мета-описания, особенно если вы их раньше подгоняли под размер 512px и делали визуально привлекательными за счет utf-символов. При изменении ширины вся визуализация могла “поехать”.

В целом, изменения ширины до 600px считаю хорошим нововведением, так как можно использовать больше слов для описания посадочной страницы. А каково ваше мнение? Также делитесь своими наблюдениями по теме.