Содержание
- Прокачали EEAT, но не получили «вау-эффекта»? Рассказываем почему
- Бот видит одно, пользователи — другое. Разбираем проблему
- Поисковик не подозревает о существовании страниц. Выводим их из тени
- Сайт теряет позиции в выдаче. Решаем задачку со звездочкой
- Трафик не приносит продажи. Превращаем посетителей сайта в лидов
Про факторы EEAT написаны десятки статей. Если у вас медицинский сайт, вы точно их читали, а может даже строили на этом SEO-стратегию.
Я же решил порушить скрепы и рассказать, что EEAT — играют вовсе не ключевую роль в продвижении ресурса о здоровье. Есть более важные вещи, о которых часто забывают.
Слышали понятие комплексная терапия? Это когда лекарства работают только совместно. Можно выпить сколько угодно кальция, но он не усвоится без витамина D.
Так же и с EEAT — пока на сайте есть типовые технические ошибки, он будет плохо ранжироваться, даже если загрузить 20 сертификатов.
В статье расскажу, с чем «принимать» EEAT, чтобы получить максимальную пользу для сайта. И покажу, как это работает на наших кейсах.
Прокачали EEAT, но не получили «вау-эффекта»? Рассказываем почему
Впервые аббревиатуру использовали в 2014 году в инструкции Google по проверке сайтов. В ней подробно расписаны факторы, которые влияют на ранжирование.
В 2022 году к аббревиатуре добавили еще одну букву E-E-A-T — опыт (Experience), экспертность (Expertise), авторитетность (Authoritativeness) и достоверность (Trust).
Когда Google опубликовал эти критерии, вокруг них появился культ. Произошло это потому, что правила оптимизации ресурсов всегда были размытые: без четких критериев и чек-листов. И вдруг появились EEAT, про которые в руководстве Google написан целый раздел.
Такой сгусток информации не мог остаться без внимания. И все побежали писать статьи про EEAT и строить на них стратегию продвижения. Но это не дает эффекта — и сейчас расскажу почему.
Работа факторов по большей части построена на оценке асессоров. В теории должно быть так: асессор Google заходит на сайт медицинской клиники и чекает, соответствует ли он критериям EEAT:
- есть ли сертификаты и лицензии;
- подтверждены ли опыт и квалификация врачей;
- есть ли отзывы пациентов;
- не противоречит ли контент общепринятому мнению;
- ссылаются ли на него другие площадки.
Сайты, где соблюдаются все пункты, получают более высокую оценку и продвигаются в поиске. Логично? Логично. Но!
При этом я не призываю полностью игнорировать EEAT. Частично они вшиты в алгоритм. Но это даёт лишь общее понимание, что поисковый робот будет искать конкретные пунктики на страницах той же медицинской тематики, и огорчится, если не найдет.
К EEAT надо относиться, как одной из десятков рекомендаций поисковых систем. Вот что в руководстве Google сказано о качестве сайта:
- делайте экспертный контент;
- работайте над репутацией ресурса;
- стройте качественный ссылочный профиль.
А вот несколько характеристик некачественной страницы:
- шокирующий заголовок;
- навязчивая реклама;
- отрицательная репутация;
- недостоверная информация.
Теперь, внимание, вопрос. Чем это отличается от стандартных рекомендаций любого поисковика по работе над качеством ресурса? Правильно, ничем.
Получается, EEAT — это общие правила, но далеко не залог успеха.
А теперь покажу на примерах, что надо оптимизировать на сайтах, прежде чем приниматься за EEAT.
Бот видит одно, пользователи — другое. Разбираем проблему
Мы всегда начинаем проекты с технических настроек. Чтобы сайт продвинулся в поиске, его должны хорошо видеть роботы. Это база, без которой все остальные улучшения бессмысленны.
Как это работает, покажем на примере нашего клиента — аптечной сети известного бренда. Когда компания пришла к нам на продвижение, у нее уже был хороший трафик — больше 2 тысяч посещений в день. Но хотелось еще круче.
Мы увидели, что большинство пользователей приходили по брендовым запросам. Если в поиске забивали название сети или просто искали аптеку, сайт выходил одним из первых. А если гуглили капли для глаз — в выдачу не попадал. Здесь и терялись потенциальные лиды.
При этом контент сайта уже был оптимизирован: размещены и экспертные статьи от врачей, и сертификаты. Но в Google — ничего, кроме брендовых запросов.
Сняли позиции и заметили, что по большинству запросов поисковые системы определяют как релевантную только главную страницу. В отчетах поисковиков увидели массу непроиндексированных страниц.
Большинство страниц были помечены как «неудобные для мобильных» и открывались как HTML-шаблон. То есть вот как сайт выглядел на самом деле.
А вот как его видел робот.
Бот считывал только болванку с хедером и футером, которая на 99% похожа на любую другую страницу. А раз так — страница отправлялась в топку.
Это головная боль всех сайтов с JavaScript. Роботы плохо умеют их сканировать и постоянно помечают устаревшими или не адаптированными для мобильных. Поисковики заверяют, что с 2015 года поддерживают индексацию SPA сайтов и страниц с частичным использованием JavaScript. Но в реальности таким сайтам просто не достается трафик. Об этой проблеме мы уже писали в блоге.
«Лечится» это настройкой SSR. Сняли обязанности рендера с ботов и отдали эту работу серверу. Это сильно снизило вероятность ошибки во время рендеринга, так как все элементы JavaScript стали загружаться в исходном HTML. Поисковый робот смог увидеть страницу целиком и ранжировать ее.
Сразу после настройки число проиндексированных страниц выросло в 4 раза.
Сайт стал показываться не только по брендовым запросам.
С отрисовкой страниц разобрались. Теперь нужно сделать так, чтобы они попали в индекс.
Поисковик не подозревает о существовании страниц. Выводим их из тени
Как люди ищут лекарства? Чаще всего целенаправленно. В поисковике забивают конкретное название, дозировку и форму выпуска. Поэтому для аптеки важно, чтобы в индексе был полный список товаров.
Такую проблему мы решили для еще одной аптеки. Компания обратилась к нам из-за низкого трафика. Причину мы диагностировали сразу — примерно 7000 товаров были не в индексе. Поисковая система просто не знала об их существовании.
Надо было сделать так, чтобы робот зашел и проиндексировал эти страницы.
А как он вообще понимает, где искать? Например, так: попадает на одну из страниц сайта и считывает все ссылки, которые там находятся. Бот добавляет их в очередь на сканирование и потом обрабатывает. Чем больше ссылок, тем заметнее страницы для поисковиков.
У нашего клиента в карточках уже были блоки «С этим товаром покупают» и «Вы смотрели» со ссылками на другие товары. Почему же этого не хватило? Причин две:
- блоки выводились динамически, то есть при помощи JavaScript;.
- данные формировались на основе товаров, которые пользователь смотрел раньше. Но бот заходит с чистыми cookie, а значит в этот блок товары для него не подтягиваются.
Мы поменяли способ вывода данных и улучшили перелинковку. Добавили в карточки ссылки на такой же товар в другой форме, с другим объемом и вкусом. И прикрутили блок аналогов.
Блок «С этим товаром покупают» добавили в исходный HTML.
В результате через неделю количество ежедневно сканируемых страниц выросло в 2,5 раза.
А вместе с новыми проиндексированными страницами увеличился и трафик.
Результат неплохой, но важно не просто поднять трафик, но и удерживать его долгое время. Для этого надо следить, насколько стабильно работает сайт и какие ответы дает индексирующим ботам.
Сайт теряет позиции в выдаче. Решаем задачку со звездочкой
Продолжим на примере той же аптеки. Через некоторое время после настройки перелинковки мы заметили, что выросло число прямых заходов с высоким показателем отказов.
Видимых причин для этого не было. Сайт быстро грузился, корректно отображался на мобильных и не выдавал ошибки. Чтобы исключить поведенческую накрутку, поставили облачную защиту.
Но через три недели после установки сайт стал терять позиции. Сначала опустился в пределах топ-3 по высокочастотным запросам, через 7 дней — в топ-5, а еще через неделю совсем выпал с первой страницы. И так в обеих поисковых системах.
Никаких сигналов о проблемах от поисковиков не было. При проверке страниц роботы получали к ним доступ и отображали нормально. Статистика обходов в GSC и вебмастере тоже не изменилась. То есть внешне все было нормально.
Обратились в техподдержку «Яндекса», но тоже мимо. Нам ответили, что сайт работает нормально и ранжируется на свою релевантность.
Поняли, что перед нами задачка со звездочкой ;)
Помог анализ серверных логов. По ним увидели, что в какой-то момент боты перестали получать контент страниц при GET запросе, хотя сервер отвечал, что запрос выполнен успешно.
Покопались и выяснили, что проблема в редиректах. Они не отображались ни в одной статистике. Несмотря на white list для поисковых систем, при попытке посещения сайта через http ботов редиректило на хост проверки. Поисковику это не нравилось.
Решается проблема просто — надо скорректировать обработку обращений ботов, чтобы доступ к сайту был напрямую. Как только сделали это, сайт восстановил позиции в поисковиках.
Только когда все это сделано, можно переходить к EEAT. Напоследок еще один кейс, в котором мы прокачивали экспертность.
Трафик не приносит продажи. Превращаем посетителей сайта в лидов
Пройдем по пути пациента. Куда обратится человек, которому нужен врач? Правильно, к знакомым. Если посоветуют проверенного, пойдет к нему. Ценник не играет роли, главное — хороший специалист.
Если не найдет через знакомых, отправится в интернет. Будет читать статьи, изучать форумы, смотреть ролики на YouTube и в Дзене. Здесь и происходит лидген в клинику.
Поэтому важно обеспечить максимальное присутствие врачей под брендом медицинского центра на всех площадках. Информационные статьи, ролики, комментарии по ТВ, личные блоги врачей, офлайн реклама. Ничего не напоминает? Правильно — критерий экспертности в EEAT.
Присутствие клиники в информационном поле формирует кредит доверия у потенциального пациента. Такие лиды уже максимально разогреты и несут деньги сами, им не нужно ничего продавать.
И здесь всплывает главный затык — на экспертный контент нужно много времени и ресурсов. Мало написать статьи, их надо грамотно оформить и разместить, чтобы превратить читателей в лидов.
Такой кейс мы решили для стоматологии. 66% трафика приходилось на информационные статьи типа «Какие протезы ставить». Люди получали полезную информацию, но не переходили на страницы услуг.
Что же было не так? Все просто — в тексте не было ни одной ссылки на услуги. Пользователи не знали, где искать «помощь», и возвращались в поисковик. Там они делали новый запрос, уже по конкретной услуге, и скорее всего попадали на сайты других клиник.
Получается, наш клиент прогревал потенциальных лидов и отпускал к конкурентам. Обидно? Обидно. Но мы знали, что делать.
Сначала дополнили список статей. По каждой теме создали семантические коконы, чтобы охватить все возможные запросы по конкретной теме.
После разместили в статьях конверсионные блоки — таблицы с ценами, ссылки на запись и скидки за подписку на рассылку, анкорные ссылки на услуги.
В результате увеличилось количество лидов, которые приходят с информационных статей.
Важный момент — чтобы поисковик лучше ранжировал сайт, ссылки в текст нужно вставлять грамотно. Вот несколько правил хорошего анкора:
- содержит ключевые слова;
- естественно вписан в предложение;
- из текста понятно, куда ведет ссылка.
А если хотите, чтобы мы помогли вывести ваш сайт в топ и превратить трафик в лидов, то вот вам правильная анкорная ссылка на услугу SEO-продвижения ;)
Пишите нам, проведем аудит вашего сайта и найдем точки роста.