Поисковики

15 SEO-мифов, которые никогда не умрут

Автор: Кристин Шахингер (Kristine Schachinger) – глава агентства интернет-маркетинга Sites Without Walls, консультант по SEO.

В поисковой оптимизации есть ценные кусочки информации, при пересказе которых теряется контекст, и мы получаем так называемые «зомби-мифы».

Зомби-мифы в SEO

Зомби-мифы – это те мифы, которые, несмотря на опровержения, никуда не деваются. Они живут собственной жизнью и сбивают с толку владельцев сайтов.

В статье мы рассмотрим те мифы, которые, кажется, никогда не умрут – независимо от того, насколько упорно эксперты пытаются их развенчать.

Основное внимание мы будем уделять Google, поскольку это один из самых крупных источников трафика, и та поисковая система, к которой относится большая часть существующих в SEO-сообществе мифов.

Миф № 1. SEO сродни магии вуду

Что касается поисковой оптимизации, то порог вхождения в эту профессию довольно низкий. По сути, не существует никакой сертификации, которая подтверждала бы знания специалистов (как можно сертифицировать то, что меняется каждый день?). Google в свою очередь не раскрывает поисковые алгоритмы, поэтому нет никакой возможности досконально протестировать человека на предмет их знания.

Поэтому среди потребителей SEO-услуг распространён миф о том, что поисковая оптимизация сродни магии вуду. Неквалифицированные специалисты плохо делают свою работу, а этот миф удобно использовать как оправдание отсутствию результатов.

Однако SEO – это не вуду (или магия, или ещё что-то в этом роде). SEO – это процесс, который заключается в оптимизации сайтов для алгоритмов Google по конкретным запросам для увеличения потока релевантного трафика и повышения доходов компании.

Поисковые алгоритмы не являются полной тайной. Хотя Google не делится этой информацией, SEO-эксперты и профессионалы обладают хорошим пониманием того, что помогает сделать сайты более эффективными.

Это не магия, а заработанное знание. При этом тяжело заработанное.

Когда вы платите SEO-профессионалам, вы платите не за их время. Вы платите за их знания и результаты.

Миф № 2. Всё, что вам нужно – это контент

«Контент – король!»

Вы найдёте множество статей, основная мысль которых сводится к этому утверждению. И хотя мы не можем сказать, что это полная ложь, контент, всё же, – не король, а скорее бизнес-партнёр по ссылкам, дизайну и юзабилити.

При этом в большинстве случае нужны и контент, и ссылки. Одно не работает хорошо без другого. По-крайней мере, в долгосрочной перспективе.

В Google утверждают, что многие long-tail запросы ранжируются без ссылок, и это кажется правдой. Эти запросы настолько уникальны, что по ним нет никакой конкуренции, поэтому ссылки не играют активной роли в том, как они ранжируются.

Миф № 3. Скорость не так важна

Некоторое время назад Google заявил, что скорость загрузки страницы учитывается лишь в том случае, когда остальные факторы равны. Однако практика показывает, что это не так.

У нас был клиент, по сайту которого трафик вырос до 200 тысяч сессий в день после того, как скорость загрузки страниц была увеличена на 50%. Таким образом, этот фактор может значительно улучшить ваши позиции в ранжировании, если у сайта наблюдаются серьёзные проблемы со скоростью загрузки.

Стоит отметить, что в данном случае речь идёт не об уменьшении времени загрузки страницы с 5 до 2 секунд. Данный фактор срабатывает, если скорость удаётся значительно улучшить. Скажем, с 22 сек до 8, что и произошло в приведённом выше примере.

Также важно понимать, что именно Google измеряет, когда оценивает скорость загрузки страницы. С точки зрения поисковой системы наиболее значимо то, как долго загружается DOM (Direct Object Model).

Это значит, что если вам удастся сократить время загрузки DOM с 22 сек до 8, то Google может поощрить вас за это, присвоив более высокие позиции в выдаче.

Кроме того, более быстрые сайты лучше сканируются поисковыми роботами, благодаря чему обрабатывается и индексируется больше страниц.

Примечание. Инструмент Google PageSpeed Insights измеряет только скорость загрузки элементов в DOM, поэтому у вас могут быть более высокие показатели, чем у другого сайта, но в поисковой выдаче вы будете занимать худшие позиции, поскольку скорость загрузки страницы в целом будет слишком низкой.

Скорость страницы очень важна и станет ещё важнее, когда Google перейдёт к mobile-first индексации. Так что никогда не скидывайте этот фактор со счетов.

Миф № 4: Ссылки больше не нужны

Однажды я получила звонок от потенциального клиента, который спрашивал, могу ли я убрать все его ссылки.

«Убрать все ваши ссылки? Могу ли я спросить, зачем вам это нужно?», — спросила я.

«Потому что я слышал, что ссылки – это плохо, и я хочу их убрать», — прозвучал ответ.

«Покупали ли вы ссылки или, может, использовали другие запрещённые методы?»

«Нет, все ссылки легитимные».

«Тогда, что бы вы ни делали дальше, не избавляйтесь от своих ссылок!»

Ссылки как фактор ранжирования не мертвы. Они даже и близко не мертвы.

Если у вас имеется самый лучший контент в мире, но нет ссылок, ваш сайт не получит большой видимости. Ссылки и контент коррелируют с ранжированием. Отличному контенту всё ещё нужны отличные ссылки (или большое количество ссылок среднего качества).

Помните, что хорошие ссылки требуют тематической релевантности и легитимности. Если они искусственные и поступают с нерелевантной страницы или сайта, то вряд ли они сильно помогут в ранжировании.

Миф № 5. Плотность ключевых слов

Было время, когда плотность ключевых слов имела некоторое значение. Если бы этот приём не работал, то никто бы не наполнял ключевыми словами белый текст на белом фоне с целью ранжирования.

Однако со временем Google стал умнее, и keyword stuffing перестал быть жизнеспособной тактикой.

Совет. Размещение ключевого слова на странице X раз – это не то, на что стоит тратить свои силы. Лучше уделить это время созданию релевантного контента, на который вы сможете ссылаться внутренне, а другие – внешне, чем тратить время на оптимизацию ключевых слов.

При этом стоит отметить, что заголовки Title по-прежнему значимы для Google.

Миф № 6. Вы должны отправлять свой сайт в Google

Как минимум дважды в неделю я получаю сообщения от SEO-компаний, которые утверждают, что я должна заплатить им, чтобы отправить свой сайт в поисковые системы.

В настоящее время Google настолько развит, что способен найти ваш сайт за считанные минуты после того, как он был запущен.

Если после запуска сайта прошло несколько дней, и у него уже появились ссылки, но Google пока не посещал его, вы можете ускорить этот процесс с помощью инструмента «Сканер Google для сайтов» в Search Console. Но никогда не платите за эту услугу.

Миф № 7. Карты сайта больше не нужны

Карта сайта – это не приятное дополнение, а необходимость. Сейчас, когда Google переходит к mobile-first индексации, её наличие становится ещё более важным.

Почему? Когда Google испытывает трудности со сканированием части сайта, файлы Sitemap облегчают краулеру поиск этих страниц.

Когда Google перейдёт на mobile-first индексацию, ему будет труднее находить страницы из-за сокращения числа навигационных элементов в мобильных версиях ресурсов. В это время карты сайта – как XML, так и HTML – станут наилучшим способом для нахождения всех тех страниц сайта, которые должны индексироваться и ранжироваться.

Миф № 8. Запрос заслуживает свежих данных

Концепция «запрос заслуживает свежих данных» (Query Deserves Freshness, QDF) применима к тем запросам, которые требуют свежих результатов. Например, когда речь идёт об актуальных событиях, и пользователю явно нужен новостной контент. Но это не значит, что вы должны менять каждый элемент на главной странице сайта каждый день или даже чаще.

В интернет есть сайты, содержимое главных страниц которых должно обновляться ежедневно или еженедельно, однако у большинства ресурсов такой необходимости нет.

«Вечнозелёные» статьи должны быть «вечнозелёными», если для этого есть причина. Если вы написали статью о mobile-first индексации, и эта информация не изменилась, вам не нужно обновлять страницу, чтобы придать ей «свежесть».

Однако на сайте всё же должно быть некоторое количество свежего контента. Поэтому хорошая контент-стратегия определяет, как обеспечить наличие актуального контента, при этом не пытаясь достичь каких-то нереальных целей, таких как ежедневное обновление ради обновления.

Совет. Небольшим сайтам с небольшой командой и бюджетом нет нужды публиковать свежий  контент ежедневно. Если говорить о блоге, то добавляя 2-3 поста в неделю, можно поддерживать его релевантность без повышения затрат на постоянное обновление страниц.

Миф № 9. Если крупные бренды что-то делают, значит это правильно

Помните, как родители говорили вам в детстве: «А если Джонни скажет тебе прыгнуть с моста, ты тоже это сделаешь?». То же самое и здесь.

Многие сайты копируют неудачные решения у других ресурсов, думая, что если они что-то применяют, то знают то, чего другие не знают.

Не повторяйте бездумно. Всегда думайте сами и примеряйте на себя.

То, что делает другой сайт, может работать для него, а может и не работать вовсе. Пока вы не увидите их показатели, не верьте на слово. Кроме того, то, что хорошо для одного, может быть совершенно неподходящим решением для другого.

Почему? Потому что вы – другая компания. Ваши пользователи имеют другие намерения. Если Facebook и Twitter используют бесконечную прокрутку, то это не значит, что и вам она нужна.

По факту, поскольку крупные бренды, ошибаясь, не страдают так сильно с точки зрения посещаемости и ранжирования, они более склонны ошибаться.

Не копируйте крупные бренды. Найдите то, что работает для ваших пользователей, и придерживайтесь этой линии.

Совет. Если вы хотите испробовать что-то из того, что увидели на другом сайте, найдите на своём ресурсе тот раздел, который не приносит много трафика, а затем проведите A/B-тестирование заинтересовавшей вас идеи на своих собственных страницах. Полученные данные покажут, работает ли она для вас.

Миф № 10. Алгоритмические пессимизации = санкции

Google может понижать сайты двумя способами: алгоритмически и вручную. При этом обновления алгоритмов не являются санкциями. В результате этих изменений одни ресурсы могут терять свои позиции, а другие – улучшать.

Что же тогда санкции?

Санкции – это меры, принятые вручную, информацию о которых можно найти в Search Console. В данном случае в Google анализируют конкретный сайт и решают, не нарушил ли он рекомендации для вебмастеров. Если нарушил, то он будет понижен в поисковой выдаче.

В случае наложения санкций необходимо подать запрос на повторную проверку сайта и ждать снятия принятых мер.

Чтобы выйти из-под алгоритмического фильтра, нужно устранить все нарушения и дождаться очередного обновления поискового алгоритма/алгоритмов.

Миф № 11. Google наказывает за дублированный контент

Санкций за дублированный контент не существует и никогда не было!

У Google есть фильтр дублированного контента, наличие которого попросту означает, что одинаковое содержимое не будет ранжироваться по одному и тому же запросу. Ранжироваться будет только одна страница.

При этом слишком большое количество дублированного контента может стать причиной попадания под фильтр Panda. Однако в данном случае речь идёт, скорее, о качестве сайта, а не о ручных санкциях.

Совет. Фильтр дублированного контента также применяется к заголовкам Title и метаописаниям. Убедитесь, что они являются уникальными.

Миф № 12. Социальные сети помогают ранжироваться

Социальные сети помогают получить охват. Охват в свою очередь позволяет получить ссылки и упоминания, а ссылки и упоминания помогают улучшить позиции в ранжировании.

Однако это не значит, что размещение контента в социальных сетях напрямую помогает страницам ранжироваться.

Социальные сети не дают вам ссылок, но поощряют других ссылаться на вас. Это также значит, что опубликованный в социальных медиа пост может покинуть экосистему и принести ссылку со стороннего сайта. Но возлагать на это надежды не стоит.

Социальные сети – это о видимости, а не о ранжировании.

Миф № 13. Покупка рекламы в Google помогает улучшить позиции сайта в органическом поиске

Нет, это не так. Вложения в контекстную рекламу не помогают повысить органические позиции сайта. Это две отдельные вертикали поиска, которые не взаимодействуют друг с другом.

Совет. При этом покупка рекламы способствует формированию доверия к бренду. Эксперименты показали, что когда пользователи видят сайт и в рекламном блоке, и в органической выдаче, они считают его более авторитетным. Это помогает повысить CTR.

Миф № 14. Google использует искусственный интеллект во всех своих алгоритмах

Нет, Google не использует ИИ в работающих алгоритмах, за исключением RankBrain. Компания применяет искусственный интеллект для обучения алгоритмов, а также, возможно, в других целях, о которых нам неизвестно.

Почему? Ответ очень простой: поскольку если что-то сломается, в Google не будут знать, как это починить. Искусственный интеллект функционирует на базе самообучающейся модели.

Если в поиске что-то сломается, то это может повлиять на доходы Google. Более 95% выручки компании по-прежнему приходятся на рекламу, поэтому позволить искусственному интеллекту самостоятельно управлять поиском является чрезвычайно опасной перспективой для Google.

Миф № 15. RankBrain

С RankBrain связан целый ряд различных мифов, поэтому в этом разделе мы поговорим о том, чем он является и чем не является.

Во-первых, RankBrain – это ведущий сигнал ранжирования.

Когда Google перешёл от строк к вещам (т.е. сущностному поиску), ему понадобилось умение определять, что запрос значит для пользователя, и как слова в запросе соотносятся друг с другом. Выполняя этот анализ, Google способен лучше понимать намерение пользователя.

С этой целью в Google создали систему для определения связей между сущностями. По тем запросам, которые были поняты, возвращается стандартная SERP.

Однако 15% всех запросов, получаемых Google в день, являются для него абсолютно новыми. Поэтому Google понадобилось найти способ справляться с теми сущностями, отношения между которыми были непонятными или неизвестными при попытке сопоставить их с намерением пользователя. И так появился RankBrain.

RankBrain – это алгоритм машинного обучения, который пытается понять, что пользователь имел в виду в том случае, когда Google в этом не уверен. Для этого он сопоставляет сущности и анализирует уже известные связи, чтобы вывести смысл/намерение по этим запросам.

RankBrain использует искусственный интеллект, чтобы определить отношения между сущностями с неизвестными или широкими связями. Поэтому это и фактор ранжирования и не совсем фактор.

Совет. Хотя существует несколько интересных нишевых кейсов, подтверждающих возможность оптимизации для RankBrain, для большинства сайтов это не имеет смысла. Намного эффективнее будет просто правильно оптимизировать сайт, а не пытаться оптимизировать его специально для RankBrain.

Источник: searchengines.ru

Статьи по теме

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Close