Легенды и мифы SEO 2020
Зачесались у меня руки рассказать о том, какие наблюдения в сфере поисковых оптимизаций сайтов я сделал и за последние годы, и в целом за весь период работы в веб-разработке (а это уже более 15 лет). Не знаю, как кто воспримет выводы, которые я сделал, но они, скорее всего, будут расходиться с мнением seo-специалистов.
Выводы, которые я сделал, основываются на многолетним наблюдении за несколькими десятками различных веб-проектов, которые я я разрабатывал и поддерживал (большую часть из них, я поддерживаю до сих пор). Проекты эти разные, есть там и сайты ресторанов, автосалонов, интернет-магазины и прочие корпоративные сайты. И в разные периоды времени с этими сайтами работали разные команды сеошников и, прости Господи, таргетологов. При этом, в некоторых проектах они менялись каждый год. Ну а мне, как веб-разработчику, приходилось внедрять в свои проекты правки по рекомендациям, которые, по мнению, вышеуказанных лиц, должны были улучшить положение сайтов в результатах поиска, ну и увеличить трафик в целом.
Особенно хочется отметить, что требования seo-специалистов, практически не меняются за последние десять лет, и, по моим наблюдениям, большая их часть на непосредственное положение сайта в поисковой выдаче не влияет. Хотя, в целом, требования не бредовые, а вполне адекватные.
Забегая вперед, хочу сразу сказать, что направить целевой поисковый трафик на сайт достаточно легко. От 80% до 90% важности в этом деле играет сам контент. Если контент годный, хорошо сверстан, а сам сайт достаточно легкий и грузится быстро, то этот контент будет в выдаче по соответствующим запросам. А дальше уже вопрос конкуренции в каждом конкретном сегменте. Внешние ссылки все еще, безусловно, важны. Но если статья качественная, то ссылки на нее появятся вполне естественным образом (хотя этому можно и помочь, если такая возможность есть, поставив несколько линков с других тематических сайтов). Совокупность всего контента на сайте задает тематику сайта в глазах поисковиков, и, со временем, даже далеко не точные совпадения по запросам будут вести на наш контент.
Кроме наличия качественного уникального контента, на втором месте, идет его верстка и верстка самого сайта. Проверяйте ваши сайты в lighthouse от гугл, это реально классный инструмент, который позволяет выявить основные проблемы по скорости его работы. Последние годы все больше внимания уделяется скорости загрузки и рендеринга сайта, поэтому этим фактором вообще никак нельзя пренебрегать. Сайт должен открываться мгновенно и сразу давать пользователю работать с ним.
Также, последнее время, ходят слухи о том, что поисковики раздавая веса страницам в индексе, используют данные поведения пользователей на этих страницах, которые они получают из скриптов метрики и аналитики, установленных почти на всех сайтах интернета. То есть, показывая определенную страницу в выдаче, и зафиксировав переход по ней, поисковик с помощью своего счетчика на сайте проанализирует поведение перешедшего пользователя и тем самым сумеет определить, насколько валидно была показана эта страница этому пользователю по данному запросу. В случае, если пользователь не стал ее читать - пессимизировать страницу по этому запросу, а если читал, а потом еще и ходил по другим страницам сайта - поднять в выдаче. Это грубо говоря. Вот тут-то в силу и вступает быстрая загрузка и удобство использования сайта (есть инфа, что 53% людей вообще закрывают сайт если он не начал открываться за первые 3 секунды).
Достаточно забавно лично для меня кажется, что некоторые люди верят в разную магию. Например, в магию ЧПУ. То есть, если страница имеет адрес /news/archive/123 или /news/archive?id=123, то это как-то хуже для поисковой системы чем /news/archive/kakoy-to-text.html. Для поисковой системы это не важно. Максимум, для чего это нужно в реальной жизни, это для того, чтобы по внешнему виду ссылки человеку стало понятно, что по ней располагается. И все.
Другое заблуждение, что наличие robots.txt и sitemap.xml как-то может улучшить положение в выдачи среди конкурентов. То, что делают эти файлы - это помогают поисковому роботу индексировать сайт, лучше понять структуру сайта и определить важные страницы (если правильно расставить веса). Однако, непосредственно на позицию в выдаче наличие или отсутствие этих файлов не повлияет. Это вспомогательные инструменты, хотя ими нельзя пренебрегать и их нужно правильно настроить, в любом случае.
Помимо качественного контента, быстрого сайта и нормальной разметки (заголовки, картинки с нормальными alt`ами) хорошо внедрить хлебные крошки с микроразметкой, это позволяет в результатах выдачи, под названием ссылки, продублировать хлебные крошки с сайта. Выглядит это прикольно, и позволяет сразу проследить структуру сайта прямо в результатах выдачи.
Вот такие вот заметки на полях у меня получились о современном сео.