Digital-агентство со стратегическим подходом

Как написать SEO-оптимизированный текст на своем сайте

Как написать SEO-оптимизированный текст на своем сайте

SEO-текст нужен для поднятия веб-страницы в ТОП поисковых систем. Как показывает практика, пользователи редко обращают внимание на содержание второй и тем более третьей страницы результатов поиска. Именно поэтому ресурсы, которые оказываются за пределами первой десятки, значительно теряют в прибыли.

Написать SEO-оптимизированный текст просто, но только на первый взгляд. Базовый принцип работы поисковых систем кажется предельно понятным. Он основан на сравнении запроса пользователя с содержанием веб-страниц. Первые места в ТОП выдачи результатов занимают ресурсы с наибольшим соответствием. Однако возникают резонные вопросы. Как происходит выборка из нескольких тысяч вариантов? Почему некоторые из них поисковые системы выводят на первую страницу, а остальные остаются в глухом арьергарде без каких-либо шансов на внимание пользователей?

Можно подумать, что дело в ключевых словах. Очевидно, что если есть совпадение с запросом пользователя, то это именно то, что ему нужно. Однако такие слова есть на всех веб-страницах, посвященных какой-то тематике. И, тем не менее, поисковые системы все равно выстраивают их в определенном порядке.

На заре справедливости

Может быть, на заре развития поисковых систем, когда в интернете было всего 5 веб-страниц, посвященных определенной теме, наличие ключевых слов и играло решающую роль в их ранжировании. Алгоритмы поиска были настолько примитивны, что большее количество упоминаний в статье, совпадающих с запросом пользователей, трактовалось как идеальное соответствие. В результате возникло такое явление, как спам — чрезмерно высокая плотность ключевых слов в угоду алгоритмам поисковых систем. Хорошо, что это время безвозвратно ушло. Лидирующие в ТОП выдачи веб-страницы были настолько заспамлены, что о наличии вменяемых текстов речи не шло вовсе.

Сегодня, алгоритм работы поисковых систем существенно изменился. Анализ релевантности запросам пользователей стал значительно сложнее. Ключевые слова по-прежнему играют одну из ведущих ролей, но далеко не определяющую.

Современные требования к текстам

Современные требования наиболее популярных в нашей стране систем — Яндекс и Google, к содержанию текстов достаточно высоки. Оценка релевантности веб-страницы поисковым запросам происходит не по точному совпадению, а по смыслу, то есть применяемые алгоритмы стали более интеллектуальными. Общие требования к статьям выглядят следующим образом:

  • объем — от 500 до 3 000 знаков;
  • уникальность;
  • отсутствие грамматических ошибок;
  • четкая структура;
  • естественное употребление ключевых слов;
  • отсутствие «воды» (слов, не несущих смысловую нагрузку);
  • понятный язык изложения без сложных речевых оборотов;
  • наличие уникальных изображений;
  • достоверность представленной информации.

Поисковые алгоритмы способны разобраться в тематике статей, и выдавать их в ТОП выдачи даже без точного совпадения с запросом пользователей. Их основная задача — отсеивание неинтересного и неудобного для восприятия контента, который создан для поисковых роботов, а не людей.

Фильтры поисковых систем

Для оценки качества текстов Яндекс и Google используют специальные интеллектуальные фильтры. Причем подход к решению задачи у поисковых систем диаметрально противоположный.

Больше всего следует опасаться фильтра «Баден-Баден», который стоит на защите интересов пользователей Яндекс. К сожалению, программисты не раскрывают критерии оценки, поэтому доподлинно неизвестно какой же текст после рассмотрения под «электронным микроскопом» будет признан «хорошим». Нам даны лишь общие рекомендации, которые звучат следующим образом:

  • отсутствие переспама;
  • четкое форматирование текстов;
  • простое изложение.

Данные требования в общем совпадают с концепцией создания контента для людей. Хотя все это весьма условно и необъективно. Существуют прецеденты, когда «Баден-Баден» исключал из ранжирования статьи, которые по всем параметрам можно назвать идеальными. Дело в том, что они были размещены на коммерческих сайтах, и фильтр посчитал, что они там попросту не нужны, бесполезны для пользователей и созданы лишь для продвижения.

По сути, получается, что «Баден-Баден» в принципе против наличия текстового контента в некоторых случаях. Хорошо (или плохо, кому как), что нововведение касается пока коммерческих сайтов. Но как же дать понять, что информация, представленная на странице, относится к той или иной теме? Для тематического определения Яндекс применяет другой фильтр — «Палех». Он не требует называть вещи своими именами, а догадывается о чем идет речь по косвенным признакам.

В отношении фильтрации Google ведет себя более предсказуемо. Его работа основана на анализе в первую очередь текстов, поэтому придерживаясь общих правил написания статей, вероятность попасть под санкции предельно мала.

Текстовые модели

Существуют различные модели, которые применяют для создания текстов в зависимости от их назначения. Широкое распространение получили 2 принципа создания контента — AIDA и LSI.

Модель AIDA подходит для презентационных и рекламных текстов. Аббревиатура расшифровывается следующим образом: A — Attention (привлечение внимания), I — Interest (вызов заинтересованности), D — Desire (возбуждение желания), A — Action (призыв к действию). Создание контента по данной модели целесообразно использовать для уникальных торговых предложений, а также презентации новых, еще неизвестных потребителю товарах и услугах. К недостаткам можно отнести некоторые трудности с SEO-оптимизацией, так как тексты по AIDA требуют творческого подхода, который не всегда сочетается с жесткими требованиями относительно структуры и состава ключевых слов.

Принцип LSI представляет собой логическое продолжение и эволюцию SEO-оптимизации в неявном виде. Речь идет об использовании слов, семантически связанных с ключами. Это не только синонимы, но и различные термины, так или иначе касающиеся затронутой темы. Также сюда относят слова, которые используются в связке с ключом при вводе поисковых запросов. Именно на оценке LSI пространства основана работа фильтра «Палех», применяемого Яндексом. При использовании семантических связей удается избежать переспама, к которому крайне чувствителен «Баден-Баден». Единственный относительный недостаток LSI заключается в необходимости увеличивать объем статей для органичного использования всех семантически важных связок.

Ошибки при написании текстов

Существует ряд грубейших ошибок, которые часто допускаются при написании текстов для веб-страниц, например:

  • откровенный плагиат, отсутствие уникальности;
  • переспам ключевыми словами;
  • отсутствие четкой структуры;
  • косноязычие, а также сложные, длинные, запутанные предложения;
  • неоправданно раздутый объем;
  • водность — избыток слов и выражений не несущих смысла.
Давайте поговорим
Расскажите о своей задаче — мы ответим в течение 8 часов и предложим время встречи.
Error message
Error message
Error message
Нажимая на кнопку, вы соглашаетесь с политикой обработки персональных данных