SEO-текст нужен для поднятия веб-страницы в ТОП поисковых систем. Как показывает практика, пользователи редко обращают внимание на содержание второй и тем более третьей страницы результатов поиска. Именно поэтому ресурсы, которые оказываются за пределами первой десятки, значительно теряют в прибыли.
Написать SEO-оптимизированный текст просто, но только на первый взгляд. Базовый принцип работы поисковых систем кажется предельно понятным. Он основан на сравнении запроса пользователя с содержанием веб-страниц. Первые места в ТОП выдачи результатов занимают ресурсы с наибольшим соответствием. Однако возникают резонные вопросы. Как происходит выборка из нескольких тысяч вариантов? Почему некоторые из них поисковые системы выводят на первую страницу, а остальные остаются в глухом арьергарде без каких-либо шансов на внимание пользователей?
Можно подумать, что дело в ключевых словах. Очевидно, что если есть совпадение с запросом пользователя, то это именно то, что ему нужно. Однако такие слова есть на всех веб-страницах, посвященных какой-то тематике. И, тем не менее, поисковые системы все равно выстраивают их в определенном порядке.
На заре справедливости
Может быть, на заре развития поисковых систем, когда в интернете было всего 5 веб-страниц, посвященных определенной теме, наличие ключевых слов и играло решающую роль в их ранжировании. Алгоритмы поиска были настолько примитивны, что большее количество упоминаний в статье, совпадающих с запросом пользователей, трактовалось как идеальное соответствие. В результате возникло такое явление, как спам — чрезмерно высокая плотность ключевых слов в угоду алгоритмам поисковых систем. Хорошо, что это время безвозвратно ушло. Лидирующие в ТОП выдачи веб-страницы были настолько заспамлены, что о наличии вменяемых текстов речи не шло вовсе.
Сегодня, алгоритм работы поисковых систем существенно изменился. Анализ релевантности запросам пользователей стал значительно сложнее. Ключевые слова по-прежнему играют одну из ведущих ролей, но далеко не определяющую.
Современные требования к текстам
Современные требования наиболее популярных в нашей стране систем — Яндекс и Google, к содержанию текстов достаточно высоки. Оценка релевантности веб-страницы поисковым запросам происходит не по точному совпадению, а по смыслу, то есть применяемые алгоритмы стали более интеллектуальными. Общие требования к статьям выглядят следующим образом:
- объем — от 500 до 3 000 знаков;
- уникальность;
- отсутствие грамматических ошибок;
- четкая структура;
- естественное употребление ключевых слов;
- отсутствие «воды» (слов, не несущих смысловую нагрузку);
- понятный язык изложения без сложных речевых оборотов;
- наличие уникальных изображений;
- достоверность представленной информации.
Поисковые алгоритмы способны разобраться в тематике статей, и выдавать их в ТОП выдачи даже без точного совпадения с запросом пользователей. Их основная задача — отсеивание неинтересного и неудобного для восприятия контента, который создан для поисковых роботов, а не людей.
Фильтры поисковых систем
Для оценки качества текстов Яндекс и Google используют специальные интеллектуальные фильтры. Причем подход к решению задачи у поисковых систем диаметрально противоположный.
Больше всего следует опасаться фильтра «Баден-Баден», который стоит на защите интересов пользователей Яндекс. К сожалению, программисты не раскрывают критерии оценки, поэтому доподлинно неизвестно какой же текст после рассмотрения под «электронным микроскопом» будет признан «хорошим». Нам даны лишь общие рекомендации, которые звучат следующим образом:
- отсутствие переспама;
- четкое форматирование текстов;
- простое изложение.
Данные требования в общем совпадают с концепцией создания контента для людей. Хотя все это весьма условно и необъективно. Существуют прецеденты, когда «Баден-Баден» исключал из ранжирования статьи, которые по всем параметрам можно назвать идеальными. Дело в том, что они были размещены на коммерческих сайтах, и фильтр посчитал, что они там попросту не нужны, бесполезны для пользователей и созданы лишь для продвижения.
По сути, получается, что «Баден-Баден» в принципе против наличия текстового контента в некоторых случаях. Хорошо (или плохо, кому как), что нововведение касается пока коммерческих сайтов. Но как же дать понять, что информация, представленная на странице, относится к той или иной теме? Для тематического определения Яндекс применяет другой фильтр — «Палех». Он не требует называть вещи своими именами, а догадывается о чем идет речь по косвенным признакам.
В отношении фильтрации Google ведет себя более предсказуемо. Его работа основана на анализе в первую очередь текстов, поэтому придерживаясь общих правил написания статей, вероятность попасть под санкции предельно мала.
Текстовые модели
Существуют различные модели, которые применяют для создания текстов в зависимости от их назначения. Широкое распространение получили 2 принципа создания контента — AIDA и LSI.
Модель AIDA подходит для презентационных и рекламных текстов. Аббревиатура расшифровывается следующим образом: A — Attention (привлечение внимания), I — Interest (вызов заинтересованности), D — Desire (возбуждение желания), A — Action (призыв к действию). Создание контента по данной модели целесообразно использовать для уникальных торговых предложений, а также презентации новых, еще неизвестных потребителю товарах и услугах. К недостаткам можно отнести некоторые трудности с SEO-оптимизацией, так как тексты по AIDA требуют творческого подхода, который не всегда сочетается с жесткими требованиями относительно структуры и состава ключевых слов.
Принцип LSI представляет собой логическое продолжение и эволюцию SEO-оптимизации в неявном виде. Речь идет об использовании слов, семантически связанных с ключами. Это не только синонимы, но и различные термины, так или иначе касающиеся затронутой темы. Также сюда относят слова, которые используются в связке с ключом при вводе поисковых запросов. Именно на оценке LSI пространства основана работа фильтра «Палех», применяемого Яндексом. При использовании семантических связей удается избежать переспама, к которому крайне чувствителен «Баден-Баден». Единственный относительный недостаток LSI заключается в необходимости увеличивать объем статей для органичного использования всех семантически важных связок.
Ошибки при написании текстов
Существует ряд грубейших ошибок, которые часто допускаются при написании текстов для веб-страниц, например:
- откровенный плагиат, отсутствие уникальности;
- переспам ключевыми словами;
- отсутствие четкой структуры;
- косноязычие, а также сложные, длинные, запутанные предложения;
- неоправданно раздутый объем;
- водность — избыток слов и выражений не несущих смысла.