Начало LSI-копирайтинг берет еще в 1988 году, когда группа исследователей из США получила патент за разработку метода построения баз знаний и индексирования текстов автоматически. Применялся метод для исследования качества обучающих методик для школьников.
LSI-копирайтинг –
это способ написания текстов с учетом синонимов и сопутствующих ключевых фраз. Основан на как можно более полном раскрытии смысла ключей.
То есть подбираются не просто ключевые фразы, но и условные синонимы (например, корабль – теплоход), а также сопутствующие слова (например, теплоход-море-путешествие). И все эти фразы используются в тексте.
Таким образом текст становится более читабельным, интересным, полезным. С точки зрения продвижения – релевантным большему числу запросов. Вероятность выхода в топ такого текста выше, чем стандартного SEO-текста.
Из-за заспамленности текстов стандартное продвижение по методу запрос-выдача стало пробуксовывать.
Специалистами поисковиков стали разрабатываться новые алгоритмы, построенные на распознавании синонимов на основе латентного семантического анализа – LSA. LSA – распознавание естественной речи и установление семантических связей с помощью специальных программ.
Начало положила компания Google своим алгоритмом Панда, который умел выявить контент низкокачественный контент: неуникальный, с орфографическими ошибками, большим количеством ключевых фраз.
Следующее усовершенствование – Колибри. Этот алгоритм уже «понимал» «смысл» - бракуя тексты, где не было связи между основным ключом и семантическим ядром.
Яндекс не отставал, запустив свою «жар-птицу» Палех.
Теперь за ключом можно было отследить длинный хвост, вылавливая из него соответствия и выдавая ответ по запросу.
Машинное обучение позволяет Палеху связывать до 40% текстового материала.
Естественным продолжением Палеха был Баден-Баден, фильтр, под который попадали тексты за переспам.
А в конце 2017 года появился Королёв – алгоритм, работающий на нейросетях (обучающийся в процессе анализа текстов).
И выдачу в Яндексе стало штормить. Сайты, продвинутые по хорошо отработанной системе с выверенными SEO-текстами вылетают из топа. Причиной указывается переоптимизация, а единственный способ выйти из-под фильтра – переработать текст на посадочной странице, фактически, убрать тексты, заточенные под SEO-продвижение.
Об отличиях LSI и SEO, о достоинствах и недостатках новых текстов в следующий раз.
Комментарии ()