Главная » Статьи » Разные статьи » Статьи

100% уникальность текста - это плохо.
Некоторые оптимизаторы гонятся за 100% уникальностью текстов. Это глупо.

Как сервисы определяют уникальность текста? Сначала из текста удаляются все стоп-слова (знаки препинания, предлоги, союзы, местоимения, причастия, междометия, частицы, вводные слова и другие элементы, которые не несущие смысловой нагрузки). Полученный текст разбивается на фрагменты заданной в настройках длины (шинглы). Составляются поисковые запросы и получается множество страниц, с которыми сравнивается исследуемый текст. На этих страницах алгоритм ищет вхождения шинглов.

Рано или поздно любое словосочетание когда-то и где-то встретится.
100% техническая уникальность текста – это тупиковый путь. Чем больше текстов будет размещено в интернете, тем меньше простора будет для адекватности. Чем меньше просторов для адекватности – тем менее адекватны 100% уникальные тексты.

Процент уникальности может сильно упасть, если в тексте встречаются длинные (из нескольких слов) названия чего-либо, при перечислении программ, событий. Бывает сложно добиться высокой уникальности в текстах, требующих употребления специальной терминологии.

Это не значит, что нужно отказываться от уникальных текстов. Уникальность нужна, но не нужно гнаться за 100% технической уникальностью.

Категория: Статьи | Добавил: ingvarr (04.12.2018)
Просмотров: 29 | Рейтинг: 5.0/1

Всего комментариев: 0
Обсуждение материала:
Комментариев: 0
avatar