Уникальный или неуникальный контент

При создании любого любого нормального сайта возникает вопрос - где взять контент. Подавляющая часть создаваемого контента на данный момент либо просто тупо копируется, либо рерайтится. Причина очень проста - создание действительно уникального контента стоит слишком дорого (по времени и/или по деньгам) и потому просто невыгодно и не имеет смысла. Авторское право само по себе едва ли не единственная область права, доведенная до идиотизма. В интернете же оно пока вообще практически неприменимо. Поэтому контент сейчас тырится направо и налево.

Неоднократно мне приходилось слышать и читать на форумах сказки о том, что сайт, наполненный уникальным и полезным контентом сам по себе обрастает естественными ссылками и таким образом сам по себе продвигается. Это полный бред. У меня есть один сайт медицинской тематики, контент на котором полностью уникальный и написан профессиональным врачом, доктором медицинских наук. Сайт является уникальным и единственным в своей области сайтом с таким содержанием и пользуется большой популярностью. Так вот продвижение такого сайта ничем не отличается от продвижения сайтов с заимствованным контентом. Несмотря для высокую для своей тематики посещаемость, естественных ссылок крайне мало и я не заметил ощутимого преимущества в продвижении такого сайта по сравнению с сайтами с заимствованным контентом, а они у меня в той же тематике тоже есть. Все сказки про преимущества сайтов с уникальным контентом - это полный бред. Все что, нужно - это сделать так чтобы поисковые системы считали контент уникальным, все остальное неважно.


Что касается поисковых систем, то они на данный момент очень плохо умеют замечать дублированный контент. Фактически Яндекс и Гугл умеют только находить полные дубли, и то кое-как. Достаточно очень небольших изменений в тексте, чтобы поисковики считали его уникальным и хорошо индексировали.

Начитанные люди говорят о проблеме поиска дублированного контента (нечетких дублей) любят ссылаться на алгоритм шинглов. Некоторые даже считают, что именно в с помощью этого алгоритма яндекс ищет дублированный контент, видел даже теоретические изыскания в каком-то блоге на тему того как этот алгоритм обойти. На самом деле алгоритм шинглов - это не более чем красивая теория, в чистом виде он неприменим из-за слишком большой ресурсоемкости. Возможно Яндекс и применяет его в в каких-то узких задачах, но не более того. Именно поэтому в выдаче Яндекса столько дублированного контента.

Это были общие размышления на тему дублирования контента, в одном из следующих постов я расскажу о конкретных способах уникализации контента.
Вернуться к списку