Хранить уникальность в Сети нелегко...
Читать копирайтерам и начинающим оптимизаторам.
Сайт ранжируется в соответствии с его релевантностью запросам пользователей, санкций или проблем с индексированием с нашей стороны нет. Продолжайте развивать сайт и наполнять его уникальным контентом, возможно, в будущем его позиции в результатах поиска изменятся.
–
С уважением, Платон Щукин
Служба поддержки Яндекс.Ру
Если ваш сайт не индексируется Яндексом, возможно, у вас неуникальный контент. Все просто. Пишите оригинальные, интересные тексты, и будет вам счастье. Но всё не так просто, как кажется. Так что же такое уникальность, от чего она зависит и как нужно писать, чтобы текст был уникальным, даже если он на тему "стеллажи" или "металлоконструкции"? Насколько эффективен рерайт и как защитить свой уникальный текст от копипаста?
Итак, давайте приступим с самого начала. Для того, чтобы проверить текст на уникальность, можно воспользоваться:
а) специально разработанными для этого сервисами
б) вручную – через строку поиска
Начнем с сервисов, их немало и все они имеет разные степени эффективности.
DCFinder с
Praide очень хорошая программа, так как проверяет текст в разных поисковых системах и выдаёт результаты, не полного совпадения текста, а частотности встречаемости фразы или выражения, из всей информации, которая проиндексировала
Что касается строки поиска, то тут существует несколько спорных моментов. Возможно, вы проверите как раз не тот кусок текста, который был заимствован. А, возможно, вы видите слабый рерайт ( переписывание), что также не есть очень хорошо.
Всё это хорошо, но как определяет Яндекс, Google и иные поисковые системы уникальность? Сколько слов должно совпадать, чтобы текст стал уникальным (шингл)? «Знают» ли поисковые системы морфологию? Согласно заявлению господина Садовского, система ранжирования сайтов будет (или уже определяет) уникальность не только как набор слов, знаков, но как набор морфем, семантическую (информационную) наполняемость. То есть, в идеале, информация должна не только быть хорошо переписана и скомпилирована, но и быть абсолютно новой. И в идеале, поисковая система должна выглядеть следующим образом: прямой вопрос – четкий ответ. Сегодня эту схему пытаются реализовать в
Но вернемся к нашим баранам. Итак, все знают, что есть такие шинглы. В переводе с английского от shingle – чушейка, минимальная структурная составляющая часть. По мнению одних, вполне достаточно, чтобы в тексте не было совпадения не более какого-то числа шинглов, другие говорят, что не все так просто и что шинглы уже не актуально, теперь важно супершинглы. Но суть в том, что робот читает текст по кусочкам, которые он выбирает выборочно. И нет четкого критерия, который регулировал бы частоту выборки из текста и длину шингла. И существует множество предположений, как можно обмануть робот. Кто-то предлагает использовать синонимайзеры, кто-то - методики перемены слов в тексте и т.д. В общей, вариантов много, но это, увы, проблемы не решает. Но в чем фишка, если взять, к примеру, несколько статей с популярного ресурса, перевести их через переводчика, например, английский- испанский и снова английский, проверить всеми программками на уникальность и поместить на сайт. В итоге окажется, что ваш сайт находится в дополнительной выдаче. Что приводит нас к выводу, что робот понимает текст гораздо глубже, применяя к нему комплексный лингвистический анализ, разбирая текст на уровне синтаксиса, морфологии, лексики, благодаря чему робот может определить тексты одного и то же автора, а, следовательно, одного и того же информационного наполнения. Вот так-то, товарищи. Если задастся целью, то найти подобные исследования в сети – просто. Например, здесь
и др.
Можно ли сберечь контент от воровства?
НЕТ.
Но если всё же хочется исключить некий процент начинающих пользователей, то можно использовать такие технологии как:
В тексте формата PDF: выделить текст, Вставка – Раздел, галочка в поле «защищено», можно поставить пароль. От профи такая защита бесполезна, например, защищённый документ можно прочитать в FineReader. В любом случае, если текст виден на экране, его можно сфотографировать, распознать и прочитать.
Текст можно накрыть врезкой, убрать границы, сделать фон любого цвета, прозрачность 100% и поставить права «только чтение».
Можно разбросать по тексту лишние букв белым шрифтом, при проверке – выделить всё черным. Хотя, этот способ весьма сомнительный, так как робота нет разницы, каким шрифтом написаны слова, а вот смысл, морфологические единицы он не прочитает, а, значит, с точки зрения seo смысла в этом мало.
Защита текста от копипаста может быть реализована на уровне скрипта - javascript, во время верстки. Текст разместить под прозрачный слой, можно поместить во Flash ролик или Lava Applet. Так, для блокировки кнопки мыши может быть прописан такой вот скрипт:
<script language=javascript1.2>
</script>
И это после <body> на каждой странице вашего сайта. Блокировка мыши сделана при помощи такого кода: oncontextmenu="return false" onselectstart="return false"
oncopy="return false" в атрибутах BODY.
А теперь самое главное, все эти блокировки легко обходятся как минимум двумя способами, без напряжения мозга. Например, через html-код страницы. К тому же, есть много надстроек для браузеров, которые могут показать все скрипты, ссылки, изображения на странице.
Также на сайте может быть размещена двухуровневая защита для начинающего пользователя.
Первый уровень – javascript, с функциями, мешающими копирования текста. Это может быть сбрасывание выделения через энное количество времени (10 секунд), причем сам текст тоже выводится как JS и его отключение исключено. Обойти просто: например, задать в промежуточном фильтре AdMuncher'а правила – вариант для FireFox. Для Explorer понадобится ещё несколько обработчиков событий.
Второй уровень – после совершения копирования, оказывается, что текст разбавлен лишними символами. Скрипт, выводящий текст имеет одноразовый url, так что обратиться к его исходникам невозможно. Лишние символы вставляются с помощью блоков со стилем, который отключает их видимость. Это значит, что при показе в окне браузер их игнорирует, но копирует в буфер обмена.
Таким образом, вся эта навороченная защита ломается с помощью всего нескольких простых правил. И это не говоря уж об оптимизации – роботу подобные технологии явно не понравятся.
Вынуть информацию из флеш-странички – это уже посложнее, и если вы очень хотите защитить текст от копипаста, даже во вред продвижению, то советуем обратить внимание на эту технологию. Хотя клавишу PrintScreen ещё никто не отменял.
Есть и юридические способы защитить свой контент, - например,
А теперь мораль:
Хороший текст – это, конечно, хорошо, но вообще-то сайт можно продвинуть и без текста вовсе. И, наверное, вы не раз замечали, что сайты с неуникальным текстом отлично индексируются и имеют неплохие позиции в поисковых системах (взять хотя бы
Татьяна Ларина, создатель текстов.
Изображение взято с
Публикации по теме:
«День открытых дверей» компании Webcom Media: чуть более чем наполовину хорошо
Начинается прием заявок на «Лучший оптимизированный сайт года»
Алексей Штарев: «Байнет следует за Рунетом похожим темпом»
Да и слабо мне верится в то, что копипастера остановит сообщение, что авторские права на текст принадлежат кому-то другому.
Для добавления комментария надо зарегистрироваться и авторизоваться.
Добавить комментарий можно после авторизации через Loginza.