Главная > Начинающим копирайтерам > О вреде неуникального контента. Зачем нужен уникальный контент?

О вреде неуникального контента. Зачем нужен уникальный контент?

Много и часто говорится и пишется о том, что текстовый контент на сайтах должен быть уникальным. Это нужно, как минимум, по трём причинам: уникальный контент «любят» поисковые системы (ПС), посетителей часто раздражает, когда они читают одно и то же на разных ресурсах, «воровать» контент – нехорошо. А за последний месяц я на собственном опыте убедился, что такое «неуникальный контент» на блоге. Произошло это совершенно непреднамеренно и, наверное, этот опыт будет всё-таки полезен.

Дело в том, что некоторое время у меня стоял плагин Global Translator. Неплохой плагин, который позволяет переводить блог (вордпресс) на любой из 41 языков, которые есть в списке. Перевод осуществляется автоматически. В настройках плагина есть функция – /прописывать адреса переведённых страниц в карту сайта sitemap.xml/. Переведённые страницы сохраняются в папке кеша и открываются, как обычные посты и могут индексироваться поисковыми системами. Всё бы ничего, но поисковая система google, которая и осуществляет, фактически, перевод, считает эти страницы неуникальным контентом. Ведь, по сути, для google это тот же самый текст, хоть и переведённый.

Так же некоторое время назад я решил установить на поддомен – game.vituson.com партнёрский движок от Gameboss. Контент на движке заведомо неуникальный, ведь по сети Интернет миллион и ещё одна копия этой партнёрки и мало кто изменяет исходный текст. Я считал, что поддомен и домен не влияют друг на друга, ведь, по существу, это разные сайты, но я ошибался. Что Яндекс, что Гугл, проиндексировали поддомен, как каталог (часть) основного блога и «прилепили» к выдаче основных страниц блога эти дополнительные «поддоменные» страницы. Видимо, поисковые системы определяли «каталожность» по одинаковым адресам IP сайтов.

В общем, я ощутил все прелести нелюбви поисковой системы google к моему блогу спустя некоторое время после того, проиндексировались страницы партнёрского игрового движка. Надо полагать, масла в огонь подлили неуникальные переведённые страницы, а так же некоторые дубликаты моих статей, которые я сам размещал в ЖЖ (живой журнал) и ещё на паре площадок. В панели веб-мастера – google analytics было видно, что поисковый трафик с ПС google упал до нуля. По запросу – vituson, по которому блог был в Гугле на 1-м месте, блог вообще не находился, как и по другим запросам. Видимо, ПС google автоматически включила какой-то фильтр для него.

В общем, я принялся навёрстывать упущенное. Отключил плагин Global Translator, запретил индексацию переведённых им страниц в robots.txt, удалил партнёрский движок и проиндексированные страницы из кеша Яндекса и Гугла. Так же удалил, где смог, дубликаты статей, размещённых ранее на других ресурсах. Лишь спустя пару недель после этих действий мой блог стал «возвращаться» в Google. Причём это происходило не плавно, а рывками: вернулся/отстал – вернулся/отстал.

На сегодня, как мне кажется, всё «устаканилось», но результатом этих событий стало то, что несколько статей, ранее проиндексированных, выпали из выдачи и пока не хотят возвращаться в индекс. Так же за прошедшие апы PR, значения на блоге не изменились. Виноват во всём этом неуникальный контент, который так не любят поисковые системы.

Так что, когда будете наполнять свои ресурсы контентом, заимствованным с других сайтов, задумайтесь, а какой смысл будет от такого блога или сайта, если в один день поисковые системы  забанят его или он попадёт под фильтр выдачи поисковых систем.

Автор — vituson

Начинающим копирайтерам

  1. 28 сентября 2010 в 23:15 | #1

    Недавно запустил сайт на 20 страниц — чистый неуник. Адрес пока не пишу. За месяц Я схавал на выдачу 6 страниц. Посмотрим что будет дальше…

  1. Пока что нет уведомлений.