Грамотная оптимизация контента – это далеко не все, что нужно для поискового успеха. Роботы не менее зорко следят за доступностью сайта, его юзабилити и некоторыми другими внутренними условиями. Поэтому технические ошибки при подготовке к раскрутке допускать крайне не рекомендуется, чтобы не запятнать репутацию своего ресурса.
Одним из самых малоприятных факторов принято считать дублирование контента. Поисковые системы рассматривают каждую страницу в отдельности, не принимая во внимание ее принадлежность к тому или иному веб-проекту. И наличие дублей ведет к понижению результативности SEO. Чаще всего подобная проблема всплывает у сайтовладельцев, использующих CMS, к примеру, Joomla или же WordPress. В таких случаях очень важно вовремя указать в файле robots.txt все папки, в которых могут находиться дубли. Кроме того, можно применить еще и такой атрибут, как rel=”canonical”, теперь он действует не только в Google, но и в Яндекс. Он помогает выделить среди дублей тот главный, который следует проиндексировать.
Имейте в виду, что для роботов сайты www.site.ru и site.ru являются совершенно различными, и это также является причиной появления дублей. Для предотвращения такой технической ошибки при подготовке к раскрутке необходимо прописать основное зеркало, это выполняется в файле robots.txt с помощью команды host. К примеру, host: site.ru. Также вы можете сделать нужные настройки еще и в самих поисковиках через панели веб-мастеров, используя вкладку «Зеркало сайта» и указав в ней главную версию ресурса.
Несуществующие страницы – еще один промах, который следовало бы исключить. Чтобы как-то смягчить удар от наличия таковых, нужно создать свою страницу ошибки 404, присвоить ей дизайн сайта, разместить на ней извинения и ссылки на главные разделы. Чтобы при ошибке юзеру выходила нужная страничка, следует вставить в .htaccess строку: ErrorDocument 404 /404.php. Файл с таким названием нужно сохранить в надлежащей папке на сервере.
Не замыкайте ссылки в java-скрипты и во flash. Эта техническая ошибка при подготовке к раскрутке неизменно ведет к плохой индексации, так как поисковые службы не умеют обрабатывать подобные линки.
Карты сайта – неотъемлемый атрибут, важный как для роботов, так и для людей. HTML-версия – это страничка со всеми материалами на веб-проекте, XML – файл для поисковиков, который хранится в «корне» сайта.