Обзор книги Леонида Гроховского «SEO: руководство по внутренним факторам»

Хороших книг по SEO не так уж много. Зато много «водяных». Устаревшая или неполная информация, большой объем ненужных или повторяющихся данных, отсутствие структуры


Книга Леонида Гроховского (с соавторами) «SEO: руководство по внутренним факторам» — приятное исключение. В аннотации ее представляют «написанная оптимизаторами для оптимизаторов». Отличия книги: а) актуальность, б) лаконичность, в) структурированность.


Авторы — ведущие SEO-аналитики России («Оптимизм.Ру», Wikimart.ru, Sape.ru) и преподаватели учебного центра ТопЭксперт.рф. Они на собственной «шкуре» прочувствовали все нюансы продвижения сайтов в рунете. Исходя уже из нашего опыта — хотя книга о продвижении под Yandex, все рекомендации по внутренней оптимизации справедливы и для Google.com.ua.


Книга частично выросла из «SEO-альманаха 2010», составленного на основе экспертных оценок и мнений 26 ведущих seo-экспертов. Краткий обзор альманаха читайте в статье ТОП-10 внутренних факторов ранжирования сайта.


Перейдем к самой книге. Ключевое отличие от других подобных работ — принцип «меньше теории, больше практики». Поэтому глава «Введение в продвижение сайтов» занимает всего лишь 12 страниц. Определение понятий, немного о комплекном подходе, и ничего лишнего.


Мы бы не рекомендовали книгу начинающим оптимизаторам. Разве что новое поколение сеошников захочет сразу ринуться «грудью в бой».


Глава № 1. «Перелинковка»

Вы знаете, чем отличается перелинковка для продвижения высоко-, средне- и низкочастотных запросов? Что такое «куб», «кольцо» и «звезда»? Чем отличается грамотная перелинковка на портале, в интернет-магазине, на корпоративном сайте? Зачем нужно оперировать несколько устаревшим понятием PageRank, когда мы решаем задачу по грамотной перелинковке сайта?


Все это, а также правила, способы и тексты для перелинковки есть в первом разделе книги.


Пример. Вам нужно продвинуть интернет-магазин электроники. Наиболее конверсионный трафик дают покупатели, которые ищут конкретную модель товара.


Если человек ищет «ноутбуки», на самом деле он ищет все, что угодно — общую информацию, картинки, сравнивает цены и т.д. При запросе «ноутбук asus» пользователь, вероятно, изучает модельных ряд, технические характеристики и т.д. Человек, набравший в поисковике «ноутбук asus k50c» — это, скорее всего, «горячий» клиент.


Правило перелинковки для продвижения низкочастотных запросов выглядит так: страницы товаров могут ссылаться только друг на друга, не отдавая вес страницам раздела.


Глава № 2. «Устранение дубликатов»

Чрезвычайно полезный раздел о том, как образуются дубликаты, чем они вредны для сайта, и, главное, что с ними делать. С конкретными методами и примерами.


Отличить неопытного сеошника от специалиста можно по большому количеству дублей страницы в выдаче поисковых систем.


Это не видно с первого взгляда, но здорово «портит карму» сайту. Размывается ссылочный вес нужной нам страницы, она перестает быть уникальной. Поисковик вместо нужной страницы может увидеть дубль. Индексация сайта в целом тоже может оказаться под угрозой.


Самый простой пример. Главная страница сайта отображается по целому списку адресов:


  • site.ru

  • www.site.ru

  • site.ru/

  • www.site.ru/index.php и т.д.

  • В данном случае мы видим аж 4 дубля главной страницы. В таком случае необходимо настроить 301 редирект с трех из них на одну, выбранную главной версией страницы.


    Глава № 3. «Инструкции для поисковых систем»

    Про существование файлов robots.txt и sitemap.xml знают, кажется, все. А то, что и для чего в них писать — не все. Как превратить эти инструкции в важный инструмент продвижения — описано в этой главе.


    К примеру, функции файла robots.txt:


  • указание адреса карты сайта.

  • Сколькими функциями robots.txt вы пользуетесь? :)


    К примеру, если нам нужно закрыть от индексации страницу сайта, где собраны ссылки на внешние ресурсы, мы можем закрыть ее директивой Disallow. Как это выглядит:


    Disallow: /page.html


    В этой главе содержится и спорный нюанс: директивы Allow, Clean-Param, а также спецсимволы * и $ указываются как справедливые только для Yandex. По нашему опыту, они работают и для Google

    .


    Глава № 4. «Работа с авторским контентом»

    Проблема ворованного контента — бич Интернета № 1. Несмотря на все алгоритмы, методов борьбы с ним или хоть немного достоверного определения первоисточника нет.


    Однако в книге заложена интересная идея. Для определения нашей статьи как первоисточника, зачастую достаточно, чтобы поисковик проиндексировал ее в первую очередь и считал надежной и релевантной.


    Для этого всего достаточно продвинуть несколькими ссылками статью в ТОП по фрагменту текста. О правильной организации этого процесса читайте в книге :)


    Я привела только некоторые интересные моменты из книги. Не буду отбирать у авторов хлеб, а вас, дорогие читатели, лишать стимула прочитать эту замечательную книгу!


    Скачать книгу. Первые 3000 книг Леонид дает бесплатно. Мы не знаем, сколько там осталось, поэтому качайте, пока есть :).

    Добавить комментарий

    Ваш e-mail не будет опубликован. Обязательные поля помечены *