1. Ссылки покупок

    Стратегия на турбо опционы

    Обучение по Бинарным Опционам.

    Бизнес по рецепту. продажа женских товаров

    Мануал по добыче бесплатного трафика с поисковика Bing (2016)

    От 6к уникальных посетителей на страницу ВК

    Facebook

    Стратегия Лайв Профит - ставки на футбол

    [Ирина Шмидт] - Церебро Таргет 2016

    Новый дорген.

    Стратегия на спорт.

    Двойной арбитражник по бесплатному трафику (2016)

    Подробная инструкция по Созданию интернет магазина чая с нуля (2016)

    Чертежи солнечного био-вегетария площадью 1200 кв.м. (СБВ-Профи)

    Адский стрим по копирайтингу: то чувство, когда подглядывать - хорошо!

    Видео-Курс - Tехнология быстрого старта в email рассылках (2016)

    Продвижение партнерских программ в одноклассниках (2016)

    Научу грести трафик. Только успевай сервера покупать!

    Трафик из ВК (Схема + Кейсы)

    Пассивный доход со стабильными выплатами.Схема добычи трафика.

    Секрет создания аккаунта яндекс директ без НДС

    Система ставок от проверенного каппера

    Государственный и банковский конфискат +VIP блок (2016)

    Как работать и зарабатывать деньги на продвижении своих проектов (2016)

    Секреты бесплатной рекламы от бывшего сотрудника Вконтакте

    Mobile Арбитраж - Арбитраж мобильного трафика (2016)

    BUSINESS MANUAL - Безопасные схемы заработка

    Как получать 1000-и заказов из CPA сетей (Дм.Ковпак)

    Как зарабатывать удаленно 100 тыс. руб на продвижении в Инстаграме без вложений и жить в Тайланде

    Самонаполняемые Видео-сайты!

    Прибыльная стратегия для бинарных опционов, первый доход через считанные дни + бонус!

    Траф с Вк за копейки

    Профит на онлайн теме от 30к до Неизвестно в месяц

    Легальный высокодоходный бизнес в реале

NOSEO | Аудит сайта

  1. [NOSEO]Аудит сайта - это то, о чём вспоминают при возникновении всяческих неприятностей: от взломов с вирусами, до потери позиций. Аудитом будем называть комплекс проверок, который обеспечит веб-мастера всей необходимой информацией касательно жизни сайта в сети, в частности - в поисковой системе Google. Основной источник информации о сайте - "Инструменты для веб-мастеров" (WMT), плюс вспомогательные инструменты.

    Технический аудит

    1) Первая и частая ошибка - потерянные метатеги с параметром Noindex. Веб-мастер или программист на какой-то период ставит подобный метатег, потом забывает. Если проблемы с индексацией, первым делом надо проверять или вспоминать про наличие этого метатега не там, где нужно.

    Ринат Сафин (Google):
    На самом деле довольно часто вам может казаться, что вы точно знаете, что ваш сайт "забанили" ровно вот за это. Но на самом деле стоит всё много раз проверить потому, что мы видели много разных случаев, когда люди запрещают индексирование каких-то страниц и потом удивляются, что почему-то сайт пропал из выдачи.​

    2) Код 200ОК на всех страницах сайта. Проверять нужно именно все свои страницы, а не просто вбив название домена в online-инструмент "проверить код ответа сервера" и успокоившись, увидев там 200 на "морде", то есть главной. Если идут технические неполадки, то они должны быть отслежены везде. И не мешает проверить исходящие открытые ссылки на предмет корректного кода. Зачем посылать поискового робота туда, где он не сможет корректно краулить содержимое?

    [​IMG]
    Контроль код ответа страниц и ссылок с помощью Screaming Frog Seo Spider​

    Вдобавок в WMT могут приходить всяческие предупреждения, игнорировать их не стоит.

    [​IMG]

    Абсолютный аптайм сайта - обязательное условие систематического сканирования и беспроблемной индексации. В сложных случаях (нет доступа для Googlebot, постоянно некорректный код ответа сервера, дублированный технический домен) необходимо обратиться к хостеру.

    При наличии на сайте файла robots.txt нужно удостовериться, что Googlebot стопроцентно имеет доступ к нему.

    3) Битые исходящие ссылки. Внутренние, внешние. Надо избавляться от битых внешних и исправлять битые внутренние. Выгружать ссылки можно с помощью бесплатной программы Xenu:

    [​IMG]
    Проверка ссылок в Xenu​

    Все несуществующие страницы сайта должны отдавать код 404.

    4) Проверка правильно настроенного основного домена (в Яндексе это главное зеркало). Плохо, когда существует две независимые версии сайта www.domain.ru и domain.ru и сами живут в индексе своей жизнью. Редирект 301 с неглавного на главный - лучшее решение. В индексе Google могут по-прежнему оставаться копии неглавных доменов - это нормально, но главное, чтобы Google не осуществлял на них показы в поиске.

    Как раз такой пример показан на скриншоте с домена, который всё ещё присутствует зрительно в поиске (находится запросом в поисковой строке через оператор site), но в реальности давно склеен с основным. В поиске он не участвует, запросов на него нет и показов тоже:

    [​IMG]

    См. "Выбор основного домена в рамках нескольких доменов".

    5) Наличие Sitemap. Данную ссылку необходимо тщательно проштудировать и выучить всё, что касается карт сайта. В помощь "Советы и рекомендации по XML файлам Sitemap и RSS/Atom лентам". Важно понимать, что sitemap и фиды должны содержать в себе не всё, что попало, а только страницы, предназначенные для поиска (канонические, не закрытые от сканирования в robots.txt и индексирования через метатег или x-robots-tag). Не стоит заигрываться и с приоритетами.

    См. вопросы:

    6) Ряд технических неудач можно отследить инструментом "PageSpeed Insights", какие-то ошибки можно увидеть в WMT в разделе Оптимизация HTML. И конечно стоит проверить сайт на кроссбраузерность.

    7) Наличие корректно работающей мобильной версии сайта. Google делает показательно очень серьёзный акцент на возросшей популярности мобильного поиска, поэтому мобильная версия сайта - это, считай, стандарт уже.
    Для Google не имеет значения, что за мобильная версия используется, зато очень важно, насколько она удобна пользователям. Игнорировать это серьёзное требование нельзя, как бы не писали в блогах.

    Изучить:
    "Cоздание сайтов, адаптированных для мобильных устройств".

    8) Проверка на взлом и устранение последствий. См. "Советы для веб-мастеров: восстановление сайта".

    9) Убедитесь, что CSS и JavaScript доступны для сканирования Googlebot'ом, то есть не закрыты в robots.txt. Посмотрите, как Google "видит" сайт.

    10) Множество разнокалиберных ошибок (потеря canonical, отсутствие description там, где описание должно быть) можно отследить программами, типа Visual Seo Studio:

    [​IMG]
    Отслеживание ошибок в Visual Seo Studio​

    Полезные ссылки:
    "Блокировка доступа робота Googlebot".

    Качество и релевантность контента

    Сразу вводная статья "Рекомендации по обеспечению качества от Google". В ней перечислено всё, чего быть не должно. То есть, если сайт хотя бы частично попадает под одну или несколько формулировок, то не надо себя обманывать - это гс, а гс надо либо удалять, либо лечить. Как замаскировать гс под сдл - не предмет для обсуждения в этой статье.

    К изучению:
    "Мэтт Каттс о качестве сайтов и их контента".

    Три основных момента:
    • Релевантность контента. Он должен быть востребован аудиторией. Если не нужен или не способен конкурировать, не стоит и начинать. Это касается и услуг. Если в них нет ничего нового и необычного, то такие предложения не нужны в поиске и отфильтруются нулевым вниманием аудитории.
    • Качество. Самый достойный контент можно убить ужасной подачей: неприятный внешний вид, низкая скорость загрузки, заспамленность рекламой и т.п.
    • Юзабилити. Поставьте себя на место посетителя и спросите: удобно ли на этом сайте находиться или что-то искать с мобильного телефона, например? Можно сразу найти товар и корзину без раздражения и матов?

    Рассмотрим конкретный пример - сайт (блог), который я создал в целях эксперимента: можно ли сайт "раскрутить в Google, просто добавив в индекс". То есть, я написал какое-то кол-во крупных статей статей, охватывающих ВЧ запросы, с картинками в каждой, запустил сайт и отправил на индексацию. С апреля по июль я кое-что в него дописывал, и в итоге набралось десятка три статей.

    За всё время трафик из Google более чем смешной и таковым остаётся:

    [​IMG]

    Но это нормальное явление. Сайт не популярен у аудитории (там трафик только с Яндекса, но это уже другой разговор) не потому, что он плохой, а просто о нём никто не знает, ведь я намеренно избегал пиара, чтобы произвести точные наблюдения.

    Причины такого "epic fail" (будем называть вещи своими именами весьма просты и очевидны:
    • нулевая популяризация сайта и следствие - нулевая авторитетность
    • очень серьёзная конкуренция и даже релевантные title в статьях не окажут должного эффекта
    • отсутствие положительных сигналов (нет ссылочного, нет активности, нет упоминаний)

    Google изначально не знает ничего о сайте. Плохой он или хороший не определится алгоритмически. И пресловутая уникальность не принесёт никакого существенного толчка в продвижение. Да, Google знает, что это не спам, знает, что там есть какие-то соответствия запросам, но почему этот сайт должен быть на десятом месте, а не на пятидесятом, поисковик не знает. Конечно в идеале любая поисковая система стремиться к тому, чтобы выдавать в результатах качественные сайты, а не устаревший или неинформативный контент, но этого "в идеале" можно сидеть и ждать годами. Поэтому, как любит повторять +Andrey Lipattsev , надо "правильно настроить ожидания" :).

    По теме советую прочитать или послушать "Влияет ли количество плюсов и подписчиков на выдачу?".

    Как правило, веб-мастер характеризует причины неудач, как:
    • Санкции. На сайт злые модераторы повесили кучу фильтров. (см. "Что такое санкции Google")
    • Глюки Google. Сайт ранжируется по ошибочной схеме, а в топе одни гс.
    • Несостоятельность Google. Поисковик работает через одно место и не может ничего.
    • Продажность Google. Всё в топах куплено. Или Google специально плохо ранжирует, чтобы веб-мастера бежали в Adwords.

    Можно конечно и на весь мир обидеться, но реальность ещё хуже: Google - это не человек, это популярный мега-комплекс платных и бесплатных ништяков, которые нацелены на удовлетворение нужд пользователей, а Поиск, в частности, работает на и для посетителей, а но никак не в угоду веб-мастерам. И высказывания "Google разорил мой бизнес" никого, в принципе, не тронут, хотя это действительно неприятно, и веб-мастеру стоит посочувствовать.

    Вернёмся к рассматриваемому сайту. Чуть выше по статье мы выяснили, что он непопулярен в поиске Google. Какими вообще могут быть шаги в сторону его развития и повышения в результатах выдачи?
    1. Популяризация сайта в социальных сетях (группы, сообщества и т.п.)
    2. Участие на форумах, обзорах, сайтах Q&A (назовём это "тонкий спам" с главной задачей - "нащупать" аудиторию и запустить естественный механизм по добыче естественного сссылочного: люди читают, обсуждают и делятся на сайтах, в комментариях, соцсетях и т.д.)
    3. Охват не только ВЧ-запросов, но и СЧ и НЧ, потому что в топ высокочастотников сайт просто так не пустят, причины естественные - непопулярность сайта, низкий рейтинг. Вообще, необходим постоянный роз качества контента на сайте, а не просто рутинное наполение в духе "я его слепила из того, что было".
    4. Покупка ссылок. Тут надо сразу определиться с одним прямым, как палка фактом - Google против покупки ссылок. Это попытка манипулирования рейтингом, введение в заблуждение пользователей поиска из-за накрученных позиций, пострадавшее качество выдачи. Гс в топе это плохо. Поэтому есть и алгоритмы и Меры, принятые вручную. См. также вопросы с ноябрьской видеовстречи.
    5. Покупка статей на сайтах с рейтингом. Это тоже своего рода разновидность покупных ссылок. Беда в том, что это способ практически никто не использует по назначению. Все начинается и заканчивается покупкой скудного нечитаемого текста, даже в дорогущем издании, с анкорами "купить что-то где-то". Это спам, каким бы "трастовым" ресурс не был. Хотя изначально Google не против серьёзных и даже платных модерируемых каталогов, было-бы качество (ЯК и DMOZ). Отсюда можно задуматься об очень годных статьях без воды и мусора на серьёзных тематических ресурсах. Но серьёзные издания про "зелёные" сайты писать не будут, даже за деньги.
    6. Популяризация бренда и автора, база подписчиков.
    7. Внедрение новых функций, обеспечивающих рост популярности сайта.

    SEO аудит

    1) Самое святое - анализ конкурентов. Если не знаете, кто лидирует в запросах, значит сайт будет развиваться "с закрытыми глазами". Изучать конкрурента надо добросовестно. Он не просто так сидит выше и в топе, значит есть причины, которые нужно найти и понять. Задача - изучить всех и взять на вооружение лучшее. Разумеется, не нарушая рекомендаций Google и других поисковых систем.

    2) Анализ ссылочного профиля. Самая частая причина потери позиций - закупка ссылок.
    Ссылки должны быть естественными и качественными. То есть не такими выглядеть в глазах новичка, а таковыми являться на самом деле. Покупные ссылки приведут к ожидаемым результатам в Google: взлёт и падение.
    Ссылки с гс тоже желательно фильтровать, через Disavow Tool, как нежелательный баласт. Заранее отклонить - позаботится о будущем. Это больше касается коммерческих тематик, где много спама и манипулирования, к блогам относится в меньшей степени.
    Спам в профилях и комментариях Google тоже очень хорошо определяет.
    Для анализа входящих ссылок есть платные и бесплатные инструменты (Majestic, Ahrefs, Linkpad) с соответствующей разницей в функционале.

    3) Анализ запросов на свой сайт и проверка позиций в поисковых системах. Сторонние средства маниторинга позиций описаны в этой статье. Запросы Google отображает в WMT (Поисковые запросы) с возможностью выгрузки статистики в файл. Данные панели содержат неточную информацию и предназначены для общего анализа позиций, что вообще происходит.
    Счётчик/статистика Яндекс Метрика или Google Analytics - это стандарт. При помощи статистики можно разобраться, сколько и покаким запросам, откуда и в какое время идёт посетитель, и сделать вывод, насколько он целевой, а не случайный. Сколько возвратов и сколько отказов.

    Бесплатные инструменты определения позиций сильно урезаны в функционале, но, в принципе, работают.

    [​IMG]
    Online-инструмент с webmasters.ru​

    [​IMG]
    Бесплатная программа Site-Auditor​

    [​IMG]
    Коммерческий инструмент Serp Parser Lite​

    4) Анализ структуры сайта, бесполезных страниц и борьба с дублями. По дублирующей информации и структуре навигации в интернет-магазинах подробно описано в статье "Фасетная навигация сайта - хорошие и плохие примеры".

    Полезные ссылки:
    Дублированный контент.

    5) Анализ ссылок, сниппетов и заголовков в индексе.
    Всё это должно быть релевантно, и напрямую влияет на показы и клики (отображаются в WMT).
    Индекс динамичен, поэтому инспектировать ссылки нужно не только запросом оператора site, но и по поисковым запросам, потому что Google автоматически может подбирать title и description, и этот процесс надо контролировать.
    Напомню, что одинаковых тайтлов или сниппетов, состоящих из бессмысленных наборов слов (участков кода) быть в индексе не должно. Тоже самое касается и спама в в заголовках, это недоспустимо.
    К инспектированию ссылок в индексе необходимо наиболее добросовестно отнестись, так если сайт изначально отдаёт некорректные или неинформативные данные, то и результат в поиске Google может быть соотвествующим.

    Полезные ссылки:
    "Заголовок и описание сайта".
    "Оптимизация сайтов для поисковых систем (SEO)"

    6) Анализ внутреннего спама.
    Пример:

    [​IMG]

    Спам ключевыми словами и т.н. "сео-тексты" рано или поздно сыграют в минус.

    См. "Наполнение ключевыми словами".

    Это касается любого спама: в метаописаниях, в микроразметке (очень критично), в title и alt изображений и т.д.

    7) Предоставление Google информации о сайте и организации - Google мой бизнес. Странно вообще избегать развитие бренда в самом родном сервисе для Google, в Google+. Конечно, плюсы и кол-во подписчиков не выкинут сразу в топ, но в долгосрочном плане обеспечат целевыми посетителями и рекомендациями в поиске.

    8) Анализ "полезности" сайта с точки зрения пользователя. Чего не хватает, что лишнее и что можно внедрить.

    Наиболее важны:
    • Конверсия. Важно не само наличие какого-то трафика, а именно то положительные значение, к которому трафик приведёт.
    • Целевой посетитель. Лишняя нагрузка на сервер не нужна, если конечно целью не стоит накрутка счётчика. Посетитель должен находить на сайте то, за чем он пришёл, в противном случае это случайный гость, добавивший ещё один отказ, а не посетитель.

    Чего следует избегать? Преждевременных выводов. Если вы нашли десяток нерелевантных тайтлов - это не повод радостно бить в во все барабаны с криками "я нашёл!".

    Андрей Липатцев (Google):
    Из тех случаев, когда мне задают вопрос: "на мой сайт ведут внешние ссылки, кошмар, конкуренты пытаются меня утопить", в девяти случаях из десяти вопрос вообще никак не связан со ссылками. Ещё в девяти случаях из десяти он никак не связан с конкурентами. Но в тех девяти случаях он связан с техническими проблемами, либо такого свойства, что сервер не доступен, из-за чего робот Google банально не может попасть на сайт, или страницы закрыты от индексации.​


    Полезные ссылки:

    Справочный центр Сообщество для веб-мастеров Форум для веб-мастеров
     

Поделиться этой страницей