1. Ссылки покупок

    Стратегия на турбо опционы

    Обучение по Бинарным Опционам.

    Бизнес по рецепту. продажа женских товаров

    Мануал по добыче бесплатного трафика с поисковика Bing (2016)

    От 6к уникальных посетителей на страницу ВК

    Facebook

    Стратегия Лайв Профит - ставки на футбол

    [Ирина Шмидт] - Церебро Таргет 2016

    Новый дорген.

    Стратегия на спорт.

    Двойной арбитражник по бесплатному трафику (2016)

    Подробная инструкция по Созданию интернет магазина чая с нуля (2016)

    Чертежи солнечного био-вегетария площадью 1200 кв.м. (СБВ-Профи)

    Адский стрим по копирайтингу: то чувство, когда подглядывать - хорошо!

    Видео-Курс - Tехнология быстрого старта в email рассылках (2016)

    Продвижение партнерских программ в одноклассниках (2016)

    Научу грести трафик. Только успевай сервера покупать!

    Трафик из ВК (Схема + Кейсы)

    Пассивный доход со стабильными выплатами.Схема добычи трафика.

    Секрет создания аккаунта яндекс директ без НДС

    Система ставок от проверенного каппера

    Государственный и банковский конфискат +VIP блок (2016)

    Как работать и зарабатывать деньги на продвижении своих проектов (2016)

    Секреты бесплатной рекламы от бывшего сотрудника Вконтакте

    Mobile Арбитраж - Арбитраж мобильного трафика (2016)

    BUSINESS MANUAL - Безопасные схемы заработка

    Как получать 1000-и заказов из CPA сетей (Дм.Ковпак)

    Как зарабатывать удаленно 100 тыс. руб на продвижении в Инстаграме без вложений и жить в Тайланде

    Самонаполняемые Видео-сайты!

    Прибыльная стратегия для бинарных опционов, первый доход через считанные дни + бонус!

    Траф с Вк за копейки

    Профит на онлайн теме от 30к до Неизвестно в месяц

    Легальный высокодоходный бизнес в реале

Как я начал делать сайт за год и не успел

  1. Домен я зарегистрировал ещё в 2010 году, долгое время на нём висел сайт-визитка, потом ничего не было.

    Мысли об этом сайте крутились в голове давно, с декабря 2013 года. Тема в целом была востребованной, я оценивал потенциал посещаемости в 10-30 тыс. человек в сутки. В январе 2014 всё оформилось в моей голове в стройную концепцию и я пошёл на фриланс заказывать первый софт для проекта. Мне нужна была умная качалка контента, за 4 косаря мне её сделали.

    Технологии решают

    Недели 2 всё качалось, всего удалось скачать около 20 тыс. файлов.

    В Феврале я переговорил с моим системным администратором (он же php-программист) по поводу возможности создания такого сайта. Напомню, что в феврале 2014 я ещё вообще не знал php, БД, т.е. в технологическом плане плавал. Остановились на сумме в 25 тыс. рублей. Человек был проверенный, несколько раз выручал по администрированию. Несколько лет находился у же в сети и не пропадал. При общении сказал что программировать ему нравится больше, ну что ж, значит результат обещает быть…

    Сайт мне нужен был к концу года, поэтому разработка шла неспешно, к апрелю проект был закончен с технической точки зрения.

    В июле я отдал все контентные файлы проекта копирайтеру, надо было составить к ним описания. Она за месяц всё сделала. В августе я начал понемногу добавлять файлы на сайт.

    Фишка была в том, что к каждому материалу шёл архив, в нём содержались некоторые данные, которые нужно было разархивировать и добавить в БД. Программист написал и настроил на сервере специальную извлекалку, которая занималась этой работой. Т.е. добавляем статьи через админку, потом добавляем файлы скопом через форму в админке и они начинают обрабатываться, сами распределяться по статьям и добавляться в БД.

    На этом этапе стало понятно, что меня напрягает добавление через форму, т.к. она не принимала больше 100Мб файлов за раз. Ну ладно, можно потерпеть, файлы надо было добавить их всего один раз, т.к. я собрал весь контент такого рода который мне удалось найти в сети, то обновление сайта потом вообще не планировалось (нечем обновлять было бы). При желании, конечно, можно было бы что-то отыскать, но по принципу Парето я собрал 20% материала которые должны были дать 80% результата.

    При добавлении потестил, всё работает нормально, ладно, добавляем дальше. За 2 дня всё добавил. И тут сюрприз, статьи с ID выше 999 не работают, то ли программист INT(3) в базе поставил, то ли ещё какая херня не знаю.

    Отписал программисту. Он извинился за ошибку и сказал что исправил. Но фишка-то в том, что при добавлении файла создаётся связка по его номеру со статьей и теперь их уже не создать, пришлось всё перезалить ещё раз. Ок. Ещё 2 дня…

    Что бы закончить описание технической части расскажу об одном неудобстве, которое выявилось в процессе работы.

    Серверная версия обработки архивов имела один существенный недостаток: периодически попадались архивы с паролем которые останавливали всю работу. Могло произойти так, что вечером я накидал файлы и всё ночь они должны были извлекаться, наутро я встаю и смотрю что скрипт работал всего час-полтора а потом ему попался архив с паролем и он остановился. Нужно было зайти и из командной строки отменить обработку этого файла.

    Всё в порядке, сайт начал понемногу индексироваться, стала появляться посещаемость. Вот график развития сайта на тот период:

    [​IMG]

    Как видите посещаемость поднялась до 2371 в сутки, но потом через некоторое время всё обвалилось до нуля. Что же случилось?

    Вы, наверное думаете что сайт забанили? Нет. Упал сервер? Нет.

    А вся фишечка была в том, что когда я стал редактировать какие-то данные через админку, или ещё несколько статей хотел добавить (не помню причину, много времени прошло) в системе произошёл сбой и статьи все перепутались. Т.е. заходишь по id одной статьи, там вообще другая. Отписал программисту, он посмотрел, сказал да косяк, могу восстановить 30% статей, остальные надо перезалить.

    При перезаливке у них изменились бы адреса, а они уже в индексе, нужна переиндексация. А пока её нет, люди просто какое-то время из поиска попадали бы на совершенно другие материалы (они уже сейчас попадали на другие материалы).

    Стало понятно, что весь контент надо перезаливать и заново индексировать. По времени это дело не быстрое. Не то что бы я рассчитывал на постоянных посетителей, у информационных сайтов всегда львиная доля посетителей с выдачи, но сам я имею свойство запоминать плохие сайты и больше не кликать на них в выдаче. Поэтому на время работ я решил закрыть его от индексации в robots.txt

    Принять сложное решение

    Следующий вопрос возник: как именно его переделывать.

    Чем больше я работал с сайтом, тем больше мне не нравилась серверная обработка. Причину с паролями я указал выше. Ещё в будущем вырисовывалась проблема по причине смены сервера. Это чисто кастомная разработка и если этот программист не будет доступен, то потом объяснить новому что и как там было утроено я вряд ли смогу.

    Поэтому появилась идея перенести обработку файлов на мой ПК. Т.е. информация с помощью прикладного ПО обрабатывалась бы, данные обработке на компьютере писались бы в xml-файл со всеми необходимыми параметрами и необходимыми id для прикрепления к статьям. По окончании обработки кидаем все файлы по ФТП в одну папку, xml-файл в другую, запускам 2 скрипта и через минуту у нас всё в базе данных. Красота! И через админку не нужно утомительно загружать файлы. Так и сделал, впоследствии это решение дало прекрасные результаты по скорости наполнения сайта.

    Оставался вопрос: кто будет писать новую веб-часть? И тут-то и пришлось очень кстати то, что с апреля месяца я стал учить php. Прикинув всё я решил, что система не такая уж и сложная и уселся писать её с нуля.

    Проблемы старого движка

    Когда сайт уже начал работать я решил залезть в систему посмотреть что как сделано, да и блок рекламный нужно было повесить. Ну то, что там MVC нет уговор был, это не проблема, но то что там полная хрень какая-то стало для меня неожиданностью. Логика и представление всё же были разделены, но каким-то странным образом. Шаблонизатора нет. Файлов необычного много для такого маленького проекта. ЧПУ был как-то странно сделан, но плюс в том, что программным способом а не через htaccess. Убило меня то, что каждая картинка была добавлена в БД в отдельную строку а их там более 200 тыс. штук. Запросом конечно они одним вытаскивались, но это было очень странное решение… Перерыв всю систему и просмотрев лично все файлы я так и не нашёл заветного "места под меню" куда хотел поставить рекламу. Естественно, работать с такой системой я не очень хотел, и этот фактор тоже повлиял на решение писать код самому.

    Проблема откуда не ждали

    Вопрос: какая возникла следующая проблема с разработкой? Вероятно, вы думаете что я переоценил свои знания php и не смог ничего написать. А вот и нет. Написано всё было где-то за неделю, + 3 дня на тестирование. Т.е. через 10 дней, сайт был готов. Делал самописную систему. Всё оказалось довольно просто, смастериал собственный ЧПУ, картинки все сгруппировал, разбил по статьям, получилось 20 вместо 200 тыс. записей.

    Помните что вначале работ я решил закрыть сайт от индексации в robots.txt? Так вот проблема в том, что яндекс съел этот robots только через неделю, т.е. как раз когда работы подходили уже к концу )) Ладно. Проект доделал, robots.txt убрал и... ждал ещё 3 недели пока яндекс снова начнёт индексировать сайт.

    Ссылок, естественно сразу же накупил в sape уже штук 30 наверное, но всё тщетно. Как будто завидев запрет идексации в robots яндекс перенёс сайт в какой-то "долгий ящик". Более того, потом, когда индексация началась кушал сайт он крайне медленно, хотя по скорости загрузки проблем не было.

    В итоге посещаемость начала подрастать, но к прежней отметке сайт вернулся только к 18 ноября.

    [​IMG]

    Это в основном с гугла, яндекс не проиндексировал сайт полностью даже к январю 2015. Да и посещаемость была, но не по плану. До заветной цифры 10-30 тыс. хостов было далеко.

    Резервный план

    Я выжидал и занимался другими проектами, наблюдал за индексацией, посещаемостью. Не хотелось раньше времени принимать ошибочные решения, да всем мы знаем что поиск яндекса медленный, поэтому ждём...

    В 2015 году в феврале моё терпение лопнуло я создал отдельный сайт, выложил на него клон с другим названием, автоматически зарерайтил статьи по определённому алгоритму и стал ждать индексации.

    Расчёт был на то, что старый домен по какой-то причине получил понижение траста. Может из-за запрета индексации, может из-за того что не работал часть времени. А на новом домене этих отрицательных эффектов не будет. При этом, я понимал что поведение поисковиков не всегда предсказуемо и возможна куча ситуаций: отсутствие индексирования нового сайта, индексирование и бан, бан старого. Но я готов был пожертвовать этой небольшой для меня посещаемостью что бы попытаться её нарастить.

    Оседлать трафик

    Прошло около месяца и новый сайт был проиндексировал. Я был немного удивлён. Его посещаемость составила 2000 человек в день (меньше чем я думал) и на старый сайт переходила половина из них (1000 в день). Т.к. делать было больше особо нечего я забил на эти сайты и пошёл заниматься другими делами. Пока недавно не обнаружил в статистике вот такую картинку:

    [​IMG]

    Это посещаемость старого сайта. Когда произошёл первый резкий скачок, я сначала подумал может событийный трафик, какой, посмотрел статистику - нет, обычный. Распределение по поисковикам гугл/яндекс пополам. Последующие дни показали что посещаемость держится довольно стабильно, колебания незначительны. Плюс к ней надо прибавить ещё 2000 хостов на другом сайте.

    Вот именно столько по прикидкам и должно было быть. Теперь можно сказать что проект стал успешным и вышел на плановые показатели. В августе я стал выкладывать контент потому что по моим наблюдениям на утряску в индексе надо 3 месяца, т.е. сентябрь, октябрь, ноябрь, к началу декабря я планировал выйти на полную посещаемость. Но вот удалось только в апреле.

    Выводы делайте сами, я для себя ещё раз убедился что:
    1. Хорошие знакомые могут подвести. Если хочешь что-то сделать хорошо, сделай это сам ))
    2. Поиск он странный, не забивайте себе голову что он работает только так или только так.​
     

Поделиться этой страницей