Забыли логин или пароль?

Регистрация на сайте

  • google-pr

    Обладая собственным сайтом, преобладающее количество пользователей, стремятся увеличить его качество и подготовить площадку к монетизации. Одним из самых популярных способов заработка на своем сайте, является продажа ссылок. Стоимость ссылок зависит от нескольких факторов, в том числе и от пузомерок. Поисковая система Google для каждой страницы сайтов устанавливает собственный показатель Page Rank, который обязательно учитывается при установке стоимости за ссылку. Учитывая это, вам потребуется увеличить PR страниц своего сайта, а сделать это можно следующими способами:

    google-page-rank
    1. Настройте внутреннюю перелинковку, между страницами вашего сайта должен передаваться вес пузомерок. Лучше всего использовать «веерную» структуру, которая предполагает последовательные ссылки на каждой странице.
    2. Получить ссылки со страниц обладающих не нулевым уровнем PR, можно за счет комментирования DoFollow блогов. Можете использовать как русскоязычные ресурсы, так и зарубежные проекты.
    3. Каталоги статей так же могут позволить увеличить ссылочную массу, которая будет передавать часть веса PR. Суть предельно проста, пишите уникальную статью, вставляете в неё собственную ссылку и передаете в каталог статей.
    4. Не редко оптимизаторы и вебмастера предлагают размещение ссылок на сетках сателлитов(могу предложить свою не заспамленную сетку, пишите в комментариях или через контакты). Можете найти такие предложения  на серче и используйте их для поднятия ТИЦ и PR своего сайта.
    5. Покупка ссылок, это куда более эффективный способ поднять PR страниц сайта, но при этом требующий внушительных затрат. Если вы решите покупать ссылки, используйте проверенные биржи ссылок и выделяйте наиболее подходящие предложения. Каждый донор должен анализироваться(об сео-инструментах я говорил в прошлой статье  про фильтры сапы), по следующим признакам:
    — возраст сайта;
    — цена за ссылку;
    — уровень PR;
    — качество контента;
    — концентрация внешних ссылок на странице;
    — область расположения ссылки.
    Если покупать ссылки не обращая внимания на качество сайта-донора, даже 10 000 рублей могут не принести результата. Продвигайте сайты грамотно и старайтесь использовать наиболее качественные площадки для увеличения пузомерок.

    P.S. Хочу поделиться с читателями блога, своим проверенным  бесплатным онлайн инструментом для массовой проверки PR всех страниц сайта по карте сайте(sitemap.xml), очень полезно когда продвигаете одним потоком PR или просто узнать сколько страниц с пр у вас на сайте, для более выгодной продажи ссылок в сейпе и прочих биржах. + таблица расчета PR. Просто кликните по ссылке ниже.

     

    Кликните, чтобы увидеть скрытый текст

     

    5 Сен в 15:36 Комментарии (2)
  • Подъем тИЦ, мой фильтр для sape + База Dofollow ЯК

    Давно не писал в блог, на то были причины, связанные с учебой, но как говориться каждый успешный человек должен, перманентно пребывать в процессе обучения чему-то новому, дабы дать мозгу и нейронным связям больше гибкости и адаптивности в мышлении. Это напрямую влияет на нашу креативность и способность творчески подходить к решению различных по сложности, комплексных задач.
    Итак, за последнее время произошло пару важных событий, это долгожданный апдейт тИЦ Яндекса 28.03.2013, который меня больше порадовал чем огорчил, на блоге тиц вырос до 20-ки, что приятно, хотя закуплено было прилично ссылок с пр.сапы и гетгудлинкса, где незаспамленность площадок сыграла свою роль, на мой взгляд это один из самых важных критериев отбора доноров, буду еще ждать следующего апа и пропорционального роста показателя тиц на блоге.

    подъем тиц и фильтры сапы
    В сапе растить тиц уже для меня все менее рентабельно из-за количества площадок, поэтому окончательно решил полностью сосредоточиться и уйти в сферу СДЛ и мини-СДЛ(многостраничники на унике), ведь много саттов требуют постоянной поддержки, а это время, деньги, невыполненные планы, легче и проще инвестировать в 7-20 интересных проектов, чем в тысячу сателлитов, настало время уделить особое внимание своему тайм-менеджменту.
    Единственно фильтр, который еще использую для нагона 10-20-тиц’ок для сателлитов в сапе (беру по такому фильтру: уровень вложенности не ниже 2-го, цена до 2 рублей, тиц 10, страница желательно в индексе Я, пользуйтесь плагином Wink’a : firefox / Аналог для chrome. Внешних не более 3-х. Ссылок закупить >= 140. И главный момент, размещаете ТОЛЬКО безанкорные ссылки, хороший тон не использовать главную в проекте, а исключительно внутренние странички вашего сайта, на которые в идеале идет трафик, если он конечно имеется).

    подъем тиц
    Второе событие, которое для многих веб-мастеров не осталось не замеченным, это новая волна борьбы гугла с покупными ссылками, паника началась примерно 7 марта, а заявление от гугл было сделано 18 февраля в лице Мэтта Каттса в своем твиттере. У тысячи сателлитов и сдл-сайтов, торгующих в биржах, в частности сейп, было массово обнулено значение PR, у блога, тоже слетело все в одночасье, более 200 страниц с PR 1-3 в 0. Хотя в сапе продано пару десятков ссылок, от сейпы все же принял решение отказаться, прождал неделю переиндексации в гугле, после отписал в техподдержку, ответили отрицательно. Прошло еще 2 недели, повторно создал заявку в саппорт, и только тогда амнистировали, через пару дней PR вернулся, что несказанно обрадовало. PR на страницах это источник трафика с гугл, PR-0 это падение позиций, оно было мне не к чему.
    P.S. Напоследок, хотел бы поделиться с моими верными читателями блога, базой трастовых сайтов для поднятия  тиц с незакрытой индексацией внешних ссылок от поисковиков (более 170 сайтов в EXEL, почти все в ЯК, много в Дмоз, с высоким Тиц). Проще говоря, регистрация на сайте, даст вам возможность поместить внешнюю ссылку на ваш сайт в комментариях к записям или же в своем профиле, последний раз пару месяцев назад, когда нагонял одному проекту, ставил ссылки и там и там, советую делать так же и вам.
    Что даст Вам эта база? Начиная от возможного увеличения Тиц на пару десятков пунктов(10-20-30), как и прирост в + трафика, так и увеличение показателя доверия от поисковиков  в виде трафика и хорошей индексации у “застойных проектов”.

    Добавил кое-какой удобный плагин для скрытия контента, просто лайкните в соц.сервисах(сперва кликните ниже) новость и получите ссылку на базу.

    Кликните, чтобы увидеть скрытый текст

     

    28 Апр в 15:50 Комментарии (4)
  • яндекс-оригинальные тексты

    Свои сайты, в том числе и саты, люблю наполнять исключительно уникальным контентом (копирайт, рерайт по адвего не ниже  97%), времена машинного рерайта и синонимайза канули в небытие.  Сателлиты стали читабельными, а некоторые “хорошие сателлиты”, сделанные с душой и начальной внутренней перелинковкой аляwikipedia, даже начали приносить юзеров с поиска и дорогие клики с Adsense, помимо своего основного дохода в sape.ru.

    сапа-доход

    доход с адсенс

    Так вот, не отклоняясь от темы, можно сказать, что  основа сео это контент, а следовательно чем он уникальнее и релевантнее для конечного пользователя, тем  выше контекстный доход, поведенческие факторы и суммарный трафик на сайте . На мой взгляд, уникальный контент одно из самых важных вещей на сайте в общей массе других факторов, делающих сайт прибыльным (в частности для монетизации с контекста).

    Объясню на таком примере, чтобы не вдаваться в дебри и приоткрыть завесу актуальной темы. Недавно на серче проскользнул пост о поднятия трафика на произвольном сайте на число ~200 уникальных переходов и более уников с пс, как выяснилось мною позже, все  за счет одного размещения  сотни уникальных развернутых статей со смыслом, специально подготовленных и отобранных по нишам и цепочкам нч-ключей под проект. Для сбора дорогих ключей и хвостов под нч-трафик используется такой мощный инструмент как ru.semrush.com.  То есть Автор продавал будущий трафик, изначально заложенный в уник  контенте, который он готовил,  сроки ожидания 3-4 месяца (условия участия отсутствие АГС, фильтров,  пессимизации со стороны ПС).  Такое вот, интересное предложение.

    Но уникальный контент, удовольствие, которое стоит денег, и желание многих вебмастеров-манимейкеров  сэкономить  на нем, как показывает опыт, в большинстве случаев не оправдывает себя.  Так что тут уже идут различные приемы : использование парсеров закрытых соц. сетей\сайтов,  жизнь копипаста прямо пропорциональная количеству обновления материала и уникальности структуры подачи контента в дизайне и т.п.).

    Если уж деваться некуда и надо создать очередную сетку сатов под биржы ссылок в условиях ограниченности фин.ресурсов, или же просто необходимо найти источник обновления для сатов, могу предложить один простой вариант добычи уник. контента, который работает по настоящий момент,  не все о нем наверное слышали.

    Заключается он в поиске уникальных статей по тематике вашего сайта, в украинском сегменте интернета (будто то гугл, яндекс  и.уа и т.п.), на украинском языке(!). Далее, когда тематическая статья найдена, она переводиться  на русский язык через онлайн гугл переводчик http://translate.google.ru/#uk/ru/ ,  с  украинского языка на русский гугл переводчик выдает полностью читабельные тексты для людей. Учитывая, что уже в бета режиме, гугл транслэйт дает возможность переводить поточно файлы.  Для других мало распространённых  славянских языков, не проверял, можете сами поэкспериментировать и поделиться своими результатами.

     переводчик гугл онлайн

    И еще такой момент, после перевода, загоняете, только что сделанный уникальный контент в систему Адвего Плагиатус, делаете глубокую проверку на уникальность и замеряете, процент уникальности текста. У меня обычно 80-100%. Иногда попадаются 50% и ниже, главное проверять и быстро попадать в индекс, (можно прогонять новые странички через соц.закладки) такие сайты в индексе живут хорошо, ведь это уникальные и читабельный тексты.

     адвего проверка уникальности

    Из инструментария, что могу еще посоветовать использовать,  помимо широко известного  http://webmaster.yandex.ru/addurl.xml, это сервис из Яндекс Вебмастера – Оригинальные тексты, который находиться в разделе сайта в вебмастере:  Меню СайтаСодержимое сайта

    вебмастер яндекс

    При желании весь процесс можно автоматизировать с помощью того же хьюман эмулятора, или же за 10-15 баксов заказать на фрилансе автономный скрипт, который будет делать тоже самое, но только на потоке и в большем количестве и при минимальных время затратах, сортируя собранный контент по категориям в папки.

    яндекс-оригинальные тексты

    P.S. На этом методы добычи уникального контента не заканчиваются, буду продолжать, и дополнять эту тему.  (В расчет брать, парсинг, закрытые соц. сети  не буду, не считаю это достойным нашего внимания, только то, что актуально и интересно  самому)

    25 Фев в 23:24 Комментарии (3)
  • Новая биржа WebArtex.ru — типо лучшие статьи в мире, мира отдыхает

    Ну, в общем. У нас тут бирж в рунете дофига образовалось, как и всего, что может деньги приносить. Поэтому на количество уже никто не реагирует — мол, чо там, казапа появилась? Еще кто? А зачем? Для временных ссылок народ использует Сапу, извращенцы используют Трастлинк. Вечные ссылки? GGL. Новостные? PR Sape. С PR-ом? ГетГл. Блоги? Блогун или Ротапост. Что еще? Ничего. Все. Все что надо, купить можно тут. Если вы уж очень заботитесь качеством проекта, тогда форумы. Или лично писать, или обмен там.

    Видимо, именно для гиков сео, которые хотят получить ссылки настолько естественные и прозрачные, что прямо… у меня даже сравнения нет. В общем, думали-думали ребята в SeoPult, и решили создать мега-биржу WebArtex.ru, по сравнению с которой GGL будет нервно курить в сторонке. Ребята настолько параноили качеством ссылок (еще бы, про цены будет отдельный разговор), что:

    • Контент пишут только сами, ажно за 270 рублей статья (объем, кстати, пока не оговорен)
    • Сами выставляют цены на ссылки — отож демпинг будет, вебмастеры захотят срубить денег и загадят сайт
    • Повторная модерация — перестал соответствовать нормам — пинка под зад
    • С линкобиржами нельзя вообще — какие там восклицательные знаки?
    • тИЦ от 20, возраст от года (они ггл удвоили?), с доменами третьего уровня только через постель в случаях, если ваша зона в белом списке системы (есть в правилах)
    • Братья-украинцы не попадут в биржу) только русский язык

    Такие вот требования к вебмастеру. А что обещают вебмастеру? Подключение сайтов к своей кормушке СеоПульту, что должно обеспечить мегадоход, так как в системе мегацены! Реффералка, мать ее!

    Есть и другие няшки, типа как в статье будет 2 ссылки (под два запроса, сами выбираем, какие):
    стоимость 2 запросов

    Ну или там что система позиции показывает и такое все. Хотя это уже мелочи сегодня. И количество проиндексированных купленных ссылок.

    Все бы хорошо, но вот пара косяков. Один: цена довольно сильно зависит от рейтинга. А рейтинг от:

    1. Автомодерация (начисляется до 60 баллов рейтинга), проверяются:
    - ТИЦ
    - PR
    - возраст
    - количество страниц в индексе ПС
    - наличие сайта в каталоге ЯКа
    - наличие в сайта каталге DMOZ

    Ну и от:

    2. Ручная модерация (до 30 баллов), рейтинг начисляется за:
    - отношение входящих ссылок к исходящим
    - посещаемость сайта
    - дизайн
    - юзабилити сайта

    Ну, в принципе, темно. Мы сразу будем знать, чей сайт крут. Но! Вот это вот, извините, пиздец:

    вебартекс цены

    77 рублей за размещение… 270 за контент. Нет, ну ладно, вебмастер не будет писать статью, там свой народ есть, он тупо на карман получит, а оптимизатор получит две ссылки и хорошую статью, типо. Логично? Не очень.

    1. Я вебмастер и хочу поднять тИЦ, в попу мне ваши позиции не сдались, давайте дешевле, но по 1 ссылке? Неа.
    2. Я оптимизатор, у меня один запрос, схрена ли мне два добавлять? Неа.
    3. Я вебмастер, у меня дохрена статей, зачем мне размещать по 2 ссылки и в новой, если можно с тем же тиц 20 разместить 2 ссылки в GGL в 2 старых постах и получить в три раза больше денег?
    4. Я оптимизатор. Зачем мне покупать 2 ссылки с одного сайта тиц 20-30 за 350-400р, если я могу купить у конкурента GGl 3-4 ссылки с 3-4 сайтов за те же 400р? Мне не пофиг ли, кто там будет контент писать? Заказал заметку и будет окружение, а проверялка на минимум знаков и так есть в системе.

    Ну и это не все. Вот у меня сайт в GGL. Я пишу туда контент, нет линкобирж, время от времени размещаю обзоры. Я, при грамотном подходе, могу быть уверен на 99.9 процентов, что я буду размещать ссылки, сколько душе угодно. И хоть новый сайт с небольшим тиц на 100 страниц и без обзоров я смогу продать за 700-1500 баксов, хоть сайт с 500 ссылками и, там, 3000 статей, например. Т.е. стабильность есть. И покупатель уверен что, купив сайт, он, при том же самом грамотном подходе, будет долго и стабильно рубить бабло. А здесь? Повторная модерация. Купил сайт с доходом, допустим, 10к в данной бирже. За 150к, допустим (доход то пассивный типа, статьи за тебя пишут). А тут — еблысь — перемодерация, и сайт отклонили. Мало ли что. Саппорт тут пока еще никому не известен. Я бы поостерегся такие сайты покупать, год-другой так точно.

    В итоге что? Делать сайты для продажи там пока никто не будет — ссыкотно. Делать сайт там для дохода — значит забыть по всякие там сапы и т.п. А в GGL можно аккуратно совмещать. Тем более еще неизвестно, что там за статьи-то писать будут, тогда как самому или своего манагеру уже доверяешь, и выходит по 50р, а не по 270. Т.е. там, типа, будут самые самые СДЛ. Ну… может быть. Но сайтов будет не много. Оптимизаторов тоже — тИЦ не поднимешь не выгодно по описанным выше причинам, НЧ-СЧ разоришься продвигать. Зачем оно?

    Ну и про качество сайтов — даже не смотря на то, что там всего их несколько десятков пока, уже нашел сайт с тИЦ 300 без PR — стоимость размещения 143 рубля, ну и 270 статья. С тИЦ 300 можно спокойно по 200-300 продавать ссылки. Зачем сюда добавлять? Не так то уж и выгодно. Ссылка с тиц 1300 и PR4 стоит дешевле, чем с 250/3. Реально, что ли, качество анализируют? Если разница цен зависит больше от качества сайтов, а не от пузомерок, значит уже допускается принятие ГС с большим пузом и занижение цен на них. Самой биржей. Было бы логичнее принимать только СДЛ и сделать статические цены в зависимости от пуза.

    Короче, вывод: на данном этапе биржа не нужна 95% оптимизаторов и вебмастеров. Спасти ее сможет только сам сеопульт, который будет гнать туда вебмастеров закупкой ссылок с собственного же сеопульта, ну а когда много сайтов будет, тогда какой-то процент оптимизаторов будет часть бюджета сливать на ссылки там, когда уже можно будет выбирать по адекватной цене что-то на тех донорах, что ни в сапе ни в GGL нету — такие ссылки реально могут сработать. Но, все равно. Имхо — биржа для единиц.

    И — да, рейтинг зависит от соотношения внешних ссылок к внутренним. То есть чем больше ссылок разместил, тем меньше зарабатываешь? Или постоянно вебмастеру еще и на ссылки тратиться, чтобы получать стабильно? Из тех денег, что за вычетом копирайтинга вебмастеру уходит, не так то уж и много получается. Нужно оно?

    16 Фев в 0:20 Комментарии (16)
  • Дешевый контент — решение ли?

    Меня довольно часто спрашивают, почему я не покупаю контент, за редкими исключениями, а пишу преимущественно самостоятельно все статьи на все свои сайты. В принципе, сайтов очень много, и львиная доля времени уходит именно на написание контента. Только в GGL заявки иногда даю кому-то обрабатывать, когда сам уже совсем перестаю успевать все это добро разгребать или если нужно надолго уехать.

    текстсейл

    Continue reading “Дешевый контент — решение ли?” »

    10 Фев в 2:06 Комментарии (11)
  • Первая попытка с GetGoodLinks не удалась

    Походу, у меня намечается начало новой эпопей по улучшению имеющихся сайтов и постепенному добавлению в GGLы. Буквально вчера я написал пост про попытку добавить сайты в GGL в GetGL. Ну так вот — с разными причинами отклонили абсолютно все, вне зависимости от PR, DMOZ, Алехи и других показателей.

    getgoodlinks отклонение

    Так вот, придется мне теперь долго и усердно дорабатывать почти десяток сайтов для того, чтобы все приняли в обе биржи :) . Думаю, эпопея растянется на несколько месяцев. Радует одно — причины отклонения сайтов у разных проектов были разные, а значит и сайты на разном этапе принятия в биржу и соответствия требованиям.

    Надеюсь, моих навыков хватит, чтобы за 2-3 месяца полностью решить данную проблему, если плотно ей заниматься. Ну а по жизни будет видно — я, если честно, рассчитывал на принятие данных сайтов, как минимум половины. А еще советую почитать достаточно интересный и посещаемый блог про то, как сделать сайт самому. Больше по созданию, чем по заработку сайт, оформлением чем-то КтоНаНовенького напоминает.

    7 Фев в 21:52 Комментарии (6)
  • Про DMOZ и сниппеты поисковиков

    Вообще-то я давно знал что поисковики иногда используют информацию из DMOZ при формировании сниппетов своих в выдаче. Но вот что на примере моего блога оба поисковика пойдут по этой схеме, причем быстро и одновременно — честно говоря, никак не ожидал.

    Ну например, в dmoz у моего блога такие описание:

    SeoUniver — Статьи и материалы про продвижению, ведению и созданию сайтов и блогов.

    Нормально.

    описание в DMOZ

    Яндекс уже давно его использует:
    описание в дмоз в яндексе

    А сейчас и Google подключился:
    описание в дмоз в яндексе

    Это я в чему. Те, кто любят говорить о том, что DMOZ не влияет никак на выдачу и вообще на формирование позиций больше, чем просто ссылка — не правы. На самом деле используется, и активно, и сейчас, и много лет подряд. Меня, кстати, устраивает такой сниппет. Хот можно было бы, конечно, запретить формировать сниппет по DMOZ каталогу, но я его уважаю, так что пусть висит.

    Кстати, я наконец-то нашел фирму, которая на потоке на заказ выпускает приложение под ведущие ОСи мобильные — http://www.digitalpromo.com.ua/mobile/. Сделать подкаст СЕОшный что ли, на OS приложение простенькое для дайджеста? :) На хабре писали, что такие вещи много дают посещаемости на основной проект.

    7 Фев в 21:32 Комментарии (0)
  • Про относительность уникальности контента

    Небольшой пост-рассуждение. Пост касается уникальности контента не в бредо-процентах, а с точки зрения уникальности по исходнику-первоисточнику контента. Это же совершенно разные вещи. Немного новой информации у меня появилось после того, как один из новостных проектов приняли в новостные агрегаторы, в том числе Яндекс.Новости.

    Суть в том, что каждая новость любого нормального новостника моментально забирается по RSS агрегаторами и транслируется, соответственно, чаще всего в открытом для индексации состоянии. Ну а так как быстробот ходит на рандом, а новости обновляются от нескольких минут до нескольких десятков минут, было достаточно интересно, как удается безошибочно определять источник новости, и как вообще для часто обновляемых сайтов проверяется уникальность.

    Для начала скажу, что вопрос с большими статьями или новостями были быстро решены (а страницы с количеством полезного контента более 2000 символов, вроде, считаются статьями и отображаются отдельно, точнее дополнительно к выдаче новостей). Или даже более чем 2к… в общем, разница есть, размер имеет значение. Например:

    новости и статьи

    То есть статья — это солидно. Все остальное — новости. Если новость подходит под сюжет, идет в общий поток, сортируется по времени и другим показателям, мне неизвестным. Но там, в последних по дате новостях, далеко не все новости с сайтов в системе ЯН. Так-то. В общем, я, после нескольких месяцев учений, все таки заставил себя научиться каждую страницу более 2 кило добавлять в сервис Яндекса.

    оригинальные тексты яндекс

    И эта статья тоже туда пойдет. Кстати, помогает писать более качественный контент — когда ты уже привык все туда добавлять, автоматом дописываешь до 2-3 кило каждый пост, чтобы мог пройти. Фиг знает, работает оно или нет… но по дереву народ стучит и через плечо плюет :) . Если сервис действительно влияет на алгоритмы, то пара кликов — это ничто перед бесплатным шажком к топу. Но вернемся к новостям.

    Яндекс сначала проверяет уникальность, а потом уже анализирует контент. Во какое заявление. Пример: добавлена статья на новостник на 4000 символов, раскрывающая тему достаточно скандальной новости последних дней, там мнения разных людей, анализ, мое мнение как редактора и много всяких няшек. Видео… Ну так вот — сначала Яндекс отправил сайт в общий список новостей и партнерскую панель ЯН, где было написано, мол, новость уникальна и доступна к публикации в ЯН (цветом выделяется). Только спустя некоторое время уже происходила сортировка по сюжету, потом по размеру контента — отправили в статьи, потом проанализировалось остальное.

    Это я к чему — если основные алгоритмы поиска работают похожим образом, то даже если у вас сотни дублей контента на других сайтах, даже более трастовых, изменить первоисточник в глазах Яндекса очень сложно (не смотря на то, что мой сайт новый, из сотен новостей только с одной такое произошло, да и то потому, что другой новостник с полу-рерайтом задним числом опубликован, да еще и он в сотни раз трастовее меня).

    Короче — нечего бояться. Пингуйте, добавляйте в ЯВМ, помогайте Яндексу узнать, что контент писали именно вы — и проблем не будет. А на копипастеров можете не обращать внимание. А еще можете в блэкджек казино поиграть. Я-то сам больше по покеру, но вдруг есть среди читателей любители блек джека. :)

    6 Фев в 15:31 Комментарии (4)
  • GetGoodLinks + GoGetLinks = профит

    После апдейта PR (очень удачного вроде как) решил попробовать сайты, которые есть у меня в GoGetLinks, добавить еще и в GetGoodLinks. Причем не ради денег, а ради продвижения самих сайтов.

    Суть в том, что я продолжаю развивать 90% монетизируемых и не монетизируемых проектов, за исключением совсем уж ущербных сателлитов :) . То есть час сил, времени и денег постоянно уходит на доработку проектов. И есть с GogetLinks я пока еще не могу выводить деньги, то в GetGoodLinks мне это и не нужно — весь заработок в сайтов идет на покупку хороших PR-истых ссылок на этой же бирже на те же сайты, что там зарабатывают.

    В принципе, достаточно хорошая технология, которая в сумме с постоянным добавлением уникального контента без ссылок позволяет монетизируемым на ссылках сайтам постоянно идти вверх.

    проекты в гетгл

    Плюс к этому я, за очень редкими исключениями, не торгую в автобиржах на СДЛ уже давно, только если по 5-10х ценам, и небольшое количество ссылок на действительно нормальные сайты (гс себе такие цены не позволяют) моим проектам почти не вредит.

    Собственно, это все было только лирическое отступление. Как многим известно, в ГетГудЛинксе вы можете продавать ссылки только со страниц, PR которых ниже главной. Если главная PR3, то продавать можно с 2 и 1. Понятно, в общем. В принципе, правильно сделали — зачастую на новых сайтах PR вылазит на внутренних страницах, даже если на главной ничего нет. Толку от таких ссылок немного, да и PR на следующий ап или обнуляется вообще, или достаточно сильно снижается. До 1, чаще всего. Нет смысла, в общем, там затариваться дорогими ссылками — на пол года это максимум будет.

    В общем, получилось отправить на модерацию 7 сайтов с хорошими показателями. Надеюсь, хотя бы половину (да, половину из 7), бОльшую половину, туда примут. Все таки владельцы у бирж одни, и если одна из половинок сочла сайт классным и качественным, у другой тоже оснований нет отказывать, имхо, если пре-модерация пройдена и количество страниц достаточно большое с нужным показателями. Посмотрим. До пяти дней обещают рассмотреть, потом о результатах еще один пост напишу, мне не жалко :) . Хорошо, конечно, если примут те сайты, у которых PR главной 3-4 — там ссылки можно по очень вкусным ценам продавать, и одна ссылка окупит пяток ссылок в ГоГетЛинксе на себя. То есть есть шанс за пол года такой стратегии поднять тИЦ всем сайтам на несколько десятков, перейти в другой диапазон цен в ГоГете, а заодно подтянуть трафик и еще немного поднять PRа.

    предварительное добавление в ггл

    Но это, опять же, идеальная ситуация, если все примут. На деле может все оказаться куда плачевнее, чего бы не хотелось. Все таки лучше быстро поднять сайты с нормальным финансированием продвижения, а не выделять по-немногу на каждый проект, да и то периодически. В общем, дождусь результатов и решения модераторов биржи, попробую-посмотрю, доделаю сайты и исправлю ошибки, если модераторы найдут, а там уже буду решать. Так вот.

    6 Фев в 14:06 Комментарии (4)
  • Продолжение АПдейтовой эпопеи — суровая жесть

    Даже и не знаю, с чего начать. Эти два апдейта подряд просто с ума народ свели, а меня тем более, потому что каждый час результаты все круче и круче. Прямо таки, хочется жить и трудиться. Если по результату текущего апа и еще и тИЦ добавят по всем проектам, я даже не знаю, что сделаю :) .

    По очереди: лежит сейчас почти все, по очереди. Сначала лег Яндекс, лег настолько что даже Яндекс.Новости легли. Там было эпичное: Автоматически обработано 0 источников… Более часа СМИ вообще не сканировались. Потом GGL лег, пробекапился, отлагал.

    Автоматически обработано 0 источников, обновлено в 01:41 Москва

    Сейчас уже почти три ночи… я бы не беспокоился, если бы параллельно не были доступны панели СМИ. У меня аж волосы на попе поседели… Ну да ладно, будем надеться Яндекс со всем к утру справится. А так — все супер. Прирост кучи беков — у одного сайта было 245 ссылок, сейчас 1000+ по ЯВМ. Доноров тоже в три раза больше. По GGL — +5500 денег, супер. Еще пара таких апов и я начну быстро все свои вложения отбивать. По индексу — вообще лафа. Ради таких рисунков я готов сутками статьи писать класса А++ на все сайты :)

    результаты апа

    А если учесть, что был АП PR, и его результаты пока еще никак не монетизировались, так как времени на это нужно немало, то вообще круто становится. А если еще и о грядущем апе тИЦ подумать… а на досуге еще вспомнить про то, что следующий ап охватит эти 10 дней перерыва, точнее шесть, с 30-го Января по текущее число… а потом ап будет кушать всю ту работу, которую я буду в бешеном темпе делать всю следующую неделю… В общем, за февраль, тьфу-тьфу-тьфу, есть шанс еще в пару раз всю сетку сайтов раскачать на новый уровень. Ништяк, просто ништяк. Всем добра! Мое кунг-фу работает.

    5 Фев в 3:08 Комментарии (4)
  • Double kill: выдача плюс PR, остался тИЦ

    Только только днем прошел апдейт Google PR, как с наступлением ночи нас ожидал апдейт выдачи. Его ждали многие чуть ли не сильнее, чем Google PR, так как последний ап текстовой выдачи был в Яндекса аж целых 10 дней назад. А тут вот так удачно совпало. Правда, пока что только сохраненка прошла, но мы тут все очень сильно надеемся и на удачный текстовый.

    СЕГОДНЯ!!!
    5 февраля 2013 [0:15 сохраненка]
    0:15 Обновление сохраненной копии, выложена от 30 января 2013

    Я даже часть сайтов пока что в сапу еще не добавляю, апдейта жду, так как потом переиндексацию придется месяц ждать. А за 10 дней было очень много чего сделано.

    Плюс к этому Google обрадовал… неплохо так подтянул некоторые позиции, не смотря на то что в среднем по больнице у меня небольшой + -, один запрос с 44 место на 1 сразу прыгнул, ну и из топ 2 в топ 1 почти десяток запросов доросло. Ну и понедельник тоже свою роль сыграл. В общем, смотрите, что у меня сейчас в стате:

    трафик с google новый

    Будет очень круто, если это не единоразовый всплеск, а стабильно теперь так посещалово переть будет. Еще один стимул разгребать текущие рабочие завалы :) . В прочем, чего это я жалуюсь. Если бы меня этот геморрой не устраивал, я бы давно ушел вместе с маулом в какое-нибудь ПАММ инвестирование и собирал себе в портфель реффов, ну а потом и жил на них. Ан-нет. Сейчас допиливаю блог (кнопочки, кстати, вниз все перенес и перекрасил под цвет :) ), а потом с новостником разбираться пойду. Ему тоже трафф нужен. не одной сапой же едины.

    Ну и — да, всем удачного АПа! На серче с радостей аж 5 тем создали за 3 минуты.

    UPD: вот оно

    СЕГОДНЯ!!!
    5 февраля 2013 [0:15 сохраненка] [1:33 RU+EN]
    0:15 Обновление сохраненной копии, выложена от 30 января 2013
    1:33 Текстовый апдейт: выложен индекс по 30 января 2013
    1:39 Ссылочный апдейт: учтены ссылки, попавшие в индекс по 30 января 2013

    5 Фев в 1:33 Комментарии (2)
  • Апдейт Google PR 4.02.13 — предварительные результаты

    Вот и наступил заветный апдейт Google PR 4.02.13 — народ оживился — прикольное дл вечера понедельника событие, пошел анализировать сайты, сравнивать результаты, думать, как монетизировать имеющийся PR и что делать дальше. Сервисы проверки данного показателя получили бешеный прирост трафика, в том числе и мне немного досталось по смежным запросам. Для полного счастья осталось только еще выдачу пару дней подряд апнуть, с ссылочным и текстовым, а заодно потом тИЦ. И тогда оптимизаторская братия уйдет в запой — кто горя, кто с счастья.

    Так как у меня пока что не получилось точно оценить результаты апа и посчитать странички и доход, так как мало времени прошло + все нормальные сервисы 50Х ошибки выдают — не справляются сервера. Предварительно — большинство моих собственных тем и экспериментов, которые большинству казались детскими и на форумах над ними стебались, оказались верными — около 3000 страниц с PR1-5 я точно дополнительно в этот ап получил. Правда, чтобы грамотно и без особого вреда их всех монетизировать, потребуется много времени, сил и немного денежных вложений. С другой стороны, я без особого труда теперь смогу продолжить свой сапомарафон и вывести его на 1000 рублей в день уже до конца зимы — в начале весны. Короче, гугл очень к месту и очень вовремя обновился.

    И еще — если вам PR реально важен, а также вы хотите сделать правильные выводы — советую таки почитать несколько следующих постов — все они будут относиться к Google PR, ну или почти все, и в следующий ап у моих подписчиков есть реальный шанс тоже получить до 1000+ саподохода. :) Ну а я пока разгребу свои делишки и продолжу монетизировать имеющиеся сайты и ставить эксперименты. Для затравки пару скриншотов быстрого анализа по моим новым сайтам:

    апдейт PR google 1

    Ну и совсем няшные страницы (это не для всех сайтов тема так поднимать):

    ап pr лучшие результаты

    В общем, теперь к циклу продвижения блога под трафик и sape доходу появится еще небольшой цикл про PR, буду опытом делиться :) Жду в подписчиках!

    4 Фев в 21:30 Комментарии (2)
  • Про анализ сайтов и тематический индекс цитирования (тИЦ)

    Давненько я не писал чисто информационных статей по SEO и продвижению сайтов, в течение нескольких дней постараюсь наверстать упущенное. Первую статью хочу написать про тИЦ, так как тема остается актуальной, да и последний апдейт тИЦ был аж в прошлом году — все уже заждались, в том числе и я. Ну и плюс к этому, у меня запросов по тИЦ не хватает :) . Плюс к этому я сам, наконец-то, жду прибавления ИЦ на своем сайте, так как моя история изменения тИЦ на данный момент оставляет желать лучшего:

    история изменения показателей моего блога

    Один раз нормально апнуло — и тИЦ, и PR, а потом просто странички медленно, но растут. А надо бы и остальные показатели на должный уровень подтягивать. Вдруг что, а будет резервный план для заработка. И еще немного хочется сказать по отношению к освобожденным доменам с тИЦ, а точнее к тем, кто не любит их покупать и монетизировать:

    Рано или поздно дропаются очень многие сайты, в том числе и хорошие, не обязательно УГ. Соответственно, если вы умеете ждать и проверять много шлака в поисках хороших доменов, вполне реально за 20-50$ получить домен с историей и ссылочным не хуже, чем у моего блога. А здесь уже будет простор для создания нового сайта, и вполне можно будет поднимать СДЛ на дропе, а не обязательно сателлит для Sape.

    Другая проблема, что даже домены с нормальной историей иногда оказываются под АГС, а потому либо приходится покупать домены уже в индексе на момент продажи, либо подбирать те варианты, у которых индекс был как можно ближе к дате дропа и продажи, соответственно. Но это уже о рисках.

    Кстати, еще немного новостей по тИЦ. Большинство же знает, что Народ теперь Юкоз, то бишь перенос обещают нам всех сайтов с народа на юкоз платформу в течение… где-то до марта. Это отличная возможность выкупить народ домены с тИЦ (ведь теперь не нужно отдавать почту при продаже, домены-то через UNet профиль передаются), а значит можно покупать дешево домены с хорошим тиц, быстренько (по сравнению с HTML на народе) возводить сайты на платформе Ucoz, и получать многостраничники с дешевым тиц во много раз быстрее. Не круто ли? Да и ЯК на народе стоит не 500-700 баксов, а 150-300. Хороший такой простор для расширения сетки сайтов для заработка. Да и о смене NS и прочего можно не беспокоиться.

    Правда, по Юкозу сложно найти спецов чтобы, например, диз сделали нормальный или настроили. Большинство таких специалистов это завсегдатаи мегасофта. Страшный контингент.

    Короче, вот вам два способа реально неплохо подняться на дропах. Пока еще не все поняли, что там происходит с народом и второе большинство не признает дропы, мы можем рубить бабосик.

    3 Фев в 12:26 Комментарии (2)
  • Увеличиваем количество НЧ трафика с Google

    Собственно, это очередной небольшой эксперимент для статистики. На данный момент я занимаюсь увеличением поискового трафика с Google, уже второй месяц как занимаюсь. Пока что получается, но медленно, а потому я решил увеличить количество НЧ в топе Google, чтобы с них тоже трафик собирать. На данный момент ситуация у меня такая:

    поисковый трафик с google

    Сейчас я занимался тем, что постепенно выводил в топ часть из этих ~700 поисковых запросов. Теперь решено параллельно пойти другим путем — написать несколько новых статей и пере-оптимизировать старые в плане увеличения количества тематических НЧ на странице для их продвижения.

    Для опыта в течение февраля хочу до 1000+ продвигаемых запросов довести, дальше уже буду на результат смотреть.

    Суть, собственно, проста. Так как двигаю я через Google, то и запросы буду подбирать через Google. В плане это большинство низкоконкурентных запросов из тех, кто сама ПС мне и предлагает:

    подбираем нч запросы

    Правда, гугл далеко не всегда выдает нужное количество полезных запросов, поэтому иногда приходится искать основные запросы в Яндекс Wordstat, а остальной подбор запросов в Гугл производить. Обычно это смежные запросы выходят, так как Adwords сделан больше для размещения объявлений а не чтобы под SEO НЧ искать.

    Далее, когда Google соберет в панели вебмастера статистику по 1000+ запросам, по которым сайт ранжируется и были показы/переходы, тогда уже можно будет и их в топ подтягивать. Ну и плюс к этому, помимо оптимизации старых страниц напишу несколько десятков общих и информационных статей по продвижению, которые будут охватывать и раскрывать недостающее количество низкочастотников. Такие вот планы.

    3 Фев в 12:09 Комментарии (4)
  • Шаг #5 — внутренняя перелинковка сайта

    Данный этап — логическое продолжение предыдущих четырех, а также выполняется параллельно с прошлым. Использоваться будут несколько софтин для достижения цели — SiteAuditor, который любезно помог подобрать по 3 релевантные страницы в Google и Яндекс по каждому запросу, а также данные онлайн анализа PageWeight и только что купленная его десктопная версия за 1200 рублей. Такой вот джентльменский набор.

    Сразу скажу, что даже серверный анализ за 6 рублей кое-что помог выяснить. Как минимум оказалось, что:
    1. Со сменой дизайна появились 404 страницы, тем более что открытые для индексации. Поправили кое-что в коде шаблона и в robots.txt
    404 новые на сайте
    Уже не в минус. Да и еще кое-какие ошибочки в роботсе поправил. А ведь эти нерабочие ссылки хоть и по чуть-чуть каждая, но в сумме немало веса забирали. Да и вообще, 404 это плохо.

    2. Обнаружил, что у меня есть редиректы со старых категорий на новые, при этом каким-то образом остались и видоизмененные дубли и еще какая-то ересь. Короче, закрыл все это добро от индекса через роботс.

    ненужные редиректы

    Куча-мала-то какая творится, а я и не знал. А с начала-то еще веселее было. Ладно, идем дальше. Впереди на очереди еще битые ссылки править и по анкор-листу сайта искать лишнюю перелинковку (глупо построенную навигацию). Но это потом. Сначала нужно еще несколько мелочей сделать.

    3. Закрываем все дубли кроме основных страниц категорий. Дубли категорий у меня тоже были, как оказывается. Пришлось закрыть все от индекса, оставив только категории в чистом виде, так как на них пока что очень большой вес, судя по всем данным, и он на статьи перетекает, что логично.

    Ссылок, естественно, лишних, после этой чистки также несколько сотен убралось. Соответственно, вес остался на страницах и перетек на другие, более важные страницы. Еще небольшой вопрос встал с архивом. В моем случае архив есть копия вывода статей с блога, а также с рубрик, то есть его я тоже закрыл от индекса. Ровно как и ссылки на него закрыл в nofollow, ибо нефиг на закрытые от индексации страницы вес передавать.

    Зачем я все то делаю и зачем это пишу? Суть в том, чтобы сделать все страницы-дубли только для навигации — если реально хочется полистать и посмотреть, что когда о чем писалось. Ну а так как все эти страницы от индекса закрыты, а ссылки на них закрыты в rel=nofollow, то и вес мы им передавать не будем. Зачем это?

    Ну, как пример: проверка PR страниц по my-seotools.ru выдает сейчас такие данные (по постам):
    результаты проверки PR

    Но! Когда я в сапе ссылками торговал, то прекрасно помню, что у меня еще и категории были с PR и дубли даже некоторые. А так как на дубли никто ссылки не ставил, ровно как и на архивы и прочее, вполне логично предположить, что PR там получен был за счет утечки веса с других страниц. С постов и главной, в итоговом счете. По логике, если закрыть эти страницы от индекса и убрать все индексируемые ссылки на них, то этот вес и этот PR останется на постах и на главной, что гораздо важнее. Таки вес это не только PR, но и позиции в итоговом счете. Отсюда и пляшем.

    Хотя… судя по статистике просмотров страниц, из 11 000 просмотров за январь 2013 года, только около 20 просмотров пришлось на все страницы архива вместе взятые. Все ходят на категории и листают страницы постов (ну типа /page/2/ и прочее, сейчас немного по другому, но суть та же). Так что нахрен он нужен, этот архив, если до 10-ой страницы записей и то в пару раз больше человек до лазит? Под снос. Посмотрим, что получится.

    Также пришлось убрать ссылки на комментарии. Толку от них чуть больше, чем ноль, а страницы со знаком # в УРЛ я не смог через роботс закрыть, как не крути — не принимает Яндексовский валидатор. А дубли со страницами комментариев мне ну никак не нужны.

    Что еще? Еще оказалось, что у меня также открыты страницы типа /?replytocom=2811#respond. Ссылки на них закрыты, а сами страницы открыты. Еще на одну строчку увеличился мой безразмерный роботс.

    Так… фуух. Что мы имеем в итоге?
    страницы на блоге

    229 страниц. Не найс. Их побольше — категории + посты + главная + страницы. Что-то я не туда пихнул. Хотя нет — все правильно. Просто настройки поставил не грамотно, а чтобы быстро чекалось. В итоге у меня остались только главная, контент и категории. То, что нужно. Кстати, к вопросу о дублях — почти полторы тысячи и 250 нормальных страниц. Дублей в 6 раз больше! Думаю, теперь не осталось людей, кто не уверен, что их надо закрывать :) . Такое вот отаке клонов. Но я еще не закончил — идем дальше. Смотрим результаты по весу.

    ps: второй скан все правильно посчитал — количество страниц с точностью до единицы и почти 1600 дублей, закрытых от индексации.

    В общем, что мне дала система «идеальной индексации сайта», то бишь только полезных страниц? Прикольный роботс:

    валидатор роботс

    Гы. А если серьезно. Средний вес постов до начала данного шага (в начале написания статьи):
    средний вес раньше

    Т.е. в среднем по больнице вес был равен 0.04 с хвостиком у записи. Сейчас:

    средний вес теперь

    Теперь средний вес поста — 0.2. Все равно мало, но! Это в пять раз больше в среднем. В пять раз! А ведь еще впереди несколько пунктов + оптимизация контента + из внешней оптимизации у меня пока что лишь покупка менее десятка PRистых беков. На пути к успеху. Что меня беспокоит — так это то, что категории имеют просто колоссальный вес. Хотя, с другой стороны… так как категории ссылаются на все статьи сайта, это значит, что любая ссылка через эти промежуточные страницы категорий равномерно распределяет вес на другие статьи. Это же хорошо, да? Ну-ка, ради интереса попробую закрыть ссылки на категории от индексации и посмотреть, что получится. Правда, вопрос в другом — не скажется ли это плохо на индексации? Хотя сайтмап и все остальное… да и добра половина вебмастеров их закрывает.

    => Фигня получилась. Старые посты вообще без ссылок индексируемых на себя остались. Оставляем индексируемые категории как и было. Видимо, проблемы, когда промежуточные страницы жрут кучу веса, не избежать.

    И еще я заметил одно ну очень интересное наблюдение. Ссылки в шапке, в частности вот эти:
    ссылки в шапке

    Имеют просто колоссальный вес — равный главной или совсем чуть меньше. Потому что входящих с каждым постом на блоге все больше и больше, а вот количество исходящих ссылок не меняется. Косвенно по этой оценке можно судить грамотность самой программы PageWeight Desktop — страницы, имеющие максимальный вес по версии софта, имеют PR3 или, минимум, 2. Тогда как главная имеет только 2. Т.е. перетекание веса во версии проги приблизительно равно реальному.

    С точки зрения практики, кстати, это значит, что:
    - Надо бы сделать ссылочную карту сайта, а ссылку на нее поставить туда, наверх.
    - На следующем этапе (на 4-ом по хронологии статей, я просто не все сделал), когда будет дорабатываться контент, было бы неплохо вместо имеющихся старых и неактуальных ссылок поставить мощные линки на статьи, заточенные под ВЧ запросы. Выбрать пару-тройку хороших ВЧ, под которые не жалко блог двигать, раскрыть полностью тему, поставить ссылку. С таким весом и реальным PR как минимум 3 эти статьи имеют шанс занять неплохие места в Google.

    Такие вот пироги. Осталось меньше половины:
    1. Оптимизировать контент
    2. Создать статьи под ВЧ
    3. Заняться уже внешней оптимизацией

    UPD: Про сайт аудитор я так и не написал. Суть в том, что я не люблю чисто перелинковку ради SEO, а потому ссылки из статей ставлю основываясь не только на релеватности, но и на полезности для читателя — то бишь для вас :)

    Релевантные страницы по продвигаемым запросам собираем и смотрим тут:
    подбор релевантых страниц

    Если совпадает — круто. В моем случае 2 из 3 релевантных страниц в обоих поисковиках совпадают — значит, со страницы номер 2 можно оставлять ссылку на основную продвигаемую — будет наибольший результат. Если хочется побольше ссылок оставить смотрим в поисковике, ограничивая область поиска до вашего сайта и ищем по ключу, в серпе все автоматом по релевантности выставляется. Выбираем наиболее подходящие статьи и линкуем. Не забываем время от времени проверять вес страниц. Если нет программы — онлайн, несколько рублей на проверку, думаю, каждый может себе позволить. Не забываем про куб, кольцо и другие методы перелинковки — вкупе с подбором релевантных страниц оно может дать весьма ощутимый результат. Я этим займусь уже завтра. И еще — не делайте слишком длинные цепочки простой перелинковки — чтобы при выпадении одной статьи из индекса кольцо не прервалось. Действуйте грамотно и будет щастье.

    Если статья понравилась — подписывайтесь ниже, данный цикл будет идти как минимум до 1000+ трафика на блоге. Плюс, как только все вылижу и причешу на блоге, буду пробовать вывести в Яндексе из под фильтров, тогда еще и про движуху в Яндексе напишу немало. Всем спасибо :) .

    31 Янв в 2:54 Комментарии (17)