Практика и секреты заработка в интернете
Факторы монетизации - Выпуск №56
  Уважаемые читатели!

Вот и закончились новогодние праздники, и большинство вебмастеров начинают вливаться в обычный ритм работы. Настало время подумать, как улучшить свои сайт, привлечь к нему внимание рекламодателей, и решить, какие планы стоит реализовывать в ближайшее время, а что может подождать до лучших времен.

Напоминаем, что последний выпуск прошлогодней рассылки был
посвящен финансовым результатам от монетизации сайта на ссылках и вопросам сотрудничества с агрегаторами. На основе статистики рейтингов TopTL и TopSape мы сделали вывод о том, что продажа рекламных площадок на сайте способна приносить вебмастеру стабильный доход. Мы также выяснили, что гарантией получения быстрой и стабильной прибыли является сотрудничество с агрегаторами – крупнейшими покупателями на биржах ссылок.

Однако, в стремлении понравится агрегаторам, не стоит забывать и о других критиках интернет-проектов. Манимейкеру, решившему зарабатывать на продаже ссылок, приходится также ориентироваться на мнение поисковых систем и ссылочных бирж. В идеале сайт должен нравиться всем критикам. Если они сойдутся во мнении, что ресурс качественный и полезный, то манимейкер может рассчитывать на солидный доход.

Какие требования к сайтам предъявляют агрегаторы, модераторы бирж и поисковые системы? Каких проблем следует избегать при продвижении сайта? Ответы на эти и другие вопросы представлены в сегодняшнем номере рассылки.

 
Алексей Заря, исполнительный директор TrustLink


Под внимательным взглядом модератора биржи
  Массовая автоматическая закупка ссылок агрегаторами без необходимости изучения сайтов становится возможной по той причине, что обязанности по проведению визуальной оценки берут на себя биржи ссылок. При добавлении ресурса к системе модераторы в обязательном порядке знакомятся с его дизайном и содержанием. В случае если сайт не устраивает их по каким-либо параметрам, они могут дать ему от ворот поворот. Таким образом, биржи предлагают на продажу агрегаторам ссылки с тех сайтов, которые выдержали проверку на человечность.


При оценке качества сайта модератор может выявить следующие недостатки:
  • различия в тематике. Если при регистрации сайта вебмастер указывает, что он посвящен IT, но контент на нем рассказывает о самых разных темах, ресурс рискует не пройти модерацию;
  • низкое качество контента – плагиат, отсутствие смысловой нагрузки текста. Хорошо известно, что бесполезные тексты неинтересны пользователям, к числу которых относятся и модераторы;
  • небольшое количество контента, окружающего ссылку. Чем больше слов окружают ссылку, тем выше вероятность, что она станет успешной. Пустота на сайте обычно хорошо заметна. Поэтому, если модератор обнаруживает такой недостаток, он может либо отклонить заявку и не принять ресурс в биржу, либо назначить ему низкий внутренний рейтинг;
  • визуальные недостатки («кривой» дизайн с точки зрения юзабилити, некрасивое оформление, много рекламы). Визуально непривлекательные сайты – не лучшая площадка для исходящих ссылок. Поэтому некрасивый дизайн может стать поводом для отказа в регистрации на бирже;
  • сайт создан исключительно как рекламная площадка, о чем свидетельствуют многочисленные ссылки. Не только модератор, но и обычный пользователь легко отличает хорошие сайты от ГС. Явно рекламному ресурсу попасть в биржу ссылок практически нереально;
  • тизеры, кликандеры и другие нежелательные виды рекламы. У большинства модераторов такая реклама вызывает раздражение.

Соответственно, как и в ситуации с ориентацией на агрегаторов или ПС, чтобы понравиться модератору, вебмастеру требуется устранить все указанные проблемы.

В случае если каким-то образом некачественный сайт все же прокрался на биржу, его могут вычислить SEO-оптимизаторы. Хотя не все сеошники проверяют качество площадок-доноров, в некоторых случаях и они могут выйти на плохой сайт. Обычно это происходит в ситуациях, когда они закупают ссылки для своего проекта (а не для клиентского), если они предпочитают ручные способы подбора доноров. При обнаружении технических и других проблем, оптимизаторы могут поместить сайт в глобальный или локальный блэк-лист, написать жалобу в саппорт.
 


Серьезные требования к качеству сайта от агрегаторов
  Далеко не все сайты, прошедшие модерацию на бирже ссылок, способны приносить прибыль. Это связано с тем, что агрегаторы, сотрудничество с которыми обеспечивает стабильный доход, предъявляют собственные требования к ресурсам. Критерии отбора «хороших» сайтов у системы автоматической закупки ссылок несколько отличаются от тех, которыми руководствуются модераторы бирж. Поэтому гарантией получения дохода от монетизации на ссылках является соответствие ресурса требованиям и биржи, и агрегатора.

Напомним, что агрегаторы производят закупку исходящих ссылок автоматически. Поэтому манимейкеру нужно сделать все возможное, чтобы «понравиться» фильтрам.

Автоматические системы закупки ссылок предъявляют к ресурсам справедливо жесткие требования. Такая ситуация объясняется особенностями работы агрегаторов. Они должны иметь возможность предлагать покупателям качественные, рабочие ссылки и делать это достаточно быстро.


ГС всегда находятся в зоне риска – они в любое время могут попасть под фильтры Яндекса или Google. Из-за БАНа или АГС ресурс может вылететь из выдачи, у него могут появиться проблемы с индексацией. А все это неизбежно приводит к снижению дохода.

Внутренние фильтры агрегаторов нацелены, прежде всего, на оценку технического состояния интернет-ресурса.

На приоритетность покупки влияют такие критерии, как:
  • Скорость индексации. Критичным считается период в 40 и более дней. Индексация ссылки является основной целью агрегатора, а если поисковой робот редко посещает страницу, то и достигнуть ее можно лишь в очень отдаленной перспективе. Подобные рекламные площадки не нужны агрегаторам;
  • Выпадение страниц из индекса, в том числе из-за проблем с хостингом. Ошибки 404, 500 свидетельствуют о том, что сайт недоработан. Роботы агрегаторов легко распознают ресурсы, у которых имеются подобные проблемы. Такие сайты не преодолевают фильтры и могут попадать в BL агрегаторов;
  • Мигание или выпадение ссылки из индекса. Такая проблема часто возникает из-за невнимательности вебмастера, если случайно удаляется проданная ссылка или страница. Из-за мигания сайт также может попасть в блэк-лист агрегатора;
  • Количество внешних ссылок на странице. Этот критерий считается одним из основных для агрегаторов. Чем больше ссылок, тем выше вероятность того, что рекламная площадка будет признана спамной. Вес ссылок, которые могут быть приобретены на подобной рекламной площадке, небольшой, поэтому они малополезны для покупателей;
  • Присутствие на странице нежелательной рекламы. Это могут быть тизеры, кликандеры, попандеры, бодиклики. Такие виды рекламы легко вычисляются роботами. Отношение со стороны агрегатора к ней явно негативное, поэтому система может применить санкции к сайту, на котором она размещена;
  • Падение рейтинга сайтов. ТИЦ и PR - важные показатели качества сайта, и внутренние фильтры агрегаторов всегда их учитывают. Проблемы с пузомерками – прямое доказательство того, что сайтом никто не занимается, а если и занимается, то делает это не очень успешно. Такие ресурсы находятся в зоне риска, ведь в перспективе с ними могут возникать неприятности.

Кроме того, фильтры агрегаторов оценивают и контент, представленный на сайте. Они пропускают тексты, размером от 1000 знаков. При меньшем объеме страница может не пройти через фильтр.

Еще один значимый для автоматической системы параметр – наличие стоп-слов. К их числу относят любые фразы из нежелательных тематик, таких, как фармакология, азартные игры, наркотики и «для взрослых». Если такие слова обнаружены в URL (в том числе доменном имени), основных тегах (title, description, keywords) или контенте на странице (текст, комментарии к картинкам), то агрегаторы не станут покупать ссылку на такой площадке.

При обнаружении технических проблем или несоответствия содержания нормам, полезность сайта для системы и ее участников ставится под сомнение. Приоритетность покупки может снижаться вплоть до попадания страницы в глобальный блэк-лист (GBL-агрегатора).

Таким образом, чтобы нравится агрегаторам, сайт должен быть не только визуально привлекательным и интересным. Технические характеристики ресурса, его работоспособность в большей мере важны для фильтров.
 


Нестабильные критики – поисковые системы
  Традиционно поисковые системы являются самыми непредсказуемыми критиками. И дело даже не в том, что они скрывают информацию об особенностях оценки и ранжирования сайтов. Просто требования, которым должны соответствовать интернет-ресурсы, постоянно меняются и усложняются.


И Яндекс, и Google, и другие ПС призывают вебмастеров делать интересные сайты «для людей» и не использовать сомнительные методы для продвижения ресурсов.

Примерные требования поисковых систем к сайтам (на основе рекомендаций Яндекса) следующие:
  • страницы сайта должны быть релевантны запросам пользователя и максимально полно удовлетворять его потребность в информации;
  • на ресурсах не должны присутствовать запрещённая реклама, большое количество исходящих ссылок, особенно на «взрослый» контент;
  • пользователю нужно правильно представлять информацию (грамотный, структурированный контент, отсутствие доп. условий для получения доступа к интересующей информации);
  • у человека не должно возникать проблем с использованием функционала интернет-ресурса (наличие четкой структуры, правильная навигация, понятный дизайн).

Более подробно с требованиями поисковой системы Яндекс можно ознакомиться, перейдя по ссылке. Рекомендации Google изложены на странице.

Поисковые системы отслеживают и качество исходящих ссылок. Если их слишком много или они являются спамными, интернет-ресурс может попасть под фильтры. Наибольшее беспокойство манимейкеру доставляют АГС и БАН.


АГС - автоматический гранатомет от Яндекса - фильтр, который был разработан в первую очередь для борьбы с сайтами, созданными специально для продажи ссылок (сателлитами, линкпомойками). Существует две его версии – АГС-17 и его старший брат АГС-30.

Этот фильтр нацелен на обеспечение максимальной естественности выдачи. Поэтому, если при обходе сайта, роботу кажется, что он не соответствует стандартам качества, то к ресурсу может быть применен АГС.

Основные причины, по которым интернет-ресурс может попасть под «расстрел» гранатомета, следующие:
  • переспамленность ключевыми словами. Если раньше простыни текста с десятками ключей воспринимались поисковыми роботами на «ура», то сейчас такие статьи считаются искусственными и малополезными для пользователя. Допустимый размер текста для сайта – до 4000 знаков. При этом плотность ключевых слов должна быть небольшой, а вместо точных вхождений лучше использовать словоформы;
  • тексты, полученные при помощи синонимайзеров. У поисковых систем имеются собственные инструменты, позволяющие легко распознавать искусственно созданный контент. Такие статьи нравятся поисковым системам не больше, чем плагиат;
  • дублирование контента. Из-за недостаточной продуманности структуры сайта, особенно при наличии большого числа страниц, представленная на нем информация может повторяться. Такие дубли плохо влияют на рейтинг сайта;
  • наличие явных рекламных страниц. Большое количество внешних ссылок или предложения перейти на сайт «для взрослых» - причины, по которым страдает репутация ресурса;
  • использование ворованного контента. Тексты с других сайтов – это плагиат. А с ним ПС активно борются. Такой контент не способен дать новой информации, кроме того, он нарушает авторские права;
  • нулевая посещаемость при условии, что в индексе присутствует множество страниц. Отсутствие гостей на сайте – прямое указание на то, что он не популярен и бесполезен. А если с него ведут множество путей на другие ресурсы, вычислить его настоящее предназначение можно без проблем;
  • автоматически пополняемые сайты. Бесконтрольное обновление информации на ресурсе – причина, по которой на страницы ресурса попадают материалы сомнительного качества. Это не нравится ПС;
  • большое количество исходящих ссылок. Если ресурс являет собой неструктурированное собрание ссылок, сопровождаемых низкокачественным контентом, ПС считает такой сайт линкфармом, а борьба с ним – одна из основных задач фильтра АГС.

Чтобы сайт попал под АГС, на нем должны быть обнаружены, как минимум, несколько нарушений. Фильтр исключает страницы сайта из индекса, и вернуть их обратно может быть достаточно сложно.


БАН является еще худшим вариантом для ресурса. Более суровая санкция – полный вылет из индекса - применяется в тех же случаях, что и при АГС, но, чтобы это случилось, вебмастер должен неоднократно и злостно нарушать правила. Поисковые системы отправляют в БАН ресурсы, при продвижении которых используется черное SEO. Также сайт может быть полностью исключен из индекса по требованию правоохранительных органов. Обычно это случается, если ресурс занимается пропагандой наркотиков, разжиганием межнациональных конфликтов, продажей запрещенных товаров или занимается другими противозаконными делами.

Чтобы не попасть под фильтры, стоит внимательнее следить за жизнью своего сайта или блога. Для этого нужно:

  • проверять уникальность материала перед публикацией и защищать его от копирования;
  • контролировать качество и количество исходящих ссылок;
  • привлекать новых пользователей;
  • контролировать качество и количество входящих ссылок;
  • заниматься внутренней оптимизацией (перелинковка, отсутствие дублей).

Если никакие действия не помогли избежать проблем с сайтом, и вы получили «письмо счастья» с частицей «не» от Яндекса - в этом случае план действий должен предусматривать:

  • корректировку контента – лучше всего создать новые тексты или, по крайней мере, сделать рерайт уже имеющихся, убрать дубли;
  • удаление автоматически пополняемого содержимого;
  • удаление ссылок на нерекомендуемые сайты и сокращение числа ссылок;
  • общение с Платоном Щукиным;
  • продвижение сайта «белыми» методами.

Соответствие сайта требованиям поисковых систем позволяет улучшить его качество и положительно влияет на рост пузомерок. Все это в перспективе способно увеличивать доход от продажи рекламных площадей на ресурсе.
 


Выводы
  Подводя итоги, можно с уверенностью сказать что, финансовый результат от торговли ссылками определяется группой факторов. Он напрямую зависит от того, насколько качественный ресурс удается создать вебмастеру, и насколько лояльны будут к сайту поисковые системы, модераторы бирж ссылок и агрегаторы.

Планируя свою работу в текущем году, не забывайте об основных требованиях к качеству сайта.

  • Держите ориентир на агрегаторы - автоматические системы закупки ссылок обеспечивают манимейкеру высокую и стабильную прибыль. Решите все технические проблемы с сайтом, и ваш ресурс будет интересен агрегаторам.
  • Заботьтесь о качестве ресурса. Ваш сайт должен хорошо индексироваться и уверенно держаться в индексе ПС – только в этом случае агрегаторы будут расценивать его как выгодную рекламную площадку. Достойный заработок имеют ресурсы, созданные «для людей», поэтому всегда следите за качеством информации и представляйте ее пользователю в максимально удобном виде. Не захламляйте ресурс многочисленными рекламными баннерами и сомнительными ссылками.
  • Избегайте фильтров АГС и БАН. Забудьте о черных способах продвижения сайта – поисковые системы успешно вычисляют их.

Учитывайте требования ПС и агрегаторов к качеству сайта, и ваши доходы от монетизации на ссылках в 2013 году будут планомерно расти.

 


Новый аудит
  Как заработать студенту в интернете - разбор вопроса на примере сайта maevec.ru. Советы профессионалов – как это действительно нужно делать

 


Новости
  QIWI снижает лимиты на вывод по QVP

С 17-го января QIWI снизили лимиты на вывод средств по пластиковым картам QIWI Visa (QIWI Visa Plastic, QVP). Теперь максимальная сумма которую можно обналичить в банкоматах составляет 40 тыс. рублей за последние 30 календарных дней. Примечательно, что ограничение накладывается именно на аккаунт QIWI и не зависит от количества привязанных к нему карт.

Официальная информация есть только в момент активации новой карты.


Яндекс занялся развитием физики

21 января 2013 года Яндекс заключил договор с Центром ядерных исследований (CERN), став первым участником проекта CERN Openlab от России. Компания предоставила европейским ученым возможность пользоваться своими технологиям, а именно алгоритмом Матрикснет.

В настоящее время физики активно осваивают российскую технологию машинного обучения. Они используют Матрикснет при проведении анализа распада нестабильных субатомных частиц (мезонов). В перспективе CERN предполагает расширить сферу применения технологии. Ведь алгоритм помогает в изучении различных физических процессов.


Матрикснет открывает перед учеными новые возможности. Эта технология способна обрабатывать значительные объемы данных, фиксировать экстремально редкие физические явления. Благодаря высокой точности выборки событий, отсутствию шумов с MatrixNet CERN может проверить достоверность различных теорий и гипотез.

Компания Яндекс еще не успела разработать специальный сервис, позволяющий ученым самостоятельно пользоваться алгоритмом. Поэтому в настоящее время исследования ЦЕРН проводятся совместно с сотрудниками российской компании. В ближайшее время Яндекс планирует создать специальный публичный интерфейс для европейских ученых. Об этом в своем интервью рассказал руководитель проекта партнерства с CERN Андрей Устюжанин.

Физики уже оценили все преимущества новой технологии перед алгоритмами, используемыми ранее. Глава ЦЕРН Боб Джонс отметил, что ученые заинтересованы в технологиях Яндекса. По его мнению, Матрикснет может помочь совершить новые открытия в физике.

Подписанный 21 января, договор стал продолжением сотрудничества между Яндексом и CERN. Партнерство научного центра и российской компании началось еще в 2011 году с предоставления серверов европейским ученым. В 1 квартале 2012 года Яндекс принял участие в одном из экспериментов ЦЕРНа - LHCb. Доля вычислительных мощностей от Яндекс составила 13%. Весной прошлого года сотрудниками российской компании также был разработан специальный поисковой сервис, позволяющий быстро находить информацию по событиям LHCb.


Сколько зарабатывает Google?

22 января корпорация Google представила финансовый отчет за последние четыре месяца 2012 г. В период с сентября по декабрь компания заработала 14,42 млрд. долларов. Исполнительный директор Google Ларри Пейдж обратил внимание на то, что ушедший год был для корпорации очень удачным. Величина прибыли за последний квартал 2012 года на 36% превысила показатели аналогичного периода предыдущего года. Кроме того, доходы увеличились и в сравнении с 3 кварталом. Они выросли на 8%.

Всего в 2012 году компания Google заработала более 50 млрд. долларов. По заявлению Ларри Пейджа за 15-летний период своей работы компания не получала большей прибыли. Подобный успех исполнительный директор объяснил тем, что компания располагает всеми возможностями, чтобы удовлетворять потребности пользователей.


Солидную часть дохода компании (89%) составила прибыль от рекламы. В четвертом квартале 2012 года она достигла 12,91 млрд. долларов. Для сравнения, в соответствующий период 2011 года прибыль от рекламы равнялась 10,58 млрд. долларов. Таким образом, прирост составил 22%.

Собственные сайты принесли Google 8,64 млрд. долларов в четвертом квартале 2012 года. В сравнении с 2011 годом доходы от интернет-ресурсов увеличились на 18%. 54% выручки корпорации составили доходы, полученные за пределами США. Общая сумма прибыли составила 6,9 млрд. долларов.

После вычета расходов и налогов в распоряжении корпорации осталось 2,89 млрд. долларов. Чистая прибыль Google за аналогичный период 2011 года равнялась 2,71. Что касается общей суммы доходов за год, она также возросла с 9,74 млрд. долларов до 10,74 млрд. долларов.
 


Вопрос-ответ
  Вопрос:
Как можно вывести заработанные средства из TrustLink?

Ответ:
Получить заработанные деньги можно на кошелек QIWI, а также на долларовый кошелек системы WebMoney.

Комиссия за вывод на кошелек QIWI не взимается.

Комиссия за вывод на долларовый кошелек WebMoney складывается из конвертации суммы вывода в долларовый эквивалент по курсу ЦБ РФ на день поступления заявки на вывод, плюс 0,8% комиссии от получившейся суммы.

 

  Вопрос:
Не отображаются ссылки при использовании CMS Joomla с включенным компонентом SEF

Ответ:
Вам необходимо заменить в коде отображения заменить:

$trustlink = new TrustlinkClient();

на:

$o['request_uri'] = $_SERVER['REDIRECT_URL'];
$trustlink = new TrustlinkClient($o);
Комментарии
Комментарии (1)
Default_avatar
Максим:29.01.2013 12:19
Спасибо за выпуск. Поясните такой момент: если сайт изначально не попал под агрегаторы, но потом над сайтом была проведена работа и он стал соответствовать всем критериям, то что нужно сделать, чтобы агрегаторы снова обратили внимание на сайт? То есть как можно отправить сайт на "премодерацию" к агрегаторам?

 
 
Комментарии
Спасибо нашим читателям!

Архив рассылки
По всем вопросам, касающимся этой рассылки, обращайтесь subscribe@trustlink.ru.

При перепечатке материала активная ссылка на www.trustlink.ru обязательна.

Нам очень важно знать мнение наших читателей о выпуске рассылки. Просим вас оценить этот номер:
 Выпуск понравился!Выпуск не понравился!