Категории
Самые читаемые
onlinekniga.com » Компьютеры и Интернет » Программирование » Раскрутка: секреты эффективного продвижения сайтов - Михаил Боде

Раскрутка: секреты эффективного продвижения сайтов - Михаил Боде

Читать онлайн Раскрутка: секреты эффективного продвижения сайтов - Михаил Боде

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 29 30 31 32 33 34 35 36 37 ... 73
Перейти на страницу:

А. Ж.: Кроме ссылочных, нет других факторов, которые позволяли бы достаточно хорошо отранжировать сайты. «Яндекс» постепенно снижает влияние ссылочного ранжирования, но полностью от него никогда не откажется. Это невозможно.

Какие способы обмана со ссылочным продвижением использовались позднее, вплоть до настоящего времени?

А. Ж.: Последнее веяние – это когда ссылка… есть. Заходишь на страницу – ссылка вроде стоит. По ней переходишь – все чисто. Ведь как проверяется ссылка? Проиндексирована – не проиндексирована. Что ищется? Анкор ссылки на конкретной странице. Итак, анкор наличествует. Но это не ссылка. Это может быть кусок текста. А биржа «клоачится». Отследить такой финт сложно. Выполняется клоакинг робота биржи, чтобы тот видел ссылку, либо она в комментарии вставляется.

С. Ц.: Проверки, естественно, проводятся у всех, но вот если, например, есть каскад (комментарии) или вложенность, то структура документа нарушается и ничего нельзя отследить. Когда имеется вложенный документ – один в другой, другой в третий, – а тег берется из другого и эти области накладываются друг на друга, робот не понимает, что это за страница и что с ней происходит. Удастся ли его провести – фифти — фифти.

(noindex)

(table)

(tr)

(td)какой-то текст(/td)

(/noindex)

(td)какой-то текст(/td)

(/tr)

(tr)

(td)(a href="h p://www/site.ru">анкор ссылки(/a>(/td>

(td>какой-то текст(/td>

(/tr>

(/table>

А. Ж.: Было дело, «Яндекс» не вполне корректно обрабатывал тег noindex. Можно было закрыть с помощью noindex одну часть таблицы, а после (/noindex> в тот же блок ставилась ссылка, и она попадала в noindex. Разрыв тега нарушал структуру. Например, начинается таблица, тег noindex стоит перед ней, а закрывающий тег – внутри нее, после какой-то строки. А на следующей строке – ссылка. Вроде как она не закрыта noindex, а поисковик всю таблицу забирал. Формально нарушений нет, с точки зрения веб — мастера.

Предъявить ему нечего, но ссылка не индексировалась.

Одно время веб — мастера очень любили использовать для ссылок «бегущие строки». Они индексируются, но очень долго. «Бегущая строка» шла по сайту обычным тегом, и в него вставлялись ссылки. «Яндекс» почему — то не хотел индексировать его содержимое – индексировал с изрядной задержкой. Проиндексировал он страницу – и ты тотчас добавил ссылочку в «бегущую строку». А появлялась она в индексе только через три месяца. Вебмастер три месяца получает деньги, избегая кары. Потом ему надоедало, он снимал эту ссылку. А в кэше ничего криминального не оказывалось, санкций не было.

Когда начали предъявляться более строгие требования к площадкам: «Статья должна быть уникальной» и т. д., возникла мода генерировать кучу бредотекста. В индекс он влетал на ура. Но если оптимизатор заходил на такую площадку и начинал ее изучать, то, естественно, он плевался. Значит, посетителю сайта нужно было показать что — то более или менее нормальное. Что делали? Брали какой-то сайт из «Яндекс. Каталога» и подсовывали его пользователю. (До сих пор работает.) А поисковику показывался бред полнейший. Причем если оптимизатор был неопытный, пытался скопировать часть текста со страницы вроде бы хорошего сайта, вставлял в какую — то программу, чтобы с помощью поиска проверить фрагмент на уникальность, то получал подтверждение, что текст абсолютно уникальный, в индексе нигде ни фразы, кроме как на рассматриваемом сайте.

С. Ц.: Отдельная тема – создание ГС. До сих пор эта индустрия процветает. Конечно, есть мнение, что хороший сателлит стоит от $500. Но именно хороший. У многих умельцев процесс автоматизирован. Они пишут свои программы, скачивают сайты, что — то видоизменяют, выкладывают в Сеть, ждут, когда это загонится в индекс хоть как — то, и сразу на биржу бегут.

А. Ж.: Есть более продвинутые, которые ничего не пишут. Просто в онлайн — режиме парсят контент с другого сайта и бирже это показывают. Единственное, добавляются ссылки. На хостинге находится только данный скрипт и фрагмент кода, скрипт с Sape например. Сайт выглядит прилично, его принимают в биржу. Ну почему не принять — то? Иные площадки такого сорта существуют очень долго. Мне известен сайт с бредом в коде (посетителям и роботам подсовывается сравнительно приемлемый контент), существующий больше года. Там 3000 страниц, и через Sape на него продано приблизительно 1700 ссылок. Даже если одна ссылка стоит рубль – средняя цена составляет 3 руб., но там показатели никакие, – выходит 1700 руб. в месяц. Ни с чего. Веб — мастеру в карман. Ну и биржа получает свой процент. Такие ссылки, конечно, все менее действенны. Раньше эффект приносила любая.

С. Ц.: Все больше и больше фильтров вводится, все меньше и меньше ссылок работает. Но не работать совсем они, наверное, не могут. У «Яндекса» есть вероятность срабатывания, вот что хорошо. Не «0 или 1», а какое — то промежуточное значение.

А может ли ссылка работать в минус?

С. Ц.: Да. Кстати, это один из большущих недостатков любого поисковика. Неоднократно в порядке эксперимента брали сайт, прогоняли по форумам, как — то еще гадили – и он валился. Даже в 2012 году целая индустрия существует – заплюй конкурента и вылези в топ. Или скопируй сайт конкурента и насоли ему. Новомодное направление – исправление репутации в Интернете. Создаешь сайт «Вася Пупкин – дегенерат», он попадает в топ, а потом Васе Пупкину сам же и предлагаешь услугу «ассенизатора» за хорошие деньги.

А. Ж.: В свою очередь, купив некачественные ссылки на бирже самостоятельно, веб — мастер сегодня рискует ухудшить свои показатели. Часто ругают SeoPult, Rookee, WebEffector, но самостоятельно многие вещи человек малознающий не сумеет сделать с той же эффективностью, что и любой из агрегаторов.

Чаще встречается обратное мнение, что агрегаторы покупают такие ссылки, которые заводятся под фильтры. Насколько это обоснованно?

А. Ж.: Я вправе говорить только с точки зрения SeoPult. Да, мусор встречается, любой автомат дает какой-то процент брака. У SeoPul сложная проверка доноров, вплоть до того, что все будто бы хорошо, но на сайте 30 – 40 % ссылок не индексируется. Донор в таком случае будет просто — напросто выкинут из системы. Ссылки переиндексируются, но примерно через полгода. Даже если я сам буду закупать, многие вещи в ручном режиме не замечу.

Человек не может проверить качество донора, закупаясь в SeoPult?

А. Ж.: Что — то он проверяет. При ручном отборе можно что — то просмотреть, но любой агрегатор, любая биржа обладает большей информацией. У них статистики больше. Я сам оптимизатор, у меня два проекта. Сколько я на них могу ссылок купить? На скольких донорах? Нужно перебрать достаточно большое их количество. У агрегатора эти данные есть. Он знает, что с такого — то донора ссылки не работают, хотя все индексируется. Закупка ведется, а роста позиций нет. У фрилансеров таких данных нет – им неоткуда взяться. Но чтобы оценивать площадки по другим параметрам самостоятельно, нужно быть опытным оптимизатором, каких единицы.

С. Ц.: С другой стороны, здесь можно применить концепцию «Яндекса» – «сайт для людей». Если ты будешь каждого донора проверять вручную, визуально, и хотя бы ставить себя на место поисковой машины, и открывать страницы «в режиме робота», это будет объемная работа. Для одного проекта ее можно выполнить за неделю.

А. Ж.: Одного — двух. А если у тебя пять — шесть проектов? А если у офлайнового бизнеса делается сайт, кто будет анализом заниматься? Генеральный директор сам примется выбирать ссылки? Оно ему надо? Да и надо в предмете разбираться все — таки.

Агрегаторы дают погрешность. Кто — то считает, что большую, кто — то – что маленькую. Вместе с тем у агрегаторов уйма режимов.

Пришел один: «Ба, агрегатор! Замечательно!» Запрос «реклама», или «ксерокс», или «Sony». Агрегатор ему показал бюджет. Он залил в систему деньги, неделю ждет. Топа не достиг. Уходит. Но, извините, такие вещи сейчас не проходят. Это раньше, еще в старые времена выстреливало. Система не может предугадать все выкрутасы владельцев сайтов. Вот имярек начитался умных форумов, стал твердить, что нужно продвигаться по куче слов. Спарсил эту кучу слов, составил семантическое ядро. Реальный пример: «готовые фирмы»,

«Готовые фирмы», «фирмы готовые» – тьма вариантов. SeoPul реально показал ему по каждому слову бюджет. Он закупился по каждому запросу. Превысив бюджет фактически в семь — восемь раз. Был ссылочный взрыв. В интерфейсе ведь тоже надо разобраться. Там написано: «Закупать плавно». А все хотят сразу, быстро. Мораль: агрегатором тоже нужно уметь пользоваться.

А если посмотреть на текущие способы заработка на сайте глазами веб — мастера?

С. Ц.: Для веб — мастера биржи скорее благо. Но если он единовременно начинает сразу много зарабатывать на площадке, это сказывается на ее качестве. Его банят, или он под всевозможные ссылочные санкции попадает, одна из них – «ссылочный взрыв». Это зло как для веб — мастера, так и для оптимизатора. Вроде владелец сайта хочет заработать, рекламодатель купить ссылки. Но когда рекламодателей много, возникает угроза. Взять хотя бы агрегатор, где 10 тыс. проектов. Он берет новый сайт – и на том сразу 1 – 2 тыс. ссылок появляется. Это опасность для сайта. Учитывая, что сайт может участвовать не в одной бирже, а сразу в нескольких, да еще и размещать вечные ссылки, статьи, есть о чем задуматься.

1 ... 29 30 31 32 33 34 35 36 37 ... 73
Перейти на страницу:
На этой странице вы можете бесплатно читать книгу Раскрутка: секреты эффективного продвижения сайтов - Михаил Боде.
Комментарии