среда, 7 марта 2007 г.

Уловки Web-мастеров на Sape.ru и несколько слов о самой системе

Уловки Web-мастеров на Sape.ru

Поработал немного с Sape, хочу некоторыми выводами об уловках Web-мастеров поделиться. Две самые простые уловки, с которыми столкнулся:

1. Изменение числа внешних ссылок на странице.

Есть продавцы, которые плавно увеличивают количество ссылок на странице. Начинают, как правило, с продажи 3-5 ссылок по достаточно высоким ценам, а затем увеличивают число продажных ссылок, одновременно снижая цену для новых покупателей. В результате - 5 человек думают, что платят хорошие деньги за хорошие ссылки со страниц с 5-ю внешними линками, еще 5 человек купили ссылки чуть дешевле, но зная, что на страницах по 10 внешних, и так далее… В результате, количество внешних ссылок на странице иногда доходит до 60 (!) и выше.

На мой взгляд, надо запретить понижение цен только для новых покупателей. Есть такая галочка у Web-мастеров: “Не поднимать цену для уже размещённых ссылок”, так работает она еще и как “Не снижать цену для уже размещённых ссылок”, а это, на мой взгляд, не вполне корректно. Также я считаю, что надо уведомлять оптимизаторов о повышении количества продажных ссылок на страницах, где эти оптимизаторы ссылки покупали, причём желательно это реализовать также как и при изменении цен: так мотивация играть с количеством ссылок меньше будет.

2. Закрытие индексации страниц, где размещаются ссылки

Встречается не особо часто, но факт всё-таки имеет место быть. Я понимаю, что регулярная проверка тегов и мета-тегов Robots на куче страниц достаточно ресурсоёмкое занятие, но robots.txt один для всего сайта и, на мой взгляд, проверять его куда как проще. Плюс ко всему, как я понял при проверке купленных мной ссылок, недобросовестными web-мастерами используется чаще всего именно robots.txt.

Еще очень печалит интерфейс Sape… Особенно напрягает невозможность сортировки по столбцам в таблице размещённых ссылок и неудобная работа с чёрным списком - самостоятельно в него добавить сайты нереально - их надо сначала найти в списке купленных, а потом уже добавить в BL. То есть процесс удаления “дохлых” ссылок (закрытых от индексации, например) очень трудоёмкий: врубаем Semonitor, смотрим ссылки так или иначе закрытые от индексации, затем составляем список этих линков, а потом вручную из несортированного списка их вычищаем… Можно было бы в чёрный список самостоятельно сайты добавлять - проблемы бы не было. Даже банальная сортировка по URL списка купленных ссылок облегчила бы это занятие.

Да, еще до сапорта достучаться сложно. Я в своё время пытался достучаться, но занятие оказалось бесполезным - так и не ответили.

Но в целом, у системы Sape несомненно есть перспективы, тем более, что её разработкой и поддержкой умные люди занимаются. Сейчас же, как я понимаю, все баги, недоработки и пр. связаны с тем, что на всё сразу разработчикам не хватает времени.

Автор: Андрей Муравьёв.



Комментарии:


Владимир:
08.03.2007 в 12:11
Предлагаю расстреливать таких умельцев, так как реально отследить такую бяку довольно сложно из-за количества ссылок !!!

Гроссмейстер:
08.03.2007 в 12:14
Владимир, расстреливать - это, конечно, выход, но по трудоёмкости это не лучший вариант. В Black List проще добавить (если, конечно, работу с BL сделают проще).
PS. А проверять можно любое количество ссылок - Semonitor рулит :)

serj:
08.03.2007 в 15:34
Это реклама Sape, очень неудобная система, жутко тормозит сайт где она установлена и очень много глюков.
Что вы говорите, если сайт самой системы частенько не открывается.. Как с ней тогда работать? Почитайте форум.

Гроссмейстер:
08.03.2007 в 23:09
Это реклама Sape
Ага, конечно, реклама :) в особо извращённой форме :)
очень неудобная система
Не спорю, местами неудобная.
жутко тормозит
Не заметил особых тормозов.
сайт самой системы частенько не открывается..
Вроде уже всё стабильно работает.
Почитайте форум.
Читал. И что?

fyp (пришёл с форума):
09.03.2007 в 01:39
На мой взгляд, надо запретить понижение цен только для новых покупателей. Есть такая галочка у Web-мастеров: “Не поднимать цену для уже размещённых ссылок”, так работает она еще и как “Не снижать цену для уже размещённых ссылок”, а это, на мой взгляд, не вполне корректно.
Это не просто некорректно, это дыра, которая, естественно, используется. Если система в своём алгоритме допускает возможность обмана, обманывать будут обязательно. Такова, к сожалению, природа человека.
Поэтому разработчикам безусловно необходимо закрыть эту дырку.
serj, система хорошая, просто ещё сыровата. Во-первых, им уже пришлось защищаться от ддоса (тем не менее, система работала), во-вторых, огромный наплыв новых пользователей. Когда я регистрировался, всё было очень быстро. Индексация и модерация практически сразу после добавления нового сайта в систему, вывод средств - в течение 15 минут.
Возможно, я ошибаюсь, но по-моему, официального объявления так ещё и не было. Так что всё это - бета режим.
Просто уж очень назрела необходимость в таком сервисе и создатели учатся работать с большими объёмами на ходу.

по ту сторону от вас :-):
09.03.2007 в 03:16
расслабтесь перцы! вэб мастер использует сэйп чтобы заработать, а не чтобы ваши проекты продвинуть :-) не хотите чтобы вас наебывали - чаще проверяйте свои ссылки, ленивого сам бог велел кинуть, а не ленивого хрен кинешь :-) это рынок! :-)

basterr:
09.03.2007 в 04:02
по ту сторону от вас, забанят вас таких умельцев. потом только начнете крики поднимать - сейп кидает, я не виноват, а меня отключили ни за что. и про ленивых - вы попробуйте проверьте 4 000 ссылок как у меня например.

basterr:
09.03.2007 в 04:03
хотя насчет 4к ссылок. был бы гбл, точнее работал бы, пришлось бы проверять всего 400-600

Гроссмейстер:
09.03.2007 в 07:39
ленивого сам бог велел кинуть, а не ленивого хрен кинешь :-) это рынок! :-)
Вот такая психология у некоторых наших отечественных web-мастеров…. печально. Но это не рынок, это наша отечественная действительность.
по ту сторону от вас, забанят вас таких умельцев
И будут правы.
и про ленивых - вы попробуйте проверьте 4 000 ссылок как у меня например.
На то и рассчёт.

Евген:
09.03.2007 в 10:41
То есть процесс удаления “дохлых” ссылок (закрытых от индексации, например) очень трудоёмкий: врубаем Semonitor, смотрим ссылки так или иначе закрытые от индексации, затем составляем список этих линков, а потом вручную из несортированного списка их вычищаем
Андрей, семонитором ты имеешь ввиду проверку на индекс бэков или именно на щакрытие ссылок от индесации? Если первое, то рискуешь загнать постепенно все сайты в блэк лист ;)
2. Насчет читеров в любых видах. все очччччень просто.
Достаточно внедрить схему, что если к примеру 10 человек в интерфейсе нажали BL - то сайт идет в топку во всей системе. Как минимум на проверку попадает. А еще лучше идет в топку, в интерфейсе у вебмастера высвечивается, что его сайт забанен в системе и если он несогласен, то писать в сапорт.. Если человек ничего плохого не замыслил - он отпишет и думаю все разрулится. И думаю все это внедрят, просто на все нужно время - некоторые читы просто не предусмотреть на стадии разработки.

Евген:
09.03.2007 в 10:49
Это реклама Sape, очень неудобная система, жутко тормозит сайт где она установлена и очень много глюков.
это не реклама, система очень удобная, у меня ничего не тормозит и ничего не глючит. возможно вы не поменяли код на новый. надо просто посидеть и все настроить.
не хотите чтобы вас наебывали - чаще проверяйте свои ссылки, ленивого сам бог велел кинуть, а не ленивого хрен кинешь :-) это рынок! :-)
интересное определение рынка. не знал. есть у меня там пару сайтов, бегать и постоянно дрючить цены или там еще как то изгаляться ради еще 5 долларо в месяц - ну это же бред… то же мне заработок..

Владимир:
09.03.2007 в 17:54
Евген, абсолютно с Вами согласен :)
А насчет определения рынка, предложенного этим… веб-мастером …. Кесарю - кесарево, слесарю…. а таким мастерам - бан :)

Гроссмейстер:
09.03.2007 в 22:03
Андрей, семонитором ты имеешь ввиду проверку на индекс бэков или именно на щакрытие ссылок от индесации?
На закрытие от индексации (robots.txt, мета тег robots и ). Вопросов к Яндексу по данной теме нет :)
Достаточно внедрить схему, что если к примеру 10 человек в интерфейсе нажали BL - то сайт идет в топку во всей системе. Как минимум на проверку попадает.
Евген, проверка - это действительно вариант, а топка не рулит по причине того, что возможно неадекватное удаление. Даже если возврат после такого удаления возможен будет, то это всё равно потерянное время для web-мастера, что их определённо радовать не будет.
это не реклама, система очень удобная, у меня ничего не тормозит и ничего не глючит.
Евген, зачем кого-то убеждать, что система хорошая? Не хотят - не надо, нам больше достанется :)
как то изгаляться ради еще 5 долларо в месяц - ну это же бред…
Солидарен. Но ведь есть еще школьники, для которых эти лишние 5 баксов - это целых 3 бутылки пива “Очаково” объёмом аж 2.25 л. А 6.75 л. пива - это уже Мотивация :)

Old Monk:
10.03.2007 в 16:26
На закрытие от индексации (robots.txt, мета тег robots и ).
А где в семониторе есть такая функция? Подскажите, а?

Гроссмейстер:
10.03.2007 в 23:40
А где в семониторе есть такая функция?
Модуль “Обмен ссылками”.

Amigo:
11.03.2007 в 14:12
Вот такая психология у некоторых наших отечественных web-мастеров…. печально. Но это не рынок, это наша отечественная действительность.
увы… печально, но факт =(
Система удобная, но местами интерфейс сыроват и не хватает функционала.

domainer:
03.04.2007 в 18:04
нормальная система ! местами подглючивает конечно ) , особенно днем, но в целом очень даже ничего ! особенно с учетом того что она недавно открылась. пару статей по сапеюру можно прочитать сдесь ***

Dodson:
24.04.2007 в 11:40
На мой взгляд, даже если система оставляет дыры для уловок, это вовсе не означает, что ими нужно пользоваться… Это актуально даже не с точки зрения опасности бана. С таким “продавцом” рано или поздно никто просто не захочет иметь дело…

cafe4u:
26.05.2007 в 15:45
Евген, твое предложение “10 человек в интерфейсе нажали BL - то сайт идет в топку во всей системе” не катит. Я, например, отправляю в топку и хорошие сайты, которые просто не подходят по тематике. Тематика “товары и услуги” очень широка, большую часть я не принимаю, только то, что хоть как-то подходит. За что ж их в топку?

Vaso:
05.06.2007 в 15:08
в опере не работает
логинюсь, а дальше всё время только главное окно показывает
в эксплорере только и пашет. ламерьё

Kopernik:
10.06.2007 в 20:54
Система нормальная, кто пишет про ламерье - сделайте лучше. Просто неизвестно, что с ней дальше будет. И как к ней будет относится Яндекс со временем.

Гроссмейстер:
11.06.2007 в 18:00
Просто неизвестно, что с ней дальше будет. И как к ней будет относится Яндекс со временем.
Боюсь, что я знаю, что будет дальше :) Любая “тема” со временем “выгорает” и ничего с этим не поделаешь. Эффективность падает, инвестиции перестают окупаться и т.д. и т.п.

Shine:
19.08.2007 в 22:36
Хм… Пока тема не забанена Яндексом (а как это сделать, лично мне неочевидно), она будет только приносить прибыль организаторам. С чего бы ей выгорать. ;)

Гроссмейстер:
20.08.2007 в 02:02
Пока тема не забанена Яндексом (а как это сделать, лично мне неочевидно)
:)))
С чего бы ей выгорать. ;)
А если хорошо подумать? :)

Лммс:
28.08.2007 в 17:08
Система хорошая, слов нет. Мелкие глюки и неудобности простительны по причине новизны.
Теперь остается ждать ответного ходя Яндекса…

Александр:
11.09.2007 в 12:00
Ухты, а я не знал, что эта кнопочка работает и в обратную сторону, хотел им предложение закинуть сделать галочку “не понижать цены для уже размещенных ссылок”. Спасибо ребята, что ввели в курс дела.

igrok54:
08.10.2007 в 04:58
Я веб-мастер, у меня более 4 десятков сайтов. Делаю их, естественно, для заработка. Есть сайты, которым несколько лет, но большинство - несколько месяцев.
Несколько моих самых старых сайтов работают в сапе и кликсе. Прочитав Ваше предложение Евгена, решил высказать свое мнение по этому поводу с целью предостеречь от необдуманных действий:
Достаточно внедрить схему, что если к примеру 10 человек в интерфейсе нажали BL - то сайт идет в топку во всей системе.
Представьте, к примеру:
1.сайт солидного возраста, с солидными показателями и давно работающий у рекламного брокера, и
2.сайт новый, который недавно вылез из песочницы Гугли, получил нормальный тИЦ и был отправлен на заработки в сапе.ру - сколько оптимизаторов внесло в BL первый и второй?
Думаю, что старый сайт будет обгонять молодой во много раз по этому показателю, хотя бы по сроку работы, по тому, что далеко не все оптимизаторы достаточно квалифицированы в своем деле, а кому-то из них просто тематика не подходит и т.д и т.п.
И приведет предложенная Вами схема к тому, что хорошие, раскрученные площадки будут попадать в “бан сапы”…
И не надо всех веб-мастеров считать мошенниками, только и думающими обмануть бедного оптимизатора и нажить несколько баксов… Нормальному веб-мастеру есть чем занять себя более полезно и выгодно, поверьте…
Так что Ваше предложение в таком виде не подходит никак.
Другое дело, когда Вы обратите внимание администрации рекламного брокера на нечестную площадку и потребуете разобраться… Администрация разбирается и решает (вплоть до лишения аккаунта). На кликсе эта практика работает нормально и никто не возмущается, все справедливо.

Гроссмейстер:
11.10.2007 в 19:21
И не надо всех веб-мастеров считать мошенниками, только и думающими обмануть бедного оптимизатора и нажить несколько баксов… Нормальному веб-мастеру есть чем занять себя более полезно и выгодно, поверьте…
Лично я вообще по жизни стараюсь не обобщать :) согласен с Вами.

sape:
06.11.2007 в 11:26
САПА хорошая система, но заработать там МНОГО денег практически нереально. Система индексации у них сделана через жопу.

Сан Саныч:
26.12.2007 в 01:11
Столкнулся с серьёзной проблемой в Sape и как вебмастер и как оптимизатор.
У меня несколько досок объявлений с которых грех не продавать ссылки. Но…
Количество страниц постоянно меняется физически. Естественно, меняется и количество проиндексированных страниц.
Например, в данный момент проиндексированных страниц реально около 600, а на момент модерации в Sape было несколько тысяч. Всё бы хорошо, но… сейчас в Sape прописано также несколько тысяч страниц.
Как оптимизатор пользовался авторежимом и не так давно заметил, что более 40% (!!!) страниц отсутсвует в поисковой выдаче Яндекса! Это же ппц…
Как результат вышеописанного - очень большое число ссылок в Sape не проиндексированы Яндексом, несмотря на то, что система считает, что с ними всё в порядке, что, в принципе, побоку вебмастерам, но превращает работу оптимизаторов в пустую трату времени.
Конечно, можно работать и ручками, “нюхая” каждую страницу, но что-то не особо хочется прибегать к этому в автоматической (!) системе.
Если это прочтёт саппорт системы - то прошу принять во внимание: Возьмите, плз, за правило переиндексировать сайты хотя бы раз в месяц или, как вариант, придумать какой-нить доп. сервис по проверке проиндексированности в Яше.
Просто ручками по нескольким тысячам ссылок как-то не хочется “прогуливаться”.
Понимаю, такой парсер даст очень неслабую доп. нагрузку на сервер, или даже потребует отдельной железяки, но без решения вышеописанной проблемы Sape рискует превратиться в помойку.
З. Ы. Меня мучала совесть и я хотел подать на перемодерацию свой сайт, но, поняв сколько денег было потеряно впустую при автопокупке ссылок - передумал :)

Analyst:
11.04.2008 в 14:56
Зарабатывать в Sape можно , и зарабатывать хорошо!!!! Штуку баксов в месяц можно поднять либо китайским методом (примерно 50 сайтов в системе), либо качеством (15-20 сайтов достаточно). Испробовал оба метода - оба исправно работают!!!

Tchekhin:
21.05.2008 в 13:49
2 Analyst,
китайский сайт - это какой сайт? Начнём с кол.стр./тиц/pr. К примеру, у меня есть 10 сайтов по 100 страниц с малым тицем и pr2. А есть два сайта с >1000 страниц каждый и с тиц/pr 1500/5. Реально эти два проекта приносят больше, чем те 10. НО! За несколько месяцев при хорошем инвестировании можно нехило подогнать эти 10 карапузов и сделать их них толстяков, которые будут приносить хорошие деньги.
У того, у кого есть 50 сайтов и он зарабатывает 1000 - тот лошара =) Вот я к чему.

Fedr:
22.05.2008 в 17:51
Sape пока что лучшая система для тИЦ - всего за 35$ в месяц я поднял тИЦ до 500 и количество посетителей за счет выхода в топ яндекса выросло до 450-500 человек в день. А тут и бегун со своей рекламой приносит по 8-10 долларов за день.

Gothic:
19.07.2008 в 14:33
Очень хотелось бы почитать, что ты думаешь относительно Sape спустя энное количество времени. А то в Сети постоянно муссируют тему скорого закрытия системы, ибо Яндекс злобствует, постоянно банит сайты и прочее.
Хотелось бы знать наверняка, что это такое: просто кликушество или же от 3-5 вменяемых ссылок на каждой странице можно действительно потерять весь сайт.
У меня личный блог, поэтому трафика особого нет. Контекстную рекламу ставить нет смысла, даёт очень-очень мало. А вот Sape хоть домен, хостинг и газировку окупает. И то приятно.
Так что ждём новой статьи о Sape, блогах на WP и сказках о злом Яндексе.


Другие посты по этой теме:



0 коммент.:

Отправить комментарий

Ваш комментарий появится в блоге после проверки администратором