2008 Июль | Записки Экспериментатора

Архив за Июль, 2008

RSS-грабители



На одном из своих блогов решил вчера проверить проиндексированность статьи. Выделили кусочек текста и вставил его в поиск Яндекса. Яндекс нашел эту статью… но нашел ее он на чужом говносайте! После детального осмотра «донора» стало ясно что статьи банально воруются с RSS и на автомате постятся на сайт. Сайт был до невозможности забит рекламой от Google. И ниодной человеческой фразы от автора. Даже как то обидно стало. И больше всего меня разозлил ГовноЯндекс, который по неведомым мне причинам автоматизированный говносайт индексирует чаще нежели мой рукотворный блог. Отправил жалобу Яндексу — пускай разбираются.

Призадумался… Как этого избежать или хотя бы максимально усложнить жизнь rss-ворам. Частично с этой проблемой можно бороться вставкой копирайта в feed (ленту). Обратил внимание на плагины для wordpress: CopeFeed, Rss Feeds и подобные им. Предоставляют они самые широкие возможности: можно вставить в конец статьи в ленте, можно в начало, можно при желании добавить индивидуальный идентификатор чтоб упростить отслеживание своих статей в инете. Это конечно все хорошо, но плагины отказались работать в последней версии wordpress. Стал искать дальше. Нашел наконец плагин Rss Sticky, который действует немного по другому. Он приклеивает к началу статьи (опять же в ленте) текст содержащийся на какой либо странице вашего блога. Т.е. делаем так: создаем личную (т.е. скрытую) страницу в wordpress, после чего пишем там копирайт вида «Этот текст мой, а все воры — казлы!» =), и указываем эту страницу в настройках плагина. Все. И теперь каждая статья в ленте начинается с этого текста.

Есть конечно вариант добавить копирайт в feedburner, но тогда материалы сворованные напрямую с вашей ленты будут без него.

Я прекрасно понимаю что подобным образом обезопаситься нельзя. Вор может запросто своровать и подчистить руками. Это если вор не ленивый. А может и скрипт какой нить сварганить чтоб копирайт на автомате обрезался. В любом слечае трудоемоксть мы ему увеличили.

Ап тИЦа от 14 июля 2008

Малость проворонил апдейт индекса цитирования. Только к вечеру узнал о нем. Пишу отчет по апдейту. Проекты:

1. 20 > 30 (вернул украденную в прошлый раз десятку)

2. 10 > 10

3. 10 > 0 (Яндекс охренел неиначе…)

4. 0 > 0 (Яндекс тормоз…)

5. 0 > 0 (промолчу…)

Выходит крайне идиотская картина. Одно хорошо: может Яндекс наконец будет проводить апдейты раз в две недели…

Тотализатор: первый опыт

Прочитал стратегию (и результаты этой самой стратегии) игры на спортивном тотализаторе у и решил поэкспериментировать тоже.

Начал с стратегии Мельника. Берем 10 баксов и вкладываем их на одну ставку с коэффициентом не выше 1,20: таким образом считалось что риск минимизируется. И действительно я начал с побед. Мой депозит начал увеличиваться, но не долго. 1 проигрыш и все деньги смылись в унитаз. Призадумался… Вероятность победы, как мне кажется, крайне хренова связан с коэффициентом. Народ бесспорно ставит на лидера и если коэффициент стремится к единице то и лидер явно преобладает над соперником в общественном мнении, НО… Я думаю последний чемпионат Европы по футболу очень хорошо продемонстрировал что и явные аутсайдеры способны на оглушительные победы. Получается что вероятность конечно в пользу лидера, но в численном выражении ее не достаточно: 1 поражение «слизывает» всю прибыль от серии побед. От такой стратегии я отказался…

Другая стратегия. Ее придумал уже я. Суть: находить такие матчи, в которых можно поставить на победу обеих команд и в обоих случаях остаться с прибылью. Пример: коэффициент победы команды А = 1,6, коэффициент победы команды Б = 4. Ставим на А 10 баксов. На команду Б ставим 4 бакса. Общие расходы таким образом 14 баксов. В случае победы А получаем 16 долларов (чистых 2). В случае победы Б получим 16 (чистых 2). Как вы видите и так и так с прибылью. Это теория… А что у нас с реальностью. Для того чтобы получать прибыль от обеих команд коэффициенты должны удовлетворять следующему условию: (коэф1 минус 1) умножить (коэф2 минус 1) должно получится больше единицы. Такому условию удовлетворяют лишь часть футбольных матчей. А что саоме плохое в футболе? То что там есть вариант «ничья»… В случае ничьи все деньги летят в (_)(_)… В общем в результате последующих испытаний данной стратегии я выяснил что ничья в футболе — слишком частое явление. Не успевает прибыль окупить затраты… Опять неудача.

Потратив таким образом 30 долларов я решил приостановить эксперименты с тотализатором до лучших времен. Сфокусируюсь на форексе — там у меня больше успехов =) … об этом когда нибудь позже.

Говносайт vs Сателлит

Этот пост является как бы криком моей души. Очень часто (если не сказать постоянно) читаю гневные высказывания многих оптимизаторов в адрес ГС. Причем как правило сателлит и ГС это слова синонимы для них. Мол вот он говносайт, сделан за 10 минут на коленке и добавлен в сапу.

У меня на это своя классификация. Чистыми (в смысле самыми настоящими) говоносайтами я считаю сайт сделанный по следующий технологии: берем текстовый файл уникального контента, засовываем его в говнодвижок (типа CMSimple или Satellite-X), автоматом разбиваем его на страницы, индексируем, засовываем в сапу и … все. Сами понимаете что с такого сайта пользы людям мало: текст неудно оформлен и практически не читаем в виду особенностей создания. Тут я согласен. Самый настоящий govnosite ordinarius (в пер. с латитинского «говносайт обычный»).

Но ведь есть и другие сайты создаваемые для сапы. К примеру, как делаю я. Нахожу материал (опять же текстовый файл с уникальным контентом). Читаю его внимательно (не все подряд, но просто чтобы знать где что написано)! Использую уже готовые (заготовленные мной ранее) HTML шаблоны оформляю справочный сайт, в котором весь материал разбит на логические куски. Все страницы логичны и понятны. В результате получается сайт вполне удобный для того, кто будет искать сей материал. Да у него простой дизайн. Но для тех кто ищет в перую очередь информацию оформление не имеет столь важного значения. Созданный таким образом сайт я говносатом назвать ну никак не могу. Пускай будет сателлит (звучит приличнее). И название ему придумал: govnosite spurius (в пер. с латинского «говносайт ложный» или «сателлит»).

Вот так вот =)

Магадан 2.0

С сегодняшнего дня Яндекс официально ввел новый механизм поиска под названием Магадан 2.0. Нас им очень долго пугали и вот оно свершилось. По словам самого Яндекса в этой версии поисковой машины изменен алгоритм ранжирования, усилена проверка на уникальность, введены дополнительные факторы. В частности многие жалуются на обвал порносайтов )). Хорошо что у меня их нет. По крайней мере один из моих блогов чуток поднялся в выдаче. Из индекса ничего не вылетело. В общем пока ничего страшного я не заметил. Кстати, следующая версия поиска от Яндекса будет носить имя «Находка». Хотя чего от нее можно ждать? Опять перетасуют выдачу так что всякий мусор попрет вверх, вытряхнут из индекса пару миллионов страниц от балды и допишут новую версию… А ведь Гугль тем временем все плотнее приближается к Яндексу и вот вот скинет его с лидирующих позиций.

Считаем деньги за июнь 2008

Пришло время привести мой первый отчет по тому что мне накапало за прошлый и по сути первый рабочий месяц. Этот блог существует с апреля, но реально там ничего не делалось. Я б даже сказал что в апреле я слова то такого как SEO не знал. Суммы копеечные зато «это все мое родное» =)).

Факты.

За прошлый месяц суммарный доход составил 28 долларов 56 центов. Из них: на продаже места под баннеры на этом блоге 20 долларов, Google Adsense всего 88 центов (ужас, даже за нерабочий май он приносил больше), в Sape я наскреб 7 долларов 68 центов. И того почти доллар в день. Почти как известно не считается поэтому рубеж в доллар придется преодолевать в июле (курортный месяц блин). А теперь перейдем к самому интересному: анализируем ситуацию.

Анализ.

Почему так мало? Это пожалуй главный вопрос. Ситуацию с гуглем комментировать не буду: думаю тут все банально упирается в посещаемость. С баннерами все в порядке: они как показывает стата сейчас флагманы моей «экономики» =). А вот с сапой вышло все не очень. Хотя и крайне предсказуемо. Дело в том что у меня в Сапе на данный момент введено всего 10 страниц одного сайта (!). Максимум тут могло быть долларов 15-20. Но постоянный поиск оптимальной цены не давал скупиться всем ссылкам. К слову сказать с ценами я экспериментировал очень много. Почитаешь сапофорум и выставишь в 3 раза выше средних. И ссылок скупается штучно… Оптимум я пока нашел в районе х2,5 цен на главной и х2 на УВ2. При том на продаже у меня не ГС, а блог (не этот), который регулярно пишу сам. Сегодня убедился что он у меня в основной базе Сапы, а не в сомнительных — уже хорошо. Продаю по 3 ссылки со страницы: рисковать мне не хочется.

План действий.

Что будем делать дальше чтоб исправлять результаты? На подходе у меня 3 сайта (вполне приличных, один из них блог про кино), которые неплохо проиндексированы. Один из них получил тИЦ вчера и в данный момент внедряется в сапу. Для двух других похоже лучше ждать следующий апдейт тИЦа: на нулевиках я сомневаюсь что можно чтото выжать.  На проекте, который уже в сапе планирую доввести в сапу проиндексированные страницы. Так же планирую сделать 6 сайт в формате блога. Чем плохи блоги… трудно добиться большого количества УВ2 зато проблем с контентом нет (по крайне мере по интересным для меня темам вроде кино и софт).

Вывод.

Работать, работать и работать…