Критерии оценки безопасности посетителя для клоакинга


Ответить на тему
 
Автор Сообщение

Movox ®

Создавать темы 12-Фев-2013 20:52

Приведу цитату из другой ветки:
Систему клоакинга и набор оцениваемых параметров создавал в течение 5-6 лет. Сейчас посмотрел свежим взглядом на этот винегрет, и понял, что нужно переделывать с нуля. Кое-что древнее, типа определения списка посещенных URL по цвету ссылок в CSS надо срочно убрать, пока не спалили и не забанили все домены.
По текущей статистике я признаю безопасными около 40% хитов, надо улучшать в сторону меньшей паранойи.
Основные критерии сейчас:
1. включенные cookies, js, более-менее современные браузеры, но не Канарейка и без палящихся плагинов и надстроек, свойственным вебмастерам;
2. нормальные рефереры;
3. IPшники массовых провайдеров по основным (дорогим) странам;
4. тайминги по кликам + прокрутка страницы + движения мыши;
5. повторные посетители.
Каждая сессия собирает данные (оценивает посетителя по критериям), и на каждый запрос проводится голосование (суммирование с весами + блокирующие голоса), по результатам которого отдается тот или иной CSS или JS.
Реализовано в виде плагина к nginx, база была berkeleydb, сейчас kyoto cabinet, на aws ec2 m1.medium тянет 2К rps без другой нагрузки, на фоне друпала или вордпресса это незаметно.
Считаю полезным создать отдельную тему для этого обсуждения, и возможно совместной разработки новой версии системы.
Изначально речь идет о клоакинге для MFA, где для признанных безопасными посетителей отдается другой CSS или JS для повышения шансов клика по объявлениям. Также обсуждаемая тема применима ко всем остальным видам и задачам клоакинга, за исключением тех случаев, которые палятся тулбарами, браузерами и js аналитикой.
Welcome!
 

strat0caster

Создавать темы 15-Фев-2013 01:29 (спустя 2 дня 4 часа)

Очень интересная тема, только в этом я не силен.
А как давно используете такую схему? бана аккаунта не было?
 

Movox ®

Создавать темы 27-Фев-2013 20:13 (спустя 12 дней)

47498Очень интересная тема, только в этом я не силен.
А как давно используете такую схему? бана аккаунта не было?
С 2007 года. Банов аккаунтов именно по причине использования этих методов не было. Банили явно за другие фокусы и косяки.
Считаю, что использование описанных методов экономически выгодно, и хочу пересоздать эту систему с чистого листа.
 

strat0caster

Создавать темы 27-Фев-2013 22:31 (спустя 2 часа 18 минут)

55883
47498Очень интересная тема, только в этом я не силен.
А как давно используете такую схему? бана аккаунта не было?
С 2007 года. Банов аккаунтов именно по причине использования этих методов не было. Банили явно за другие фокусы и косяки.
Считаю, что использование описанных методов экономически выгодно, и хочу пересоздать эту систему с чистого листа.
а проводили какое-нить сплит тестирование? насколько увеличивается конверсия?
 

Movox ®

Создавать темы 01-Мар-2013 01:27 (спустя 1 день 2 часа)

а проводили какое-нить сплит тестирование? насколько увеличивается конверсия?
Чистые A/B эксперименты я не проводил. Я веду статистику по общему выхлопу на килоуник в разрезе источников траффика. Статсы за 2010-11 годы, тогда было много траффика и флуктуации сглаживались:
поисковый трафф с SE (google, bing, чуть-чуть yahoo и других), конверт на adsense:
обычный шаблон, три блока $4/K
CTRtheme и другие оптимизированные шаблоны $19/K
с использованием системы на обычном шаблоне $62/K
Ниши - обычные товарные. Понятно, что с такой доходностью сайты выбиваются из общей статистики у гугла и являются кандитатами на пристальный анализ. Из-за этих опасений, а так же по причине нужды в быстрых деньгах почти все те MFA продал больше года назад. А вскоре гугл ввел EMD фильтр, и почти все они вылетели в сапплементал. Что интересно, на flippa нашлись покупатели и мои бывшие сайты уже после EMD нашли новых хозяев.
 

Movox ®

Создавать темы 15-Мар-2013 06:42 (спустя 14 дней)

Предлагаю оживить дискуссию с целью разработки новой версии системы. Приглашаю всех заинтересованных присоединиться к обсуждению. Результат будет бесплатно распространен среди участников этой ветки.
Сначала немного о платформе:
- бэкенд будет хоститься на моих серверах (aws, rackspace); кому интересно -- nginx + php/python + mysql handlersocket/kyoto. Эта часть раздаваться не будет.
- фронтенд - модуль для Drupal, возможно (если будет серьезная заинтересованность) Wordpress. Здесь без альтернатив php+js, с локальным кешем и настройками.
Задача: определять опасных клиентов; для безопасных посетителей сайтов отдавать дополнительные css/js/html/etc.
Смысл: радикальное улучшение доходов владельцев сайтов.
Что необходимо обсудить: критерии определения опасных посетителей. Прошу постить идеи, даже самые бредовые. Свой список намеренно пока не выкладываю, чтобы не мешать новому.
Welcome!
 

YogaMaster

Создавать темы 15-Мар-2013 14:55 (спустя 8 часов)

Под опасными посетителями имеется ввиду модератор объявлений, который может зайти с любого ip? В разряд опасных посетителей попадают и многие сеошники, когда увидят сайт в топе выдачи. Многие без зазрения совести палят сразу в поисковые системы. Для этого они сравнивают кэш поисковика и настоящую выдачу.
Вот первый бредовый вариант ))) Создать откровенно клоачный сайт (с другим принципом клоакинга, чтобы новый не распознали) и заносить в черный список все подозрительные ip. Допустим посетителей без рефера.
 

Hatred

Создавать темы 17-Мар-2013 20:07 (спустя 2 дня 5 часов)

68775Предлагаю оживить дискуссию с целью разработки новой версии системы. ........................
- бэкенд будет хоститься на моих серверах (aws, rackspace);.................. Эта часть раздаваться не будет.
примерно в этот момент стало совсем не интересно
 

Movox ®

Создавать темы 19-Мар-2013 15:20 (спустя 1 день 19 часов)

69019Под опасными посетителями имеется ввиду модератор объявлений, который может зайти с любого ip? В разряд опасных посетителей попадают и многие сеошники, когда увидят сайт в топе выдачи. Многие без зазрения совести палят сразу в поисковые системы. Для этого они сравнивают кэш поисковика и настоящую выдачу.
Вот первый бредовый вариант ))) Создать откровенно клоачный сайт (с другим принципом клоакинга, чтобы новый не распознали) и заносить в черный список все подозрительные ip. Допустим посетителей без рефера.
В текущей версии используется дырка CSS Visited Link для определения посещенных сайтов, но в новых браузерах это не работает, к тому же наверняка палится. Посетители без рефа конечно тоже оцениваются как небезопасные.
Несовпадение текущего содержимого с кешем ПС не является большой проблемой, поисковики нормально относятся к A/B тестированию. По одной-двум абьюзам меры, насколько мне известно от чернушников, не принимаются (иначе гадить конкурентам было бы совсем легко).
Модифицированные js/html/css отдаются с заголовками запрета кеширования, в gzip, для некоторых броузеров (огнелис, опера) через https; отловить через Fiddler или TamperData конечно можно, но вероятность такого события низкая.
70580
68775Предлагаю оживить дискуссию с целью разработки новой версии системы. ........................
- бэкенд будет хоститься на моих серверах (aws, rackspace);.................. Эта часть раздаваться не будет.
примерно в этот момент стало совсем не интересно
Я считаю так: кому реально нужно все держать у себя, по обсуждению принципов клоакинга в этом топике легко сделает свою систему (там реально просто, особенно если траффик небольшой, то можно писать на php, базу держать в mysql/memcached и пусть живет на том же сервере, где и сайты). Если выложить весь винегрет из nginx module, kyoto cabinet, скриптов на питоне и админки на друпале, то во-первых мало кто это сможет сам завести, во-вторых потребуется отдельный сервер/vps с соответствующими накладными расходами, и в-третьих оно так или иначе попадет в паблик и натолкнет слишком многих на эту пока низкоконкурентную и денежную тему, а оно нам надо?
 
Показать сообщения:    
Ответить на тему