- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Так я тоже делал. Не пашет от слова совсем. При переходе по ссылке как бот получаем белую страницу с кодом джаваСкрипт:
настройки такие:
Попробуй в настройках Header выбрать
И отметил ли ты галками нужные боты в разделе "Проверять IP в списках"? Группе (не потоку) определил перенаправление Stop?
И если не секрет, зачем тебе ботов редиректить на гугол? Если ты это делаешь на дорвее, то боты его не увидят, и, соответственно, индексации никакой не будет.
@ro--ot
Is it possible to use the zTDS cloak AMP page?
thx a lot
Здравствуйте, большое спасибо Автору за разработку и поддержку zTDS,
Возник вопрос во время настройки (перечитал весь форум не нашел ответа) - мне нужно на дорвеях (доры на разных доменах) отсеивать ботов, то есть бот должен получать 503 ошибку, а все кто прошли проверку получают код страницы.
Установил и настроил zTDS, подключил дорвей через API, как я понял по логике TDS отдает по API на дорвей данные о проверке (прошел юзер проверку на бота или нет) а уже на стороне сайта в зависимости от результата выдается код страницы (если не прав поправьте).
Подскажите может есть проще решение, т.к. тестил на разных сервисах (посмотреть как бот) некоторые выдавали полный код сайта.
Вот код который добавляю в начале страницы дора (в php не силен вот как работает у меня):
Вот один из сервисов которым можно смотреть код страницы как бот: p2pi.ru/see-how-robot.html
мои настройки zTDS:
Забыл добавить заголовки header у меня код вставки выглядит так:
<?php
$z_key = '[BKEYWORD]';
include $_SERVER['DOCUMENT_ROOT'].'/api-ztds.php';
if($z_bot != $z_empty) {
header("HTTP/1.1 503 Service Unavailable");
header("Status: 503 Service Unavailable");
header("Retry-After: 3600");
$homepage = <<<HERE
<html><head>
<title>503 Service Unavailable</title>
</head><body>
<h1>503 Service Unavailable</h1>
<p>503 Service Unavailable No server is available to handle this request.</p>
</body></html>
HERE;
echo $homepage;
exit();
}
?>
когда трафа более 150к тдс начала жутко лагать при просмотре источников трафа.
видимо все таки лучше использовать mysql для запросов вместо файлов.
Попробуй в настройках Header выбрать
И отметил ли ты галками нужные боты в разделе "Проверять IP в списках"? Группе (не потоку) определил перенаправление Stop?
И если не секрет, зачем тебе ботов редиректить на гугол? Если ты это делаешь на дорвее, то боты его не увидят, и, соответственно, индексации никакой не будет.
Добрый день. Спасибо за помощь. Но не пашет. "Проверять IP в списках" стоит. В группе установил "Стоп", в потоке выбрал "text/html". Все равно белая страница с windows.location.href='https://google.com';
>>И если не секрет, зачем тебе ботов редиректить на гугол?
Да боты идут с донора, который индексируется, но вот по ссылке ботам нельзя.
Можно ли как нибудь сделать уникальность по IP адресу и по кукам одновременно??
Никак мне не победить javaScript для ботов. пппццц какой-то.
Профи, посоветуйте тогда, что лучше делать с ботами Stop оставить? Но им белая страница тогда показывается, это плохо не скажется?
внезапно перестала вообще считать траф. без видимых на то причин.
плюс как я уже писал выше очень сильно тормозит на объемах трафа от 150к
в итоге лучше перейти на другие решения, ту же сутру лучше поставить.
позавчера тоже все упало! но потом само восстановилось и работает нормально