Robots.txt и "Черный список".
В программу встроен дву-ступенчатый механизм проверки "качественности" сайтов по обмену. Первая проверка проводит осмотр файла robots.txt на предмет блокировки директории (файла) каталога обмена ссылками для поисковых роботов. Второй уровень проверки - специальные ключевые слова и словосочетания. Если при осмотре сайта программа найдет эти ключи, то сайт будет признан "не порядочным". (например: на странице с обменом мета тегом закрыто индексирвоание для роботов).
Ключевые фразы можно добавлять и редактировать. Нажмите кнопку "Черный список" и в открывшемся окне внесите требуемы слова или словосочетания.
 |