<?xml version="1.0" encoding="koi8-r"?>
<rss version="0.91">
<channel>
    <title>OpenForum RSS: Защита сайта от выкачивания</title>
    <link>https://217.65.3.21/openforum/vsluhforumID1/82500.html</link>
    <description>Здравствуйте.&lt;br&gt;&lt;br&gt;Столкнулся со следующей проблемой:&lt;br&gt;Есть некоторый сайт site.ru, а второй сайт site2.ru периодически производит незаконное копирование первого сайта и размещает скопированный контент у себя.&lt;br&gt;&lt;br&gt;По логам я посмотрел с какого вероятно происходит выкачивание, так же закрою доступ с ip адреса site2.ru.&lt;br&gt;&lt;br&gt;Что ещё можно сделать для защиты контента на site.ru? Есть ли какие то программные решения чтобы вычислять что проичходит выкачивание информации и прекратить этот процесс?&lt;br&gt;&lt;br&gt;Заранее благодарен.&lt;br&gt;</description>

<item>
    <title>Защита сайта от выкачивания (makoviy)</title>
    <link>https://217.65.3.21/openforum/vsluhforumID1/82500.html#28</link>
    <pubDate>Fri, 06 Feb 2009 11:28:47 GMT</pubDate>
    <description>Кстати, установил отлов по ссылкам. Вот это тема! Уже Яху попался:)) И один человечек, который пытался выкачать сайт. Работает!&lt;br&gt;&lt;br&gt;Но картинку по кол-ву запросов тоже нужно поставить...&lt;br&gt;</description>
</item>

<item>
    <title>Защита сайта от выкачивания (makoviy)</title>
    <link>https://217.65.3.21/openforum/vsluhforumID1/82500.html#27</link>
    <pubDate>Fri, 06 Feb 2009 07:59:58 GMT</pubDate>
    <description>&amp;gt;Сейчас у нас работает защита со скрытой ссылкой - помогает на 100&#037;. &lt;br&gt;&amp;gt;Сайт двойник, как не пытался качать постоянно банится. &lt;br&gt;&amp;gt;&lt;br&gt;&amp;gt;На мой взгляд другой защиты даже и не нужно. Нормальных пользователей такой &lt;br&gt;&amp;gt;алгоритм заблокировать не может. &lt;br&gt;&amp;gt;&lt;br&gt;&amp;gt;При реализации главное не забывайте сделать Белый лист, в который внесите все &lt;br&gt;&amp;gt;нужные поисковики. &lt;br&gt;&lt;br&gt;Я так понимаю, что у Вас сайт выкачивают при помощи программ-граберов? У меня забирают конкретные объявления, как я понимаю, при помощи самописного парсера. Ведь парсер не ходит по ссылкам (сам такой писал когда-то). &lt;br&gt;Например, есть сайт с объявлениями. Парсеру достаточно зайти на страницу с результатами поиска, а далее просканировать этот список, найти в нем урлы конечных объявлений, зайти на них и забрать информацию в соответствии с версткой. Вот и все. То есть он изначально не ходит по крытым ссылкам и т.д.&lt;br&gt;&lt;br&gt;Так что, думаю, что мне поможет только ввод картинки при большом числе запросов, т.к. за 15 минут они выкачивают до 5-10к объявлений. Вот ищу как это </description>
</item>

<item>
    <title>Защита сайта от выкачивания (Frei)</title>
    <link>https://217.65.3.21/openforum/vsluhforumID1/82500.html#26</link>
    <pubDate>Fri, 06 Feb 2009 06:01:04 GMT</pubDate>
    <description>Сейчас у нас работает защита со скрытой ссылкой - помогает на 100&#037;. Сайт двойник, как не пытался качать постоянно банится.&lt;br&gt;&lt;br&gt;На мой взгляд другой защиты даже и не нужно. Нормальных пользователей такой алгоритм заблокировать не может.&lt;br&gt;&lt;br&gt;При реализации главное не забывайте сделать Белый лист, в который внесите все нужные поисковики.&lt;br&gt;</description>
</item>

<item>
    <title>Защита сайта от выкачивания (makoviy)</title>
    <link>https://217.65.3.21/openforum/vsluhforumID1/82500.html#25</link>
    <pubDate>Fri, 06 Feb 2009 00:07:53 GMT</pubDate>
    <description>&amp;gt;&#091;оверквотинг удален&#093;&lt;br&gt;&amp;gt;&lt;br&gt;&amp;gt;А просто защититься от обхода роботами можно кучей способов. &lt;br&gt;&amp;gt;Фильтры по IP/UA не эффективны, зато хорошо работают ссылки-ловушки и просто отсечение &lt;br&gt;&amp;gt;по частоте запросов. Поисковики можно занести в whitelist по IP, см., &lt;br&gt;&amp;gt;например, http://chceme.info/ips. Скорее всего это не полный список, но вручную или &lt;br&gt;&amp;gt;даже автоматически пополнять whitelist на основе данных из whois - не &lt;br&gt;&amp;gt;проблема. &lt;br&gt;&amp;gt;&lt;br&gt;&amp;gt;Javascript защита - плохой вариант, ибо сложна, в любом случае ударит по &lt;br&gt;&amp;gt;части легальных пользователей, и все равно потребует whitelist для поисковиков. &lt;br&gt;&lt;br&gt;Отличный совет про подмену страниц! Появился у меня сайт-двойник, ежедневно выкачивает объявления с моего сайта. Сейчас я им предоставлю &quot;нужную&quot; информацию для размещения :)&lt;br&gt;&lt;br&gt;А по поводу отображения картинки при большом количестве запросов - кто-нибудь реализовал?&lt;br&gt;</description>
</item>

<item>
    <title>Защита сайта от выкачивания (Guest)</title>
    <link>https://217.65.3.21/openforum/vsluhforumID1/82500.html#24</link>
    <pubDate>Tue, 28 Oct 2008 13:51:24 GMT</pubDate>
    <description>&amp;gt;Не забудьте только про rel=&quot;nofollow&quot;. &lt;br&gt;&lt;br&gt;Это убивает всю идею, потому что ничто не мешает врагу также учитывать nofollow. Поэтому whitelist.&lt;br&gt;</description>
</item>

<item>
    <title>Защита сайта от выкачивания (anonymous)</title>
    <link>https://217.65.3.21/openforum/vsluhforumID1/82500.html#23</link>
    <pubDate>Tue, 28 Oct 2008 05:32:24 GMT</pubDate>
    <description>&amp;gt;Спасибо за развёрнутый ответ. &lt;br&gt;&amp;gt;&lt;br&gt;&amp;gt;Идея с экскрементами очень понравилась и позабавила )))) Живо представил удивление на &lt;br&gt;&amp;gt;лице &quot;врага&quot; )))) &lt;br&gt;&lt;br&gt;Лучше отдавать ему содержимое vesna.yandex.ru.&lt;br&gt;&lt;br&gt;&amp;gt;Я вот склоняюсь к варианту с ссылками ловушками. Буду пробовать. &lt;br&gt;&lt;br&gt;Очень хороший, годный вариант.  Не забудьте только про rel=&quot;nofollow&quot;.&lt;br&gt;</description>
</item>

<item>
    <title>Защита сайта от выкачивания (Frei)</title>
    <link>https://217.65.3.21/openforum/vsluhforumID1/82500.html#22</link>
    <pubDate>Mon, 27 Oct 2008 13:42:07 GMT</pubDate>
    <description>Спасибо за развёрнутый ответ.&lt;br&gt;&lt;br&gt;Идея с экскрементами очень понравилась и позабавила )))) Живо представил удивление на лице &quot;врага&quot; ))))&lt;br&gt;&lt;br&gt;Я вот склоняюсь к варианту с ссылками ловушками. Буду пробовать.&lt;br&gt;</description>
</item>

<item>
    <title>Защита сайта от выкачивания (Guest)</title>
    <link>https://217.65.3.21/openforum/vsluhforumID1/82500.html#21</link>
    <pubDate>Mon, 27 Oct 2008 12:46:14 GMT</pubDate>
    <description>Для начала узнай все что можно о нападающем. Диапазон IP, user agent, частоту запросов, время обхода, глубину обхода и т.д., посмотри через какое время после обхода новая информация появляется на вражеском сайте. Если враг не шибко умен и не проверяет обновления вручную, отдай им целый сайт с фотками экскрементов, различных личинок и червей и прочей гадости, а вместо текста - матерные частушки. Десять раз подумают, прежде чем еще раз качать.&lt;br&gt;&lt;br&gt;А просто защититься от обхода роботами можно кучей способов.&lt;br&gt;Фильтры по IP/UA не эффективны, зато хорошо работают ссылки-ловушки и просто отсечение по частоте запросов. Поисковики можно занести в whitelist по IP, см., например, http://chceme.info/ips. Скорее всего это не полный список, но вручную или даже автоматически пополнять whitelist на основе данных из whois - не проблема.&lt;br&gt;&lt;br&gt;Javascript защита - плохой вариант, ибо сложна, в любом случае ударит по части легальных пользователей, и все равно потребует whitelist для поисковиков.&lt;br&gt;</description>
</item>

<item>
    <title>сайта Зашита (Andrey Mitrofanov)</title>
    <link>https://217.65.3.21/openforum/vsluhforumID1/82500.html#20</link>
    <pubDate>Mon, 27 Oct 2008 06:34:59 GMT</pubDate>
    <description>&amp;gt;вести код изображённый на картинке. &lt;br&gt;&amp;gt;&lt;br&gt;&amp;gt;Вот интересно как это сделано? Средствами чего? Можно ли и мне это &lt;br&gt;&amp;gt;как то сделать? &lt;br&gt;&lt;br&gt;См.: интернет, ключевое слово &quot;captcha&quot;.&lt;br&gt;</description>
</item>

</channel>
</rss>
