Рубрики
На повестке дня

Энтузиасты создают ловушки для ИИ-краулеров

ИИ-компании нередко обвиняют в том, что они игнорируют инструкции в файлах robots.txt и скрапят любой контент без разбора, при этом создавая большую нагрузку на сайты. Для борьбы с этим явлением начали появляться ловушки для ИИ-краулеров.

Рубрики
Технологии

Cloudflare представила Robotcop для соблюдения политик robots.txt и блокировки ботов

Cloudflare внедрила в панель управления аудита ИИ новую функцию, которую шутливо назвала Robotcop. Она позволит проверить, какие ИИ-службы соблюдают политики robots.txt, а какие нет, а затем программно применять эти политики. Читать далее