Mi sitio web está siendo DoS'ed por los webpiders de Google. Google puede indexar mi sitio, pero a veces consulta un tagcloud en mi sitio más rápido de lo que mi servidor web puede producir los resultados, haciendo que mi servidor web se quede sin recursos.
¿Cómo puedo limitar el acceso a mi servidor web de tal manera que los visitantes normales no se vean afectados?
robots.txt no es una opción porque bloquearía la indexación de todo el sitio.
iptables -m recent
es complicado, porque algunas páginas tienen muchas imágenes u otros archivos de datos y disparadores 'recientes' también (generalmente mi agregador RSS, cargando imágenes y fuentes).
iptables -m limit
tiene la misma desventaja y, además, no pude ser selectivo por dirección de origen IP.
¿Cómo puedo limitar los visitantes que hacen que la carga de mi servidor aumente demasiado?
Estoy ejecutando apache2 en el servidor Ubuntu en una VM VirtualBox.