Tienes un sitio web; está destinado a proporcionar páginas a quien las solicite. Ese es el punto central de un sitio web. ¿Qué sentido tendría rechazar el envío de la página a algunas personas? Especialmente si el criterio de exclusión es la cadena User-Agent
, que el cliente elige libremente. Cualquier persona con intenciones nefastas puede enmascarar su software para que aparezca, de su lado, como un Internet Explorer básico o Chrome o lo que sea; incluso si fuera sensato excluir a los clientes HTTP que están escritos en Python, el filtrado en el User-Agent simplemente rechazaría a los clientes que sean lo suficientemente honestos como para admitir que utilizan Python como su lenguaje de programación.
Es plausible que este cliente específico sea una especie de rastreador web . Realmente no puede evitar que los rastreadores web absorban los datos de su sitio web, siempre que permita la navegación de usuarios no autenticados, aunque puede instalar algunas medidas de mitigación contra la descarga sistemática en todo el sitio (eso es lo que hace Google, para Google Maps: si ver demasiadas solicitudes de un cliente dado dentro de un marco de tiempo dado, sospechan juego sucio). puede documentar su falta de voluntad para ver su sitio inspeccionado por rastreadores web, con un robots.txt
expediente; la mayoría de los rastreadores honran ese archivo. Pero esto no detendrá a cualquier rastreador determinado. El mejor curso de acción es:
- implemente e implemente procedimientos de autenticación, rechazando el acceso a personas que no han sido debidamente autenticadas con, por ejemplo, un nombre de usuario o contraseña;
- o acepte que los datos públicos son públicos, y no existe tal cosa como "público excepto para personas malvadas".