Tengo un sitio web y observo una gran cantidad de tráfico de robots, supongo que al intentar extraer datos del sitio. Logré detectar algunos tráficos con scripts o límites de velocidad de IP, pero veo que no puedo detectar el acceso que utiliza Selenium / webdriver.
¿Alguien sabe cómo se pueden detectar?
Vi este post: enlace y comenzando a verificar esto, pero a partir de mis pruebas, no todas son posibles.
P.S. Las partes específicas (clics, enlaces, etc.) de nuestro sitio hacen que nuestro back-end trabaje duro y el acceso a ellos para el desguace interrumpa el trabajo de nuestros clientes habituales, por lo tanto, debo bloquear el acceso a esas páginas, pero las soluciones como re-captcha parecen demasiado duras (al menos para nuestro ventas). Así que, por favor, no me pidas que lo deje.
EDIT
Mi única pregunta es : ¿alguien sabe y está dispuesto a compartir cómo detectar los navegadores controlados por selenio / webdriver en mi sitio web?
Realmente no me importan las otras rondas, no son mi responsabilidad.