¿Cómo saber si Human está usando un sitio web o un script automatizado?

0

Sé que algunos sitios web dicen en sus términos y servicios que solo se puede acceder al sitio web por personas y no por robots o scripts. ¿Cómo le dicen a quién está accediendo? Especialmente con herramientas como AutoScript que solo registran los movimientos del mouse y la entrada del teclado, ¿no parecería bastante natural? Esto es asumiendo que no hay características de seguridad adicionales como captchers.

Supongo que si los archivos de registro muestran que el usuario ha estado repitiendo exactamente las mismas acciones con la misma sincronización, esto sería una bandera roja. ¿Pero no sería difícil verificar esto?

    
pregunta Celeritas 09.01.2017 - 01:05
fuente

3 respuestas

1

El método más común es probablemente un campo oculto , los robots tienden a para llenar esto, pero los humanos no lo hacen.

También es común usar un captcha, por supuesto.

Luego, algunas personas usan JavaScript para detectar eventos de página que normalmente solo ocurren en un navegador real. Como un evento de clic en un campo de formulario.

También puede ser posible ser inteligente con la sincronización de las cosas en el navegador, nuevamente utilizando JavaScript. Los humanos escribirán a un ritmo mucho más lento que los bots, por ejemplo. También tardarán mucho más en completarse y enviarse que un bot.

    
respondido por el Julian Knight 09.01.2017 - 08:46
fuente
1
  • Para detectar , el propietario del sitio puede implementar una gran cantidad de mecanismos como: Tiempo de las solicitudes, Contenido de las solicitudes (los valores del campo), Cadena de agente de usuario ... etc.
  • Para proteger , CAPTCHA (significa: C por completo A utilizado P ublic T uring prueba para decirle a C computadoras y H umans A parte) es relativamente una buena medida, control de tasa de solicitud ... etc.
respondido por el Opaida 09.01.2017 - 10:03
fuente
0

Esto es términos bastante vagos. Esto puede significar cualquier cosa:

  1. No hay bots.txt para rastrear el motor de búsqueda del portal web
  2. Puede bloquear varias solicitudes web de una IP que parecen ser web scrapper.
  3. El javascript de la página de destino de la página web puede rastrear las actividades del usuario para determinar el movimiento del mouse.

No existe una tecnología de garantía para determinar el script de automatización, ya que siempre hay una forma de mitigar varios mecanismos de detección de bot.

El ToC está ahí por si acaso:

  1. El sitio web es un ataque de DDoS, y pueden bloquear la solicitud de clientes en particular.
  2. Pueden bloquear actividades de desguace de contenidos posibles, por ejemplo, Contenidos molinos, comparacion de precios botes de desguace.
respondido por el mootmoot 09.01.2017 - 12:20
fuente

Lea otras preguntas en las etiquetas