Scenario:
Estoy trabajando en un proyecto que necesita aceptar grandes cantidades de datos (datos de clientes) de sus usuarios. Por lo tanto, puede ser normal que un usuario intente agregar 10,000 o 100,000 registros a la vez. En algunas otras formas es normal agregar 2 o 3 registros a la vez. En algunos otros 50 a 100.
Problema :
¿Cómo podemos evitar que los formularios de nuestro sitio web provengan de robots (o personas) que intentan agregar datos masivos para llenar los recursos de mi base de datos con datos incorrectos o inútiles?
Posibles soluciones que he descartado:
Limitar la cantidad de datos actualmente no es una opción, como se mencionó. El uso de CAPTCHA para cada formulario es muy intensivo en forma manual, ya que puede haber 10000 formularios
La pregunta :
Entonces, ¿qué opciones tengo para evitar que los robots / herramientas automatizadas accedan al sistema?