¿Lista de finales / páginas de sitios web comunes para enumeración? [cerrado]

2

Actualmente estoy creando una herramienta OSINT basada en Python que le permite a un usuario rastrear un dominio provisto para las páginas usando los métodos tradicionales de raspado / araña, pero también quiero tener la opción de "fuerza bruta" páginas comunes para aplicaciones web y intente continuar el rastreo basado en los resultados encontrados. Por ejemplo, quiero que el usuario pueda proporcionar un nombre de dominio (example.com) y luego, una vez que agote los enlaces que se encuentran en el sitio principal, quiero que intente sistemáticamente una lista predefinida de páginas conocidas / comunes que existen ( example.com/wp-login.php, example.com/admin.php, etc ...) y luego use las páginas encontradas de esa fuerza bruta para continuar su rastreo.

Sé que NMap tiene algo parecido a esto con el enlace . Sin embargo, eché un vistazo al archivo .nse sin procesar y parece que no se está extrayendo de una lista, sino que está construyendo los enlaces de otra manera (no lo suficientemente fuerte como para saber cómo hacerlo). ¿Alguien sabe si existe una lista de páginas comunes que podría incluir en mi programa? ¿Siento que esto caería bajo el territorio "Google Dork"? Incluso algo como el "top 100" sería bueno.

Sé que esto sería ruidoso, pero planeo darles a los usuarios control sobre qué tan agresivos quieren que sea el escaneo.

Gracias de antemano!

    
pregunta Tobin Shields 28.08.2018 - 03:16
fuente

1 respuesta

4

Creo que el tipo de herramienta que está buscando se llama "web fuzzer". Una búsqueda rápida mostró una herramienta de código abierto llamada wfuzz , que contiene una carpeta llamada wordlist que tiene listas que parecen ser bonitas cerca de lo que describe.

    
respondido por el tlng05 28.08.2018 - 05:48
fuente

Lea otras preguntas en las etiquetas