¿Rastreador automático de robots para verificar la autenticidad de las páginas web?

-3

Nuestros servidores parecen ser pirateados comúnmente, en su mayoría inyectando códigos / marcos maliciosos en nuestras páginas web o cambiando archivos descargables con puertas traseras, etc.

¿Existe alguna herramienta que pueda rastrear las páginas de nuestro sitio web, los códigos, los archivos, etc. y hacer una base de datos hash y, si se modifica algo, infórmeme por correo electrónico de manera instantánea para poder solucionarlo lo más rápido posible?

Comprobar todo manualmente es difícil.

    
pregunta robocheck 02.03.2013 - 22:50
fuente

2 respuestas

3

Si tenía sitios estáticos, podría tener sentido revisar los archivos en la interfaz, pero si tiene un sitio dinámico como un CMS, será muy difícil detectar cambios a través del rastreo, ya que, por definición, las páginas deberían ser cambiando su contenido con frecuencia.

En el backend, puede verificar que su código no haya sido pirateado o modificado mediante el uso de software de monitoreo de integridad de archivos, como tripwire . Esto le permitirá saber si alguien cambió los archivos de origen, agregó nuevos archivos, etc. Sin embargo, esto no le ayudará a detectar el XSS reflejado que se encuentra en la base de datos, etc. Puede escribir algunos scripts para verificar la integridad de la base de datos.

Sin embargo, si tiene vulnerabilidades que le permiten obtener privilegios de raíz, es posible que luego puedan desactivar la supervisión de la integridad del archivo. Si ejecuta su servidor web en un chroot / jail , esto podría reducirlo. probabilidad.

Siempre que sea posible, es posible que también desee migrar su contenido de solo información a un generador de sitios estáticos como jekyll o < a href="https://github.com/getpelican/pelican"> pelican . Esto te ayudaría a reducir tu huella.

    
respondido por el Eric G 02.03.2013 - 22:59
fuente
0

La utilidad de configuración de GNU tiene opciones para rastreo y descarga recursivos ; Es muy conveniente recuperar automáticamente un sitio completo. Podría usar eso para automatizar la comparación del estado de su sitio actual con lo que espera. Sin embargo, tenga en cuenta lo siguiente:

  • Esto le dará solo el resultado . Por ejemplo, cualquier código PHP se evalúa en el lado del servidor, por lo que no lo ve cuando lo descarga, solo lo que el código actualmente elige enviarle. Un atacante astuto podría intentar detectar su rastreador y servirle al sitio "normal", mientras envía las páginas desfiguradas a todos los demás.

  • Esto supone que tiene una "imagen de sitio normal" para comparar. Esto es fácil para los sitios con solo contenidos estáticos, pero muy difícil para los sitios con contenidos dinámicos.

  • Esto es como pagar a los policías para que sigan a los criminales y deben anotar cada crimen en los grandes libros de contabilidad. Contabilidad magistral, alta tasa de criminalidad. La detección de delitos es buena, la prevención de delitos es mejor.

respondido por el Thomas Pornin 03.03.2013 - 15:14
fuente

Lea otras preguntas en las etiquetas