Extrañas solicitudes a mi servidor

2

Recientemente revisé mis registros y encontré algunas solicitudes extrañas a mi servidor. por ejemplo,

GET /path/Microsoft.XMLHTTP HTTP/1.0
GET /path2/Scripting.FileSystemObject HTTP/1.0

Una nueva comprobación parece apuntar a algún robot que realiza el archivado del sitio web. ¿Un robot de archivado web ejecutaría dichas solicitudes en forma de comandos para archivar nuestro sitio?

Por ejemplo, si es de Internet Archive o de alguna biblioteca que realiza el archivado, estos bots de archivado realmente realizarían tal peticiones ? Pensé que solo harían arañas o capturarían todo el sitio web, y no invocarían tales comandos.

Actualización:

Tras una investigación adicional, descubrí que el robot de archivo probablemente profundizó en analizar un javascript en esa página y en capturar aquellas afirmaciones que contienen Scripting.FileSystem , por ejemplo,

var FSO = new ActiveXObject("Scripting.FileSystemObject");

Probablemente la razón es que el bot necesita obtener todo lo que pueda encontrar, por lo que incluso ActiveXobjects. ¿Es lógico pensar de esta manera?

    
pregunta Pang Ser Lark 23.10.2015 - 10:19
fuente

2 respuestas

4

Esto parece ser un bot que busca vulnerabilidades comunes en los sitios web. Estos bots son muy comúnmente ejecutados por hackers de sombrero negro para identificar posibles objetivos de piratería. Todos los sitios web son escaneados por tales bots regularmente. Es poco probable que sea un ataque específicamente dirigido a usted.

La única defensa útil es asegurarse de que no tenga ninguna aplicación web vulnerable en su sitio. Si utiliza algún software estándar en su servidor (en toda la pila, desde el sistema operativo hasta los scripts individuales), asegúrese de que estén siempre actualizados.

    
respondido por el Philipp 23.10.2015 - 10:43
fuente
3

Es muy común ver las solicitudes de escáner de vulnerabilidades en los registros del servidor.

Las páginas predeterminadas de las principales herramientas web, de administración de bases de datos, Linux y Windows, se verifican tarde o temprano, independientemente de lo que realmente esté usando.

Los robots buscan las contraseñas predeterminadas (sin cambios). Los bots también intentan encontrar otras vulnerabilidades y comprueban si está usando un software desactualizado con problemas de seguridad conocidos.

Incluso puede comprar dichos servicios de escáner de algunos proveedores. La compañía escaneará su sitio periódicamente, simplemente informándole todos los problemas descubiertos.

    
respondido por el h22 23.10.2015 - 13:53
fuente

Lea otras preguntas en las etiquetas